- スタンフォード-MIT-プリンストンのワークショップで、第三者AI評価を支援するための法的保護、標準化された評価プラクティス、およびより良い用語の必要性が強調されました。
- 第三者AI評価は、企業の利益とは独立しており、多様な視点と専門知識を取り入れ、広範囲の現実世界の応用をよりよく反映するため、これらのリスクを評価するために重要です。
- 第三者AI評価のための法的保護や標準化、評価プロセスの調整、共有用語の必要性が強調されました。
このワークショップでは、第三者AI評価に関する合意された領域を反映したキーポイントが議論されました。Rumman Chowdhury氏の基調講演から始まり、AIモデルの評価や設計、法律と政策に関するセッションが行われました。
第一パネルでは、Google DeepMindのNicholas Carlini氏、OpenAIのLama Ahmad氏、Hugging FaceのAvijit Ghosh氏、MicrosoftのVictoria Westerhoff氏がプレゼンテーションを行いました。AI脆弱性の評価や対策について議論されました。
第二パネルでは、Mozilla FoundationのDeb Raji氏、BugcrowdのCasey Ellis氏、CISAのJonathan Spring氏、CMUのAISIRTのLauren McIlvenny氏が登壇し、第三者評価の設計に関するインサイトが提供されました。
第三パネルでは、Hacking Policy CouncilのHarley Geiger氏、HackerOneのIlona Cohen氏、OpenPolicyのAmit Elazari氏が登壇し、第三者AI評価の法律と政治に焦点を当てました。