• スタンフォード-MIT-プリンストンのワークショップで、第三者AI評価を支援するための法的保護、標準化された評価プラクティス、およびより良い用語の必要性が強調されました。
  • 第三者AI評価は、企業の利益とは独立しており、多様な視点と専門知識を取り入れ、広範囲の現実世界の応用をよりよく反映するため、これらのリスクを評価するために重要です。
  • 第三者AI評価のための法的保護や標準化、評価プロセスの調整、共有用語の必要性が強調されました。

このワークショップでは、第三者AI評価に関する合意された領域を反映したキーポイントが議論されました。Rumman Chowdhury氏の基調講演から始まり、AIモデルの評価や設計、法律と政策に関するセッションが行われました。

第一パネルでは、Google DeepMindのNicholas Carlini氏、OpenAIのLama Ahmad氏、Hugging FaceのAvijit Ghosh氏、MicrosoftのVictoria Westerhoff氏がプレゼンテーションを行いました。AI脆弱性の評価や対策について議論されました。

第二パネルでは、Mozilla FoundationのDeb Raji氏、BugcrowdのCasey Ellis氏、CISAのJonathan Spring氏、CMUのAISIRTのLauren McIlvenny氏が登壇し、第三者評価の設計に関するインサイトが提供されました。

第三パネルでは、Hacking Policy CouncilのHarley Geiger氏、HackerOneのIlona Cohen氏、OpenPolicyのAmit Elazari氏が登壇し、第三者AI評価の法律と政治に焦点を当てました。

元記事: https://hai.stanford.edu/news/strengthening-ai-accountability-through-better-third-party-evaluations