• 英国のAI安全機関がサンフランシスコにオフィスを拡大
  • AI Safety Instituteの拡張は英国組織をOpenAI、Microsoft AI、Anthropicなどの米国のAI巨大企業に近づける
  • 新オフィスは英国のリーダーシップを続けながら、米国とのパートナーシップを強化し、他の国々が専門知識を活用できるようにする
  • 英米政府間でAI安全テストに協力する共同協定に続いて発表
  • AI Safety InstituteはGoogle DeepMindなどのAI研究者からなるグループで、さまざまなAIモデルの安全性をテスト
  • 公開された5つの先進AIモデルのテスト結果は、すべてのモデルが「基本的なジェイルブレイクに非常に脆弱」であり、一部は「保護策を回避する専用の試みなしに「有害な出力」を生成
  • AI安全機関の議長Ian Hogarthは、評価が模型の能力と既存の保護策に対する堅牢性の不足について経験的評価に貢献するだろうと述べた
  • AI Safety Summitのフォローアップは今週、韓国のソウルで開催予定

英国のAI安全機関がサンフランシスコにオフィスを拡大することで、米国のAI巨大企業に近づく機会を得る。彼らは英国のリーダーシップを維持しながら、米国とのパートナーシップを強化し、他の国々に専門知識を提供することを目指している。AI Safety Instituteは、AIモデルの安全性をテストするために設立され、この分野はまだ非常に若く新興している。今後のAI安全サミットは、今週、韓国のソウルで開催される予定である。

元記事: https://www.uktech.news/ai/ai-safety-institute-san-francisco-20240520