• AI安全研究所(AISI)がサンフランシスコにオフィスを設立し、初めてAIモデルの安全性テスト結果を公開
  • AISIは米国の安全研究所と協力し、AI安全性テストの共通アプローチを構築
  • ロンドンスタッフ30人余りの拡大により、米国で技術スタッフと研究ディレクターを採用予定
  • AISIは5つの大規模言語モデルのセキュリティテスト結果を公開し、セキュリティ、生物学、化学、自律性、保護の4つのリスク領域で評価
  • AISIはモデルの能力の実証評価に貢献し、既存の保護策の堅牢性の欠如を示す

技術者にとっては、AI安全性に関する詳細な評価結果を公開するAISIの取り組みは非常に重要です。モデルのリスク領域における評価結果は、AIの安全性テストの進歩に寄与し、新たな国際基準の構築に向けた一歩となるでしょう。

元記事: https://www.computerweekly.com/news/366585598/UK-AI-Safety-Institute-to-open-San-Francisco-branch