- Microsoft、Amazon、OpenAIを含む主要なテック企業が、ソウルAIセーフティサミットで人工知能安全に関する歴史的な国際協定に合意
- 合意に基づき、米国、中国、カナダ、英国、フランス、韓国、UAEなどの企業が最先端のAIモデルの安全な開発を確保するための自発的なコミットメントをする
- AIモデルメーカーは、フロンティアモデルの課題を測定する方法などを示す安全枠組みを公表することに同意
- これらの枠組みには、フロンティアAIシステムに関連するリスクを定義する「赤い線」が含まれ、自動サイバー攻撃や生物兵器の脅威などが「許容できない」と見なされる
- 極端な状況に対応するため、企業はこれらのリスクの緩和を保証できない場合にAIモデルの開発を停止する「キルスイッチ」を導入する予定
この記事は、主要テック企業がAI安全に関する国際協定に合意したことを報じています。各国からの企業が最先端AIモデルの安全な開発を確保するためのコミットメントを行い、「赤い線」を設定して危険なリスクを定義し、キルスイッチを導入する計画を立てているとのことです。