- Googleが最新の責任あるAI報告書に言及しなかった部分が特筆される
- 2024年にGoogleが公開した安全性研究論文数(300以上)、AI教育・トレーニング支出(1億2000万ドル)、および様々なガバナンス基準に焦点を当てる
- 報告書は主にセキュリティとコンテンツに焦点を当てた赤チーミングに焦点を当て、Gemini、AlphaFold、Gemmaなどのプロジェクトを掘り下げ、モデルが有害なコンテンツを生成または浮上させないようにする方法について説明
- GoogleはFrontier Safety Frameworkを更新し、新しいセキュリティ推奨事項、誤用緩和手順、および「欺瞞的なアライメントリスク」を追加
- 報告書はエンドユーザーの安全性、データプライバシー、セキュリティに焦点を当てつつ、兵器や監視に関する誓約を削除
- GoogleはAI原則を更新し、「大胆な革新、協力的な進歩、責任ある開発と展開」という3つの中核的な原則に焦点を当てる
- 技術巨人たちが軍事用途のAIに対する姿勢を変化させている様子が見られる
Googleの最新の責任あるAI報告書は、安全性、データプライバシー、セキュリティに焦点を当てつつ、軍事用途や監視に関する誓約を削除した点が注目される。報告書はエンドユーザーの安全性に重点を置いており、一方で兵器や監視に対する誓約を削除したことが、責任あるAIとは何かという永遠の問いを浮き彫りにしている。