- 経済協力開発機構(OECD)が、企業が安全で信頼性の高いAIを推進する取り組みを報告するための世界初のフレームワークを発表
- このイニシアティブは、日本のG7議長国である際に開始された広島プロセス国際行動規範に基づいており、先端AIシステムを開発する組織のための中心的なコンポーネントである
- 企業は、AIリスク管理の行動や実践に関する比較可能な情報を提供できるようになり、リスク評価、インシデント報告、情報共有メカニズムなどが含まれる
- 世界最大手の先進AIシステム開発者がこのイニシアティブに貢献し、そのパイロットフェーズで機能をテストし、効果を確認した
- OECD事務総長のMathias Cormann氏は、「OECDは、AIシステムへの信頼を築くために透明性、比較可能な報告、国際的な利害関係者間の協力を促進することに取り組んでいます。」と述べている
- 報告フレームワークを広島行動規範を含む複数のリスク管理システムと調整することで、国際的なAIガバナンスメカニズムにおける相互運用性と一貫性を促進することを目指している
- 先進AIシステムを開発する組織は、2025年4月15日までに初の報告書を提出し、その後も随時提出を受け付ける
この記事によると、OECDがAIの安全性、信頼性を促進するための企業の取り組みを報告するためのグローバルなフレームワークを発表した。企業はAIリスク管理の行動や実践に関する情報を提供し、信頼と責任を高めることができる。さまざまな国際的なAIガバナンスメカニズムと報告フレームワークを調整することで、相互運用性と一貫性を促進することを目指している。
元記事: https://www.bisinfotech.com/oecd-launches-global-framework-for-g7-ai-code/