要約:
- 欧州連合(EU)が歓迎した新しいツールが、MetaやOpenAIなどの大手テック企業が開発した生成AIモデルを検証し、幅広いAI法に準拠するためのテストを実施。
- AIモデルのテストにより、サイバーセキュリティの弾力性や差別的な出力など、欧州の規制基準に適合しない面が明らかになった。
- スイスのLatticeFlow AIとETHチューリッヒ大学、ブルガリアのINSAITが協力して開発したフレームワークは、AIモデルに技術的な堅牢さや安全性などのさまざまなカテゴリーで0から1のスコアを付与。
- 欧州連合はAI法に違反する企業に最大3,500万ユーロ(約3億8,000万ドル)または世界グローバル年間売上高の7%の罰金を科す。
- 生成AIモデルの開発における差別的な出力やサイバー攻撃への脆弱性など、テクノロジー企業が法に適合しないリスクが明らかになっている。
考察:
テスト結果により、生成AIモデルの欧州規制基準に対する企業の適合性が明らかになっており、AI法の施行に向けた取り組みが進展していることが示唆されています。生成AI技術の進化に伴い、法規制への対応が重要となる中、ツール開発やテストにより企業が適切な対策を講じることが重要であると言えます。