• 欧州の規制によると、一部の主要なAIモデルは、サイバーセキュリティの強靭性や差別的な出力などの重要な領域で不足している。
  • 欧州連合は、特定の「汎用」AIに関する具体的な規則を策定することを決定し、LatticeFlowとパートナーによって開発された新しいツールが、大手テック企業のAIモデルをテストしている。
  • 各モデルに0から1のスコアを付与し、LatticeFlowが公開したリーダーボードによると、Alibaba、Anthropic、OpenAI、Meta、Mistralのモデルはすべて0.75以上の平均スコアを獲得。
  • 欧州連合のAI法に違反する企業は、3500万ユーロ(3800万ドル)または世界全体の年間売上高の7%の罰金を科される可能性あり。
  • LatticeFlowのテストは、特定の領域でテック企業が法令遵守に不足するリスクを示す早期の指標を提供している。
  • テストでは、OpenAIの「GPT-3.5 Turbo」やAlibaba Cloudの「Qwen1.5 72B Chat」などのモデルが特定の領域で低いスコアを獲得。
  • 欧州委員会は、外部ツールの検証はできないが、LatticeFlowのテスト結果について通知を受け、新法を実施する最初のステップとして歓迎している。

この記事では、欧州のAI規制に基づき、主要なAIモデルの欠点が明らかになっています。LatticeFlowのテストは、テック企業が法令遵守に不足するリスクを明らかにし、モデルの最適化に焦点を当てることが重要であることを示唆しています。

元記事: https://www.bworldonline.com/technology/2024/10/17/628238/eu-ai-act-checker-reveals-big-techs-compliance-pitfalls/