要約:
- 欧州のAI規制によるデータによると、一部の主要なAIモデルは、サイバーセキュリティの強靱性や差別的な出力などの重要な分野で欧州の規制基準を満たしていない。
- スイスのLatticeFlow AIとそのパートナーによって開発された新しいツールは、大手のMetaやOpenAIなどのテック企業が開発した生成型AIモデルを幅広いカテゴリーでテストし、技術的な強固さや安全性を含む数十のカテゴリーで評価を行っている。
- テスト結果によると、一部のモデルには欠点があり、企業は法令遵守を確保するためにリソースを振り向ける必要がある可能性がある。
- AI法に違反した企業は、3500万ユーロ(約38億ドルまたは約163.2億リンギット)または世界的な年間売上高の7%の罰金を科される。
感想:
生成型AIモデルの開発における差別的な出力やサイバー攻撃などの課題が浮き彫りになっており、規制当局と企業の間で重要な議論が行われていることが理解されます。LatticeFlowのテストは、企業にとって法令遵守の課題を明らかにし、モデルの改善に役立つ道筋を提供しているようです。欧州のAI規制が進む中、技術の進化と法的要件の調整が重要であり、今後の展開に注目が集まります。
元記事: https://theedgemalaysia.com/node/730431