欧州議会は2024年3月13日に重要な発表を行い、「AI法」の可決を宣言した。同法は2025年半ばから段階的に施行される予定だ。
EUがAI法制化で主導権を握っていることから、EUが一般データ保護規則(GDPR)の成果を再現し、世界中の立法者がAI技術の規制枠組みを策定する際のモデルとなる可能性があるという楽観的な見方が出ている。
しかし、AI法は、現在の規制上の課題も浮き彫りにしています。AIシステムを構成するものなど、基本的な問題でさえ、依然として長い議論を引き起こしています。
EU は AI システムを、許容できないリスク、高リスク、限定的リスク、最小リスクの 4 つのリスク レベルに分類しています。リスク レベルが高くなるほど、企業の責任は大きくなり、使用が全面的に禁止される場合もあります。逆に、リスクの低い AI システムでは、責任は軽くなります。
許容できないリスクとみなされる AI システムは全面的に禁止されます。たとえば、AI は性別、宗教、人種に基づいて特定のグループに危害を加えたり、社会信用スコアリングを行ったりすることはできません。特定の状況下での生体認証も禁止されます。
2023年11月、ジョー・バイデン米大統領は大統領令でAIにおける生体認証のリスクを強調し、悪用を防ぐためのガイドラインを策定する予定だ。
高リスクの AI システムには、人々の日常生活に不可欠な健康、安全、その他の基本的権利に関する情報が含まれます。たとえば、基本的なインフラに関連する AI は公共の安全に影響を及ぼし、採用時に AI を使用して履歴書をスキャンしてスクリーニングすると、不公平な結果が生じる可能性があります。
個人の権利を侵害する可能性のある個別の融資適格性を判断するために AI を使用する銀行も、このカテゴリに該当します。このような高リスク AI を EU で運用するには、厳格なリスク評価とテストが必要です。
生成 AI チャットボットは、画像生成やディープフェイク技術とともに、限定リスクのカテゴリに分類されます。限定リスク AI は透明性を重視しており、企業はユーザーが AI とやり取りするときや、欺瞞を防ぐために画像が AI によって生成されたときにユーザーに開示する必要があります。
OpenAI と Google は、識別を容易にするために AI 生成画像透かし機能のサポートを開始しました。OpenAI の DALL-E 3 は C2PA 標準をサポートし、透かし入り画像と AI 生成メタデータを提供します。AIGC が承認する C2PA には、Microsoft、Google、Adobe、Arm、Intel、Sony、BBC、Publicis Group などのメンバーが参加しています。
Google Cloud と共同で開発された Google DeepMind の SynthID ツールは、ピクセル間の微妙な透かしを提供します。肉眼では見えませんが、ツールを使用すれば検出できるため、美観上の懸念に対処できます。
2024年は多くの国で選挙が行われる年であり、テクノロジー企業は選挙結果に影響を与えたとの非難を回避するために準備を進めている。透かしツールはAIが生成した画像を識別するのに役立つ可能性があるが、それでもユーザー側による検証が必要である。
最小リスクのカテゴリには、EU の一般法に準拠する必要がある推奨システムやスパム ブロッカーが含まれますが、AI 法ではこれらを具体的に規制していません。検索エンジンや電子商取引のランキング システムは対象外かもしれませんが、精密な広告システムは依然として規制の対象になる可能性があります。
AI法では、「汎用AIモデル」(GPAI)も定義されており、透明性、リスク評価の完了、著作権規制の遵守が求められます。
AI法に違反した場合、最高3,000万ユーロ、または同社の全世界収益の6%の罰金が科せられる可能性がある。しかし、EU加盟国は監督当局を任命する必要があり、小規模な国に財政的および運営上の負担がかかる可能性があるため、全面的に施行するのは予想以上に困難になる可能性がある。
さらに、業界と学界の両方からの批判は、AI システムの定義が広範かつ曖昧であることを浮き彫りにしており、規制の不確実性につながり、潜在的なコンプライアンス コストを理由に投資家や開発者が EU 市場に警戒する原因となっています。業界内の懸念は、EU における AI 業界の成長を妨げる可能性のある法律にも及び、AI 業界チェーン全体でのオープン ソース モデルの違法使用の場合の責任について疑問が生じています。
その結果、EU に対して、テクノロジーそのものだけでなく AI の影響に焦点を当てた、効果的で測定可能な規制方法を開発することを求める声が高まっています。この問題に関する学術的意見はさまざまで、過剰規制に関する業界の懸念を反映する意見もあれば、現在の規制は不十分だと考える意見もあります。さらに、AI システムが「技術的に中立」と見なされると、AI 開発の可能性を見落とすリスクがあります。
別の話だが、EU離脱後の英国はAI関連法を策定しており、法学修士課程の発展を重視している。EUとは異なり、英国政府の国家AI戦略は「イノベーションの促進」を明確に目指しており、リシ・スナック首相は性急なAI規制を避ける必要性を強調した。2023年後半、英国はAIサミットを主催し、20か国以上と100社近くの大手企業を集めて、欧州のAIハブとなるという野心を宣言した。
英国政府はイノベーションを歓迎し、OpenAI にロンドン事務所の設立を依頼した。米中競争の真っ只中、EU は自国の企業をどのように支援し、迅速に追いつき、規制が業界環境を抑圧するのではなく促進するように戦略を立てる必要がある。

元記事: https://www.digitimes.com/news/a20240507PD211/eu-ai-regulation-edge-computing-llm.html