世界中の AI 規制の動向を追跡します。
世界中の AI 規制の動向を追跡します。
人工知能(AI)は近年大きな進歩を遂げ、ますます一般の人々の意識の中に浸透しつつあります。
計算能力の向上と機械学習の進歩が相まって、AI は急速に発展してきました。新しい AI アプリケーションによって新しいビジネスの方法が生まれ、大きなチャンスがもたらされました。一方で、個人への予期せぬ影響 (AI エラーによって個人の信用スコアや評判が損なわれるなど) から、悪意のある第三者による AI の悪用 (AI システムを操作して不正確または誤解を招く出力を生成する、AI を使用してディープフェイクを作成するなど) まで、潜在的なリスクも生じています。
世界中の政府や規制機関は、規制の枠組みが時代遅れにならないよう、迅速に行動する必要がありました。さらに、G7、国連、欧州評議会、OECDなどの国際機関は、独自のAIフレームワークを発行することでこの技術の変化に対応してきました。しかし、彼らは皆、技術開発に遅れを取らないように必死になっていて、AIを規制するための新たな取り組みが遅れを取り戻すのに苦労する兆候がすでにあります。ある程度の国際的コンセンサスを導入する取り組みとして、英国政府は2023年11月に初のグローバルAI安全サミットを開催し、世界中でAIの安全で責任ある開発を促進することを目指しました。
ほとんどの管轄区域は、AI のイノベーションと投資を奨励すると同時に、起こり得る危害から保護するためのルールを策定しようと努めながら、バランスを取ろうとしてきました。しかし、世界中の管轄区域はこれらの目標を達成するために大幅に異なるアプローチを採用しており、その結果、断片化され一貫性のない AI 規制環境から企業が直面するリスクが増大しています。とはいえ、現段階では、いくつかの傾向が明らかになりつつあります。
ほぼすべての分野の企業は、新たな機会と新たな潜在的なビジネスリスクを特定するために、これらの動向を注意深く監視し、AI 規制と今後の動向を把握する必要があります。しかし、この初期段階であっても、AI をどのように規制するかという中核的な問題に対して各管轄区域が採用しているアプローチに一貫性がないことは明らかです。その結果、国際的な企業は、世界のさまざまな地域で大幅に異なる AI 規制コンプライアンスの課題に直面する可能性があります。そのため、この AI トラッカーは、企業が事業を展開している主要市場における AI 規制の現状を理解できるように設計されています。各管轄区域が AI 規制に対して採用しているアプローチを分析し、今後の方向性について役立つ解説を提供します。
世界の AI 規制は絶えず変化しているため、この AI トラッカーは時間の経過とともに進化し、適切なタイミングで更新や新しい管轄区域が追加されます。当社は、企業がこれらの絶えず変化する問題に対処するのに役立つ洞察を継続的に提供していきますので、どうぞご期待ください。
自主的な AI 倫理原則はオーストラリアにおける責任ある AI 開発を導き、潜在的な改革が検討されています。
ブラジルの提案された AI 規制の施行は、コンプライアンス要件の検討が保留されているため、依然として不透明です。
AIDAはカナダの連邦レベルでAIを規制すると予想されているが、州議会ではまだ導入されていない。
「AI暫定措置」は、中国初の生成AIサービスの管理に関する具体的な行政規制です。
欧州評議会は、ガバナンス、説明責任、リスク評価を網羅し、デジタル空間における人権、民主主義、法の支配を守るために、AIに関する新たな条約を策定している。
EU は、人間中心で信頼できる AI の世界的なハブとなることを目指して、先駆的な EU AI 法を導入しました。
フランスは国際的な取り組みやEUのAI法交渉に積極的に参加し、分野別の法律を提案しています。
G7のAI規則は、加盟国に対し、国際人権法および関連する国際枠組みの遵守を義務付けています。
ドイツは AI に特化した法律の必要性を評価し、国際的な取り組みに積極的に取り組んでいます。
国家の枠組みは、金融および医療分野における分野固有の取り組みとともに、インドの AI 規制へのアプローチに影響を与えます。
イスラエルは、中核的な問題と倫理原則に対処するための政策と分野別のガイドラインを通じて、責任ある AI イノベーションを推進しています。
イタリアはEUのAI法交渉において重要な役割を果たしており、将来の法律に関する政治的議論に参加しています。
日本はAIガバナンスにソフトローアプローチを採用しているが、議員らは生成AI基盤モデルへのハードローアプローチの提案を進めている。
立場表明書は、AI の発展を規制するための分野別の法改正とともに、ノルウェーの AI に対するアプローチを説明しています。
OECD の AI に関する勧告では、加盟国が信頼できる AI の原則を遵守することを奨励しています。
シンガポールの AI フレームワークは、AI の倫理とガバナンスの原則を導き、既存のセクター固有の規制によって AI のリスクに対処しています。
スペインは欧州初の AI 監督機関を設立し、EU AI 法の交渉に積極的に参加しています。
スイスの国家AI戦略はAIの利用に関するガイドラインを定めており、2025年にAI規制案を最終決定することを目指している。
台湾では法案やガイドラインの草案が検討されており、分野別の取り組みはすでに実施されている。
英国は包括的な規制よりも柔軟な枠組みを優先し、分野別の法律を重視しています。
国連のAIに関する新たな決議案は、安全で安心、信頼できるAIシステムに関する世界的な合意を得るために、加盟国が国家規制とガバナンスのアプローチを実施することを奨励している。
米国は AI を規制するために既存の連邦法とガイドラインに依存していますが、AI に関する法律と連邦規制機関を導入することを目指しています。
自主的な AI 倫理原則はオーストラリアにおける責任ある AI 開発を導き、潜在的な改革が検討されています。
オーストラリアは、AIを直接規制する特定の法律や規則をまだ制定していません。現在まで、オーストラリアのAIへの対応は自主的なものであり、2019年に公表されたAI倫理原則(「AI倫理原則」)1(下記10項参照)が含まれます。AI倫理原則は、AIの責任ある設計、開発、実装に関する8つの自主原則で構成されており、OECDのAI原則と一致しています。
2023年6月、連邦産業科学資源省(以下「省」)は、「オーストラリアにおける安全で責任あるAI」(以下「協議」)2に関する協議を開始しました。この協議では、AIの安全で責任ある開発と使用を確保するためのガバナンスメカニズムの開発と、オーストラリアの現在の規制枠組みにおける潜在的なギャップの特定に重点が置かれました。
2024 年 1 月 17 日、オーストラリア政府は協議に対する暫定回答 (「暫定回答」) を発表しました。3 暫定回答では、現在の規制枠組みでは、合法ではあるがリスクの高い状況での AI システムの使用から生じる危害を十分に防止できない可能性があると指摘されています。したがって、中期的には大幅な改革が期待され、適切な強制的な保護措置とその最適な実施方法に当初重点を置いたリスクベースの枠組みが採用される可能性が高いと思われます。
暫定対応に続いて、オーストラリア政府は、高リスク環境での義務的な AI ガードレールのオプションを含む、透明性、テスト、説明責任に関する規制の策定において省を支援するために、新しい人工知能専門家グループの設立を発表しました。
前述のとおり、オーストラリアには今のところ AI を直接規制する特定の法律や規制はありません。協議も暫定回答も、具体的な AI 規制がいつ頃予定されているかについての目安となるタイムラインは示していません。
AI を規制することを目的としていないものの、オーストラリアにおける AI の開発や使用に影響を及ぼす可能性のある法律は数多くあります。これらの法律の非網羅的なリストには、次のものが含まれます。
暫定対応において、オーストラリア政府は、AI がもたらす危害に対処するために、既存の法律を強化する必要がある可能性が高いことを認めました。この目的のため、オーストラリア政府は現在、オンライン上の誤報や偽情報と戦うための規制権限をオーストラリア通信メディア庁 (ACMA) に付与する新しい法律を策定しており、その範囲は AI によって生成されるデジタル プラットフォーム上のコンテンツにまで及びます。
オーストラリアでは、AIの定義はいかなる法令にも正式には採用されていない。協議において、連邦政府省庁は以下の定義を採用した。8
AI、機械学習、アルゴリズムの定義は、国際標準化機構の定義に基づいていると述べられています。9
前述のとおり、オーストラリアには AI を直接規制する特定の法律や規制はありません。したがって、現段階では特定の地域的範囲に関するガイダンスはほとんどありません。
前述のとおり、オーストラリアには AI を直接規制する特定の法律や規制はありません。したがって、現段階では特定の分野の範囲に関するガイダンスはほとんどありません。現在まで、協議と暫定対応の焦点は特定の分野に限定されておらず、AI 固有の規制はオーストラリア経済のすべての分野に適用されることが予想されます。
前述のとおり、オーストラリアには AI を直接規制する特定の法律や規制はありません。暫定対応では、海外で開発されたモデルをオーストラリアのアプリケーションに組み込むことができるなど、特定のモデルの開発と展開に関する特定の義務を考慮する必要があると特定されましたが、現在のところ、AI システムの開発者、ユーザー、オペレーター、展開者に課される特定の義務や独自の義務に関するガイダンスはほとんど、あるいはまったくありません。
AI倫理原則は任意ではありますが、(i)オーストラリア国民全員にとってより安全で、より信頼性が高く、より公平な結果を達成すること、(ii)AIアプリケーションの影響を受ける人々への悪影響のリスクを軽減すること、(iii)企業や政府がAIを設計、開発、実装する際に最高の倫理基準を実践できるように支援することで、AIが「安全で、安心で、信頼できる」ものとなるよう設計されています。
前述のとおり、オーストラリアには AI を直接規制する特定の法律や規制はありません。暫定対応において、オーストラリア政府は AI 規制にリスクベースのフレームワークを採用することを示唆しました。つまり、規制要件は AI の特定の使用、展開、開発によってもたらされるリスクのレベルに見合ったものとなり、たとえば、リスクの高い AI アプリケーションには、元に戻すことが困難または不可能な、人々に悪影響を及ぼす可能性のある使用が含まれる可能性が高くなります。ただし、この段階では、特定のリスク カテゴリについてさらに議論または開発されていません。
前述のとおり、オーストラリアには AI を直接規制する特定の法律や規制はありません。自主的な AI 倫理原則では、安全でセキュリティが高く、信頼性の高い AI を確保するための次の大まかな原則を定めています。
現在、オーストラリアには AI に特化した規制機関はありません。
しかし、オーストラリア競争消費者委員会、ACMA、オーストラリア情報コミッショナー事務局、eセーフティコミッショナーなどの分野別規制当局が、オーストラリアにおける AI 規制に対するオーストラリア政府の取り組みに関与することが予想されます。前述のように、ACMA には、AI によって生成されるデジタル プラットフォーム上のオンライン誤情報と戦うための一定の規制権限が与えられることが予想されます。
前述のとおり、オーストラリアには AI を直接規制する特定の法律や規制はありません。AI の使用、展開、開発は、AI に特化していないその他の法律や規制に違反した場合、執行や罰則の対象となる可能性があります。
1 AI倫理原則(2019)は、こちらからご覧いただけます。2 諮問文書は、こちらからご覧いただけます。3 暫定回答は、こちらからご覧いただけます。4 オンライン安全法2021(Cth)は、こちらからご覧いただけます。5 オーストラリア競争消費者委員会対トリバゴNV [2020] FCA 16は、こちらをご覧ください。6 プライバシー法1988(Cth)は、こちらからご覧いただけます。7 法人法2001(Cth)は、こちらからご覧いただけます。8 諮問は5ページをご覧ください。9 ISO/IEC 22989:人工知能の概念と用語は、こちらをご覧ください。
White & Case とは、ニューヨーク州に登録された有限責任パートナーシップである White & Case LLP、英国法に基づいて設立された有限責任パートナーシップである White & Case LLP、およびその他のすべての関連パートナーシップ、会社、団体で構成される国際的な法律事務所を指します。この記事は、関心のある人々への一般的な情報提供を目的として作成されています。包括的な性質のものではなく、包括的な性質を意図したものでもありません。その内容は一般的な性質であるため、法的アドバイスと見なされるべきではありません。© 2024 White & Case LLP
White & Case とは、ニューヨーク州に登録された有限責任パートナーシップである White & Case LLP、英国法に基づいて設立された有限責任パートナーシップである White & Case LLP、およびその他のすべての関連パートナーシップ、会社、団体から構成される国際的な法律事務所を意味します。
この記事は、関心のある人々への一般的な情報提供を目的として作成されています。包括的な内容ではなく、また包括的な内容にしようとするものでもありません。内容が一般的な性質のものであるため、法律上のアドバイスとしてみなされるべきではありません。
弁護士広告。過去の結果が同様の結果を保証するものではありません。
元記事: https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-australia