更新日 – 2024年5月9日 午前8時54分 IST
公開日 – 2024年5月9日 午前8時20分 IST

米国は、ChatGPT などのアプリの背後にある AI ソフトウェアへの中国のアクセス制限を検討している。| 写真提供: ロイター

バイデン政権は、ChatGPTのような人工知能システムの中核ソフトウェアである最先端のAIモデルにガードレールを設置する予備計画を策定し、中国とロシアから米国のAIを守るための新たな戦線を開く構えだと関係者らは語った。
商務省は、ソフトウェアとそのトレーニングに使用されたデータが秘密にされている独自仕様またはクローズドソースのAIモデルの輸出を制限するための新たな規制強化を検討していると、事情に詳しい3人の関係者が明らかにした。
いかなる措置も、過去2年間に中国が軍事目的で最先端技術の開発を遅らせるために導入した、高度なAIチップの中国への輸出を阻止する一連の措置を補完することになるだろう。そうであっても、規制当局が業界の急速な発展に追いつくのは困難だろう。
商務省はコメントを控え、ワシントンのロシア大使館もコメント要請にすぐには応じなかった。中国大使館は今回の措置を「典型的な経済的強制と一方的な脅迫行為であり、中国はこれに断固反対する」と述べ、自国の利益を守るために「必要な措置」を講じると付け加えた。
(その日のトップテクノロジーニュースについては、当社のテクノロジーニュースレター「Today's Cache」を購読してください)
現在、マイクロソフトが支援するオープンAI、アルファベット傘下のグーグル・ディープマインド、ライバルのアンスロピックなど、最も強力なクローズドソースAIモデルのいくつかを開発してきた米国のAI大手が、政府の監視なしに世界中のほぼ誰にでもそのモデルを販売することを阻止するものは何もない。
政府や民間の研究者らは、膨大な量のテキストや画像から情報を要約し、コンテンツを生成するモデルが米国の敵対勢力に悪用され、攻撃的なサイバー攻撃を仕掛けたり、強力な生物兵器を製造したりする恐れがあると懸念している。
情報筋の1人は、新たな輸出規制はロシア、中国、北朝鮮、イランを標的にする可能性が高いと述べた。マイクロソフトは2月の報告書で、中国と北朝鮮の政府、ロシアの軍事情報機関、イランの革命防衛隊と関係のあるハッカー集団が、大規模言語モデルを使用してハッキング活動を完璧にしようとしていたことを追跡したと述べた。
情報筋によると、米国はAIモデルの輸出規制を策定するために、昨年10月に発令されたAI関連の大統領令に含まれる、モデルのトレーニングに必要な計算能力の量に基づく基準に頼る可能性がある。そのレベルに達すると、開発者はAIモデルの開発計画を報告し、テスト結果を商務省に提出しなければならない。
この計算能力の基準は、どのAIモデルが輸出規制の対象となるかを決定する基準になる可能性があると、協議について説明を受けた2人の米国当局者と別の情報筋は述べた。詳細が公表されていないため、彼らは名前を明かすことを拒否した。
この規制が施行された場合、まだリリースされていないモデルの輸出のみが制限される可能性が高い。AIの動向を追跡している研究機関EpochAIによると、まだ基準値に達していないモデルがあるためだ。ただし、GoogleのGemini Ultraはそれに近いとみられている。
同情報筋は、当局が規制案を最終決定するのはまだまだ先のことだと強調した。しかし、そのような動きが検討されているという事実は、急速に進化する技術に強力な規制体制を課すことに深刻な困難があるにもかかわらず、米国政府が北京のAI野望を阻止する取り組みにおいてギャップを埋めようとしていることを示している。
バイデン政権が中国との競争や高度なAIの危険性に目を向ける中、AIモデルは「明らかにここで考えるべきツールの一つであり、潜在的なボトルネックの一つだ」と元国家安全保障会議関係者のピーター・ハレル氏は述べた。「実際、現実的に言えば、それを輸出管理可能なボトルネックに変えることができるかどうかはまだ分からない」と同氏は付け加えた。
米国の諜報機関、シンクタンク、学者らは、外国の悪意ある人物が高度なAI機能にアクセスすることで生じるリスクをますます懸念している。グリフォン・サイエンティフィックとランド研究所の研究者らは、高度なAIモデルは生物兵器の製造に役立つ情報を提供できる可能性があると指摘した。
国土安全保障省は、2024年の国内脅威評価において、サイバー攻撃者はAIを使用して「より大規模で、より迅速で、より効率的で、より回避力の高いサイバー攻撃を可能にするための新しいツールを開発する」可能性が高いと述べた。
「AIの利用と悪用は爆発的に増加する可能性があり、我々はそれを追跡するのが非常に困難だ」と、国家情報長官室のブライアン・ホームズ氏は3月の輸出管理会議で述べ、中国の進歩を特に懸念すべき事態として指摘した。
こうした懸念に対処するため、米国は米国製AIチップとそれを製造するためのツールの中国への流入を阻止する措置を講じてきた。
また、サイバー攻撃に利用できる強力なAIモデルの訓練に外国の顧客が自社のサービスを使用した場合、米国のクラウド企業に政府への報告を義務付ける規則も提案した。
しかし、これまでのところ、AIモデル自体には対処していない。商務省で米国の輸出政策を監督するアラン・エステベス氏は12月、業界からのフィードバックを求める前に、同省がオープンソースの大規模言語モデル(LLM)の輸出を規制する選択肢を検討していると述べた。
ワシントンDCに拠点を置くシンクタンクCNASのAI政策専門家ティム・フィスト氏は、この基準は「新しいモデルの能力とリスクを測定するより良い方法が開発されるまでの暫定的な措置としては良い」と述べている。
元ホワイトハウスおよび司法省当局者のジャミル・ジャファー氏は、バイデン政権はコンピューティング能力の閾値を使用せず、モデルの能力と使用目的に基づいた制御を選択すべきだと述べた。「技術の閾値ではなく国家安全保障上のリスクに焦点を当てる方が、より持続的で脅威に焦点を当てているため、より良い戦略だ」と同氏は述べた。
この基準は固定されたものではない。情報筋の一人は、データの種類や、生物兵器の製造に使用できるタンパク質の設計能力など、AIモデルの潜在的用途などの他の要因と相まって、商務省は最終的に下限を引き下げる可能性があると述べた。
閾値に関係なく、AI モデルの輸出を制御することは困難です。多くのモデルはオープンソースであるため、検討中の輸出規制の範囲外のままとなります。
フィスト氏は、より高度な独自モデルに規制を課すことさえ困難だと述べ、どのモデルを規制すべきかを判断するための適切な基準を規制当局が定義するのに苦労する可能性が高いと指摘し、中国は独自のAIソフトウェアの開発で米国よりわずか2年程度遅れているだけだと指摘した。
検討されている輸出規制は、ChatGPT のような一部の消費者向けアプリケーションを動かすバックエンド ソフトウェアへのアクセスに影響を与えるが、下流のアプリケーション自体へのアクセスは制限しない。(Alexandra Alper 記者による報告、Karen Freifeld 記者と Anna Tong 記者による追加報告、Chris Sanders 記者と Anna Driver 記者による編集)
利用規約 | 機関購読者
コメントは英語で完全な文章で記入してください。攻撃的または個人的な内容は禁止されています。コメントを投稿する際は、コミュニティ ガイドラインに従ってください。
新しいコメント プラットフォームに移行しました。すでに The Hindu の登録ユーザーでログインしている場合は、引き続き記事をご覧いただけます。アカウントをお持ちでない場合は、登録してログインし、コメントを投稿してください。ユーザーは、Vuukle のアカウントにログインすることで、以前のコメントにアクセスできます。

元記事: https://www.thehindu.com/sci-tech/technology/us-eyes-curbs-on-chinas-access-to-ai-software-behind-apps-like-chatgpt/article68156103.ece

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください