米当局は、クローズドソースのAIモデルの中国、ロシア、その他のライバル国への輸出を制限しようとしているが、どのような規制を課そうとしているのかは不透明だ。
米国は、中国、ロシア、その他の懸念国が自国の最先端のAIモデルにアクセスできないようにするために、人工知能開発のガードレールを拡大しようとしている。
バイデン政権はChatGPTのようなAIシステムの中核ソフトウェアを保護するための予備的な計画を立てていると情報筋が明らかにした。
商務省は、ソフトウェアとそのトレーニングに使用されたデータが秘密にされている独自仕様またはクローズドソースのAIモデルの輸出を制限するための新たな規制強化を検討していると、事情に詳しい3人の関係者が明らかにした。
いかなる措置も、中国による軍事目的の最先端技術の開発を遅らせる目的で、高度なAIチップの中国への輸出を阻止するために過去2年間に導入された一連の措置を補完するものとなるだろう。
専門家は、規制当局が業界の急速な発展に追いつくのは難しいだろうと警告している。しかし、情報筋によると、禁止措置を課すほどの計算能力のレベルに達したAIモデルはまだ存在しないという。
現在、マイクロソフトが支援するオープンAI、アルファベット傘下のグーグル・ディープマインド、ライバルのアンスロピックなど、最も強力なクローズドソースAIモデルのいくつかを開発してきた米国のAI大手が、政府の監視なしに世界中のほぼ誰にでもそのモデルを販売することを阻止するものは何もない。
商務省はコメントを控え、ワシントンのロシア大使館もコメント要請に応じなかった。中国大使館は今回の措置を「典型的な経済的強制と一方的な脅迫行為であり、中国はこれに断固反対する」と述べ、自国の利益を守るために「必要な措置」を講じると付け加えた。
政府や民間の研究者らは、膨大な量のテキストや画像から情報を要約し、コンテンツを生成するモデルが米国の敵対勢力に悪用され、攻撃的なサイバー攻撃を仕掛けたり、強力な生物兵器を製造したりする恐れがあると懸念している。
関係筋の1人は、新たな輸出規制はロシア、中国、北朝鮮、イランを対象とする可能性が高いと述べた。
マイクロソフトは2月の報告書で、中国や北朝鮮政府、ロシアの軍事情報機関、イラン革命防衛隊と関係のあるハッカー集団が、大規模な言語モデルを使ってハッキング活動を完璧にしようとしていたことを追跡していたと述べている。
情報筋によると、米国はAIモデルの輸出規制を策定するために、昨年10月に発令されたAI関連の大統領令に含まれる、モデルのトレーニングに必要な計算能力の量に基づく基準に頼る可能性がある。そのレベルに達すると、開発者はAIモデルの開発計画を報告し、テスト結果を商務省に提出しなければならない。
この計算能力の基準は、どのAIモデルが輸出規制の対象となるかを決定する基準になる可能性があると、協議について説明を受けた2人の米国当局者と別の情報筋は述べた。詳細が公表されていないため、彼らは名前を明かすことを拒否した。
この規制が施行された場合、まだリリースされていないモデルの輸出のみが制限される可能性が高い。AIの動向を追跡している研究機関EpochAIによると、まだ基準値に達していないモデルがあるためだ。ただし、GoogleのGemini Ultraはそれに近いとみられている。
同情報筋は、当局が規制案を最終決定するのはまだまだ先のことだと強調した。しかし、そのような動きが検討されているという事実は、急速に進化する技術に強力な規制体制を課すことに深刻な困難があるにもかかわらず、米国政府が北京のAI野望を阻止する取り組みにおいてギャップを埋めようとしていることを示している。
バイデン政権が中国との競争や高度なAIの危険性を検討する中、AIモデルは「明らかにツールの一つであり、ここで考えなければならない潜在的なボトルネックの一つだ」と元国家安全保障会議関係者のピーター・ハレル氏は述べた。
「実際、現実的に言えば、これを輸出管理可能なチョークポイントに変えることができるかどうかはまだ分からない」と彼は付け加えた。
米国の諜報機関、シンクタンク、学者らは、外国の悪意ある人物が高度なAI機能にアクセスすることで生じるリスクをますます懸念している。グリフォン・サイエンティフィックとランド研究所の研究者らは、高度なAIモデルは生物兵器の製造に役立つ情報を提供できる可能性があると指摘した。
国土安全保障省は、2024年の国内脅威評価において、サイバー攻撃者はAIを使用して「より大規模で、より迅速で、より効率的で、より回避力の高いサイバー攻撃を可能にするための新しいツールを開発する」可能性が高いと述べた。
「AIの利用と悪用は爆発的に増加する可能性があり、我々はそれを追跡するのが非常に困難だ」と、国家情報長官室のブライアン・ホームズ氏は3月の輸出管理会議で述べ、中国の進歩を特に懸念すべき事態として指摘した。
こうした懸念に対処するため、米国は米国製AIチップとそれを製造するためのツールの中国への流入を阻止する措置を講じてきた。
また、サイバー攻撃に利用できる強力なAIモデルの訓練に外国の顧客が自社のサービスを使用した場合、米国のクラウド企業に政府への報告を義務付ける規則も提案した。
しかし、これまでのところ、AIモデル自体には対処していない。商務省で米国の輸出政策を監督するアラン・エステベス氏は12月、業界からのフィードバックを求める前に、同省がオープンソースの大規模言語モデル(LLM)の輸出を規制する選択肢を検討していると述べた。
ワシントンDCに拠点を置くシンクタンクCNASのAI政策専門家ティム・フィスト氏は、この基準は「新しいモデルの能力とリスクを測定するより良い方法が開発されるまでの暫定的な措置としては良い」と述べている。
元ホワイトハウスおよび司法省当局者のジャミル・ジャファー氏は、バイデン政権は計算能力の閾値を使用せず、モデルの能力と使用目的に基づいた制御を選択すべきだと述べた。
「技術の限界よりも国家安全保障上のリスクに焦点を当てる方が、脅威に焦点を合わせたより永続的な取り組みになるので、より良い戦略だ」と同氏は語った。
この基準は固定されたものではない。情報筋の一人は、データの種類や、生物兵器の製造に使用できるタンパク質の設計能力など、AIモデルの潜在的用途などの他の要因と相まって、商務省は最終的により低い基準を設定する可能性があると述べた。
閾値に関係なく、AI モデルの輸出を制御することは困難です。多くのモデルはオープンソースであるため、検討中の輸出規制の範囲外のままとなります。
フィスト氏は、より高度な独自モデルに規制を課すことさえ困難だと述べ、どのモデルを規制すべきかを判断するための適切な基準を規制当局が定義するのに苦労する可能性が高いと指摘し、中国は独自のAIソフトウェアの開発で米国よりわずか2年程度遅れているだけだと指摘した。
検討されている輸出管理は、ChatGPT などの一部の消費者向けアプリケーションを動かすバックエンド ソフトウェアへのアクセスに影響を与えますが、ダウンストリーム アプリケーション自体へのアクセスは制限しません。
ジム・ポラードは、1999年からタイを拠点とするオーストラリア人ジャーナリストです。シドニー、パース、ロンドン、メルボルンのニューズ・リミテッド紙で勤務した後、90年代後半に東南アジアを旅しました。彼は17年以上にわたりザ・ネイション紙の上級編集者を務めました。
Asia Financial は、香港セントラル、ウィンダム ストリート 19-27、ウィルソン ハウス 902 番地にある Capital Link International Holdings Ltd が所有しています。www.capitallinkintl.com

元記事: https://www.asiafinancial.com/us-may-deny-china-russia-access-to-advanced-ai-models