ワシントン:バイデン政権は、最先端のAIモデルにガードレールを設置する予備計画を策定し、中国とロシアから米国のAI(人工知能)を守るための新たな取り組みを開始する準備を整えていると、ロイター通信が水曜日に報じた。
政府や民間の研究者らは、膨大な量のテキストや画像から情報を要約し、コンテンツを生成するモデルが米国の敵対勢力に悪用され、攻撃的なサイバー攻撃を仕掛けたり、強力な生物兵器を製造したりする恐れがあると懸念している。
AI がもたらす脅威をいくつか挙げます。
大量のオンライン映像で訓練されたAIアルゴリズムによって作成された、リアルでありながらも捏造された動画であるディープフェイクがソーシャルメディアに登場し、二極化した米国政治の世界で事実と虚構を曖昧にしている。
このような合成メディアは数年前から存在していたが、Midjourney などの新しい「生成 AI」ツールの登場により、この 1 年で急速に普及し、説得力のあるディープフェイクを安価かつ簡単に作成できるようになった。
研究者らは3月の報告書で、OpenAIやMicrosoftなどの企業が提供する人工知能(AI)を搭載した画像作成ツールは、各社が誤解を招くコンテンツの作成を禁止する方針を掲げているにもかかわらず、選挙や投票に関する偽情報を広める可能性のある写真を作成するのに利用される可能性があると述べた。
一部の偽情報キャンペーンは、AI の能力を利用して実際のニュース記事を模倣し、偽情報を拡散する手段に過ぎません。Facebook、X、YouTube などの主要なソーシャル メディア プラットフォームはディープフェイクを禁止および削除する取り組みを行っていますが、こうしたコンテンツの取り締まりの有効性はさまざまです。
例えば、昨年、中国政府が管理する生成AIプラットフォームを使用するニュースサイトが、米国が中国に対抗するための生物兵器を製造するためにカザフスタンに研究所を運営しているという、以前に流布されていた虚偽の主張を広めたと、国土安全保障省(DHS)は2024年の国内脅威評価で述べた。
ジェイク・サリバン国家安全保障担当大統領補佐官は水曜日、ワシントンで行われたAIイベントで、この問題はAIの能力と「国家、非国家主体による大規模な偽情報の使用、民主主義の混乱、プロパガンダの推進、世界の認識の形成という意図」が結びついているため、簡単に解決できるものではないと述べた。
「現在、攻撃陣が守備陣に大勝している」と彼は語った。
米国の諜報機関、シンクタンク、学者らは、外国の悪意ある人物が高度なAI機能にアクセスすることで生じるリスクをますます懸念している。グリフォン・サイエンティフィックとランド研究所の研究者らは、高度なAIモデルは生物兵器の製造に役立つ情報を提供できる可能性があると指摘した。
グリフォンは、大規模言語モデル(LLM)(大量のテキストからクエリへの応答を生成するコンピュータ プログラム)が、生命科学の領域で敵対的な行為者によってどのように利用されて危害を加える可能性があるかを研究し、「この経路のあらゆるステップで有用かつ正確で詳細な情報を提供することで、悪意のある行為者が生物兵器を作成するのに役立つ情報を提供できる可能性がある」ことを発見しました。
例えば、彼らは、法学修士号を取得すれば、パンデミックを引き起こす可能性のあるウイルスを扱う際に、問題のトラブルシューティングを行うための博士課程修了レベルの知識が得られることを発見した。
ランド研究所の調査により、LLM は生物兵器攻撃の計画と実行に役立つことが分かりました。LLM は、例えばボツリヌス毒素の噴霧剤投与方法を提案できることがわかりました。
国土安全保障省は、2024年の国内脅威評価の中で、サイバー攻撃者はパイプラインや鉄道などの重要インフラに対して「大規模で、より迅速で、効率的で、より回避力の高いサイバー攻撃を可能にする」ための「新たなツールを開発」するためにAIを使用する可能性が高いと述べた。
DHSは、中国やその他の敵国が、マルウェア攻撃を支援する生成AIプログラムなど、米国のサイバー防衛を弱体化させる可能性のあるAI技術を開発していると述べた。
マイクロソフトは2月の報告書で、中国や北朝鮮政府、ロシアの軍事情報機関、イラン革命防衛隊と関係のあるハッカー集団が、大規模な言語モデルを使ってハッキング活動を完璧にしようとしていたことを追跡していたと述べている。
同社は、自社のAI製品を使用する国家支援のハッキンググループを全面的に禁止する措置を導入する中で、この発見を発表した。
脅威に対処するための新たな取り組み
超党派の議員グループは水曜日遅く、バイデン政権がAIモデルへの輸出規制を課すことを容易にし、貴重な米国の技術を外国の悪意ある行為者から守ることを目指す法案を発表した。
下院共和党議員のマイケル・マッコール、ジョン・モレナー、民主党議員のラジャ・クリシュナムーティ、スーザン・ワイルドが提出したこの法案は、商務省に、米国人が外国人と協力して米国の国家安全保障に危険をもたらすAIシステムを開発することを禁止する明示的な権限を与えるものでもある。
ワシントンのDLAパイパーでAI政策アドバイザーを務めるトニー・サンプ氏は、ワシントンの政策立案者たちは、この技術がもたらす多くのリスクに対処しようとして、「イノベーションを促進し、イノベーションを阻害する高圧的な規制を避けようとしている」と述べた。
しかし同氏は、「規制を通じてAI開発を取り締まることは、新薬の発見、インフラ、国家安全保障などの分野での潜在的な進歩を阻害し、海外の競争相手に地位を譲ることにつながる可能性がある」と警告した。
デカン・ヘラルドはWhatsAppチャンネルに登場しています| 最新ニュースと編集者のおすすめを今すぐチェック

元記事: https://www.deccanherald.com/world/explained-what-risks-do-advanced-ai-models-pose-in-the-wrong-hands-3016652