マイクロソフトは、米国の諜報機関向けに設計された生成AIモデルを構築したと報じられている。
ブルームバーグ・ニュースが火曜日(5月7日)に報じたところによると、マイクロソフトの関係者は、これはインターネットから完全に分離して機能できる大規模言語モデル(LLM)であると述べており、この開発は人工知能(AI)分野における画期的な出来事となる。
「隔離バージョンは今回が初めてだ。隔離というのはインターネットに接続されていないという意味で、米国政府だけがアクセスできる特別なネットワーク上にある」とマイクロソフトの戦略ミッションおよびテクノロジー担当最高技術責任者ウィリアム・チャペル氏はブルームバーグに語った。
報告書によると、ほとんどの AI モデルはデータからパターンを収集するためにクラウド サービスに依存しているが、マイクロソフトは CIA のような米国の諜報機関に真に安全なシステムを提供したいと考えていた。
ブルームバーグによると、情報機関の職員らは、ビジネス界を一変させると支持者が主張するのと同じタイプのAIツールを使いたいと強調している。CIAは昨年、非機密情報用のChatGPTスタイルのサービスを開始したが、機関はより機密性の高いデータを扱えるものを求めている。
「生成型AIを諜報データに組み込むための競争が行われている」と、CIAのトランスナショナル・テクノロジー・ミッションセンターの副所長、シータル・パテル氏は、最近ヴァンダービルト大学で開かれた安全保障会議でブルームバーグ通信に語った。
彼女は、知能化のために生成AIを使用する最初の国がその競争に勝つだろうと付け加えた。「そして私はそれが私たちであってほしい。」
マイクロソフトの最新の取り組みは、同社がこれまでに訓練してきたオープンソースモデルよりも「はるかに大規模な」新しい社内AIモデルに取り組んでいるという今週初めの報道に続くものだ。
新しいモデル「MAI-1」は、約5000億のパラメータを持つと予想されており、Google、Anthropic、OpenAI(Microsoftも投資している)などの企業が作成したモデルと競合するように設計されている。
一方、PYMNTS は月曜日(5 月 6 日)に、AI LLM の使用から生じる課題と懸念のいくつかを調査しました。
「LLM は情報を捏造する可能性があり、その信頼性と信頼性に影響を与える」と報告書は述べている。「モデルはトレーニング データに見られる偏りを永続させ、誤った情報を生み出す可能性がある。大規模なオンライン コンテンツの作成に LLM を使用すると、フェイク ニュースやスパムの拡散が加速する可能性がある。政策立案者は、LLM が知識労働を侵食することで雇用に及ぼす影響について懸念している。」
さらに、これらのモデルは著作権で保護された素材を使用してトレーニングされるため、知的財産に関する疑問も浮上しています。
当社は常に革新者や破壊者と提携する機会を探しています。

元記事: https://www.pymnts.com/artificial-intelligence-2/2024/report-microsoft-develops-internet-free-ai-model-for-spy-agencies/