- Microsoftは、アメリカの情報機関向けに設計された生成AIモデルを構築したと報じられている。
- この開発は、Microsoftの役員が述べたところによると、インターネットから完全に分離された大規模言語モデル(LLM)であり、人工知能(AI)セクターにおける画期的な出来事である。
- ほとんどのAIモデルはクラウドサービスに依存してデータからパターンを抽出するが、MicrosoftはCIAなどのアメリカの情報機関向けに本当に安全なシステムを提供したかった。
- 情報機関は、ビジネス世界を変革するとされるAIツールと同様のものを使いたいと強調しており、CIAは昨年、機密情報向けのChatGPTスタイルのサービスを発表したが、より機密性の高いデータを扱えるものが欲しいとしている。
- Microsoftの最新の取り組みは、以前に報告されたものに続くものであり、5000億のパラメータを持ち、Google、Anthropic、OpenAIなどの企業が作成したモデルと競合することを目指している。
- AI LLMの使用から生じる課題や懸念を検証した報告によると、LLMは情報を捏造する可能性があり、信頼性に影響を与えることがある。
- これらのモデルは訓練データに存在する偏見を拡大し、誤情報を生成する可能性がある。
- 知識労働に侵入するLLMの影響について政策立案者が心配している。
- また、これらのモデルは著作権素材を使用して訓練されるため、知的財産に関する疑問が浮上している。
私の考え:
Microsoftがアメリカの情報機関向けに安全な生成AIモデルを構築したという報道は、技術の進歩と懸念を引き起こす可能性がある。AIの発展は大きな可能性を秘めていますが、偏見や誤情報の拡散といったリスクも考慮する必要があります。知的財産権や倫理的な問題にも留意しながら、AI技術の発展を進めることが重要です。