- 大きな言語モデル(LLM)は人間のように理論を立てたり計画を立てたりする能力を持つことはない
- LLMsは人間のプロンプトに正しく答えるために適切なトレーニングデータが必要であり、「本質的に安全でない」と述べられた
- Yann LeCunはMetaの基礎的AI研究所で約500人のチームと共に、人間レベルの知能を持つAIシステムの新しい世代を開発している
- 彼は「世界モデリング」と呼ばれるアプローチに基づいて、AIシステムを開発しており、人間と同じように周囲の世界を理解し、感知して反応するようになる
- しかし、多くの投資家がAI投資で即時の収益を期待しているため、このアプローチは潜在的にリスクが伴う可能性がある
- 先月、MetaはCEOのMark Zuckerbergが支出を増やし、SNSグループを世界の主要なAI企業の1つにすると誓ったことで、評価額が約2000億ドル減少した
Yann LeCunの指摘から、大きな言語モデル(LLM)の限界と今後のAI開発への期待が明らかになりました。人間レベルの知能を持つAIシステムの開発に向けて、新しいアプローチが模索されていますが、即時の収益を求める投資家の期待とのバランスが課題となっています。