- 大規模言語モデルAIは、表面的には賢そうに見えるかもしれませんが、実際の世界を理解し、正確にモデル化することに苦労しているという新しい研究結果が示されています。
- MIT、Harvard、Cornellの科学者らによる新しい研究によると、GPT-4やAnthropicのClaude 3 Opusなどの大規模言語モデル(LLMs)は、実際の世界を正確に表現する基盤モデルを生成できないことが明らかになりました。
- LLMsは、ニューヨーク市でのターンバイターンの運転指示を提供すると、ほぼ100%の正確性で提供しますが、抽出された基盤地図には存在しない通りや経路がいっぱいでした。
- 予期しない変更が指示に追加されると(迂回や通行止めなど)、LLMsが提供する方向性の正確性が急激に低下し、場合によっては完全に失敗することがあります。
自然言語処理AIは、驚くべき結果を生み出す可能性がありますが、実際の世界とそのルールを理解していないことが新しい研究で示されました。大規模言語モデルは、ダイナミックな環境に直面した際に脆弱性を示す可能性があり、正確な世界モデルを生成するためには異なるアプローチが必要とされています。