• LLMs(Large Language Models)が人間の知能には決して達しないと感じる理由
  • LLMsは単なる予測語の次の単語だけでなく、次の何かを予測するために使用できる。
  • 自己意識が自分の精神プロセスのパターンに従い、概念を次に予測する。
  • LLMsのトレーニングは非常に単純で賢明な構造や推論パターンを作成していない可能性がある。
  • 将来のAI世代でLLMが言語モデルの構成要素になる可能性がある。

LLMsは単なるアプリケーションであり、入力の意味を理解していないため幻覚を生じる。LLMsは入力文を理解し、単語/フレーズ間の関係を決定するが、一部の関係の翻訳に失敗することがある。

元記事: https://slashdot.org/story/24/05/22/143243/meta-ai-chief-says-large-language-models-will-not-reach-human-intelligence