- LLMs(Large Language Models)が人間の知能には決して達しないと感じる理由
- LLMsは単なる予測語の次の単語だけでなく、次の何かを予測するために使用できる。
- 自己意識が自分の精神プロセスのパターンに従い、概念を次に予測する。
- LLMsのトレーニングは非常に単純で賢明な構造や推論パターンを作成していない可能性がある。
- 将来のAI世代でLLMが言語モデルの構成要素になる可能性がある。
LLMsは単なるアプリケーションであり、入力の意味を理解していないため幻覚を生じる。LLMsは入力文を理解し、単語/フレーズ間の関係を決定するが、一部の関係の翻訳に失敗することがある。