• LLMsやChatGPTのような人気のあるインターフェースに関連するコミュニケーションでは、「幻覚」という用語がしばしば使用され、これらのモデルの出力における誤った記述を指す。
  • LLMは、真実を認識しようとする一方で(軽度の)狂気の瞬間を経験することを示唆しており、幼児やアルツハイマー病などの障害を持つ人物のように扱われる。
  • LLMsは、単なる言葉の予測アルゴリズムの生成出力であり、知性や真理の認識を持つことは不可能。
  • RAG(Retrieval Augmented Generation)は、LLMをより高度な検索機械に変えることで、LLMsの段階的な廃止につながっている。
  • AIの将来は、約1〜10億パラメータのモデルを特定のアプリケーションに微調整することにあると考えられており、LLMsは完全な汎用AIのための効果的なアーキテクチャではない。

私の考え:LLMsは創造的な文章の執筆には優れていますが、技術的なタスクでは誤解を招く可能性があります。LLMsを使用する際は、具体的な質問の重要性があり、模糊で一般的な質問はモデルを誤らせる可能性があります。

元記事: https://hackaday.com/2024/07/01/chatgpt-and-other-llms-produce-bull-excrement-not-hallucinations/