- LLMsやChatGPTのような人気のあるインターフェースに関連するコミュニケーションでは、「幻覚」という用語がしばしば使用され、これらのモデルの出力における誤った記述を指す。
- LLMは、真実を認識しようとする一方で(軽度の)狂気の瞬間を経験することを示唆しており、幼児やアルツハイマー病などの障害を持つ人物のように扱われる。
- LLMsは、単なる言葉の予測アルゴリズムの生成出力であり、知性や真理の認識を持つことは不可能。
- RAG(Retrieval Augmented Generation)は、LLMをより高度な検索機械に変えることで、LLMsの段階的な廃止につながっている。
- AIの将来は、約1〜10億パラメータのモデルを特定のアプリケーションに微調整することにあると考えられており、LLMsは完全な汎用AIのための効果的なアーキテクチャではない。
私の考え:LLMsは創造的な文章の執筆には優れていますが、技術的なタスクでは誤解を招く可能性があります。LLMsを使用する際は、具体的な質問の重要性があり、模糊で一般的な質問はモデルを誤らせる可能性があります。