- 大規模言語モデルにおけるエラーを検出する新しい方法が提案された
- この方法は、より多くのLLMを使用することに依存している
- LLMは誤りや幻影を生じやすいため、業界ではそれらを検出して排除しようという競争が続いている
- オックスフォード大学とDeepMindの研究者は、LLMが生成した幻影の程度を定量化し、生成されたコンテンツの正確性を示す方法を提案
- 研究は、特に「知識の不足」による間違った出力である「confabulations」と呼ばれるハルシネーションのサブセットに焦点を当てている
- 研究チームは、一つのLLMが別のLLMにおけるハルシネーションを検出するために、テキストの帰結を利用する方法を探求
- 研究結果は、LLMのパフォーマンスを向上させるために、ユーザーがLLMにクエリを投げる際に注意を払うべきタイミングを理解するのに役立つ可能性がある
この研究は、LLMの幻影を検出し、その他の悪意のある出力(誤情報や盗作など)を検出するのに有用である可能性があるが、LLMへの過度な依存はさらなる課題を引き起こす可能性があると警告されている。
元記事: https://www.theregister.com/2024/06/20/llm_hallucination_study/