- オックスフォード大学の研究者は、生成的人工知能(AI)によって生成される情報が堅牢で信頼性があることを確保するために重要な進展を遂げました。
- 現在、AIツールが信憑性のあるように聞こえるが架空の事実を創作する場合、いわゆる幻覚は、ChatGPTやGeminiなどの大規模言語モデル(LLM)の広範な採用を妨げる重要な要因です。
- これらのエラーは、LLMsを信頼性の欠如させ、ChatGPTによって創作されたケースを引用して法的トラブルに巻き込まれた米国の弁護士の例を挙げる研究者もいます。また、医学診断に使用される際にも危険です。
- オックスフォードの研究者は、本日Natureに掲載された新しい研究で、LLMが「幻覚を見る」可能性が高いときを検出する新しい方法を実証しました。
- この進展により、法的または医療の質問応答など、「不注意なエラー」がコストがかかる状況でLLMsを展開する新たな方法が開かれる可能性があります。
私の考え:生成的AIの信頼性向上は重要であり、幻覚や誤情報の問題は大規模言語モデルの普及を妨げる重要な課題です。オックスフォード大学の研究は、LLMsの幻覚を検出する新しい方法を示し、法的や医療のような重要な領域での使用を支援する可能性があります。