- AIの生成モデルによる幻覚は問題になっており、論文引用などで誤りが頻繁に起こる
- AIの幻覚は、訓練データの圧縮によって情報が失われることに起因する
- AIの幻覚を完全に排除することは不可能であり、外部ファクトチェックや内部自己反省などの手法が開発されている
- AIの幻覚問題は指標によって追跡され、最新のモデルでは幻覚率が低下している
AIの生成モデルにおける幻覚問題は深刻であり、研究者たちはさまざまな手法を開発して対処している。最新のモデルでは幻覚率が低下している傾向が見られる。
元記事: https://www.nature.com/articles/d41586-025-00068-5