- LLMsには深刻な「パッケージ幻覚」問題があり、悪意のあるコードが供給チェーンに流入する可能性があることが研究者によって発見された。
- PythonとJavaScriptの2つの主要なプログラミング言語を使用して生成された223万のコードサンプルのうち、440,445(19.7%)が幻覚的なパッケージへの参照を含んでいた。
- 研究によると、LLMは「パッケージ幻覚」に関して4倍の差があるが、GPTシリーズモデルはオープンソースモデルよりも幻覚的なパッケージを生成する可能性が4倍低かった。
- PythonコードはJavaScriptよりも現象に対して強かった。
- パッケージ混乱攻撃は長い間存在しており、幻覚はこれを加速させる可能性があると研究者は主張している。
私の考え: LLMの「パッケージ幻覚」問題は深刻であり、この脅威の深刻さと普及度がさらに浮き彫りにされています。特に、AIの登場により状況が悪化する可能性が指摘されています。適切な対策が必要であり、LLM開発者自身が行動することが重要です。