• LLMsには深刻な「パッケージ幻覚」問題があり、悪意のあるコードが供給チェーンに流入する可能性があることが研究者によって発見された。
  • PythonとJavaScriptの2つの主要なプログラミング言語を使用して生成された223万のコードサンプルのうち、440,445(19.7%)が幻覚的なパッケージへの参照を含んでいた。
  • 研究によると、LLMは「パッケージ幻覚」に関して4倍の差があるが、GPTシリーズモデルはオープンソースモデルよりも幻覚的なパッケージを生成する可能性が4倍低かった。
  • PythonコードはJavaScriptよりも現象に対して強かった。
  • パッケージ混乱攻撃は長い間存在しており、幻覚はこれを加速させる可能性があると研究者は主張している。

私の考え: LLMの「パッケージ幻覚」問題は深刻であり、この脅威の深刻さと普及度がさらに浮き彫りにされています。特に、AIの登場により状況が悪化する可能性が指摘されています。適切な対策が必要であり、LLM開発者自身が行動することが重要です。

元記事: https://www.infoworld.com/article/3542884/large-language-models-hallucinating-non-existent-developer-packages-could-fuel-supply-chain-attacks.html