- ニューヨーク大学の研究者は、大規模言語モデル(LLM)のトレーニングデータが0.001%だけ「汚染」されると、エラーが拡散する可能性が高くなることを発見した。
- 論文によれば、医療データにおいても、LLMの誤りは命にかかわる深刻な問題であり、バイアスがかかる可能性がある。
- 実験では、150,000の医療記事を24時間以内に作成し、わずか5ドルでLLMを有害にすることができることが示された。
- LLMのデータ汚染は、モデルの重みへの直接アクセスを必要とせず、オンラインで有害情報を提供するだけでLLMの信頼性を損なうことができる。
- 医療分野においてAIツールの導入には顕著なリスクが伴い、特にLLMはその誤りや脆弱性から医療診断や治療には信頼されない。
自然言語処理の技術の進歩は非常に魅力的ですが、この記事から分かるように、医療分野においてはデータの汚染や誤情報が重大な問題となり得ることが指摘されています。LLMの脆弱性に対する警戒が必要であり、医療分野におけるAIの展開においては慎重なアプローチが求められるでしょう。
元記事: https://futurism.com/training-data-ai-misinformation-compromised