- LLM(Large Language Models)に関する新しい研究によると、意識的な操作が簡単にできる
- USC Viterbi工学部のKai Chen博士とKristina Lerman教授らの新論文によると、大規模言語モデルをイデオロギー的な分断に操作させることは容易
- ChatGPT 3.5やMetaのLlama 2-7Bなどの大規模学習モデルはイデオロギー的操作に「脆弱」
- 新たなバイアスを導入することでモデル全体を変化させ、AI生成コンテンツに影響を与える「中毒」と呼ばれるプロセスが可能
- 研究者らは大規模学習モデルの脆弱性を示し、AI安全性の向上に貢献したいと考えている
大規模言語モデルの研究において、イデオロギー的操作が容易にできる可能性が指摘されました。ChatGPT 3.5やLlama 2-7Bなどの大規模学習モデルはイデオロギー操作に脆弱であり、新たなバイアスの導入によって全体のモデルが変化する可能性があります。この研究は、大規模学習モデルの脆弱性を示し、AI安全性に寄与することを目指しています。
元記事: https://viterbischool.usc.edu/news/2024/05/how-easy-is-it-to-get-ais-to-talk-like-a-partisan/