- ジャーナリストマーティン・バーンクラウがMicrosoftのCopilotに自分の名前と場所を入力し、その結果に驚愕
- Copilotはバーンクラウを精神病院の逃亡者、有罪の児童虐待者、未亡人を狙う詐欺師と誤って断定
- これらの非難はジェネレーティブAIの「幻覚」の例であり、この技術では警戒が必要
- CopilotやChatGPT、Google Geminiなどの大規模言語モデルは、人間の言語を学習し、確率に基づいて最も可能性の高い応答を予測
- バーンクラウの事件など、犯罪と結びつく言葉が含まれる大規模データセットにより、幻覚が生じる
- Microsoftはユーザーフィードバックを取り入れ、更新を提供し、ポジティブな体験を提供
ジェネレーティブAIの「幻覚」は、技術の限界を示すものであり、信頼性を確認するためには独立した情報源を確認する必要がある。