• ジャーナリストマーティン・バーンクラウがMicrosoftのCopilotに自分の名前と場所を入力し、その結果に驚愕
  • Copilotはバーンクラウを精神病院の逃亡者、有罪の児童虐待者、未亡人を狙う詐欺師と誤って断定
  • これらの非難はジェネレーティブAIの「幻覚」の例であり、この技術では警戒が必要
  • CopilotやChatGPT、Google Geminiなどの大規模言語モデルは、人間の言語を学習し、確率に基づいて最も可能性の高い応答を予測
  • バーンクラウの事件など、犯罪と結びつく言葉が含まれる大規模データセットにより、幻覚が生じる
  • Microsoftはユーザーフィードバックを取り入れ、更新を提供し、ポジティブな体験を提供

ジェネレーティブAIの「幻覚」は、技術の限界を示すものであり、信頼性を確認するためには独立した情報源を確認する必要がある。

元記事: https://theconversation.com/why-microsofts-copilot-ai-falsely-accused-court-reporter-of-crimes-he-covered-237685