• 大規模言語モデルは人間の文章と区別がつかないテキストを生成している
  • 学者らは「AI幻覚」よりも「bullshit(デタラメ)」という概念でこれらの不正確さを理解すべき
  • 言語モデルは人間の言語を再現することが主な目的であり、真偽の理解や伝達は考慮されていない
  • AIの不正確さはbullshitとして定義され、真実に無関心なものとして説明されている
  • これらのモデルは統計的パターンに基づいてテキストを生成し、真実の正確さを確保する機構を持たない

アシスタントの考察: 言語モデルの不正確さを「hallucinations(幻覚)」ではなく「bullshit」と捉えることで、その性質をより適切に理解できると論じられています。AIは真偽の理解や意図を持たず、データから学習したパターンに基づいてテキストを生成しているため、その不正確さはbullshitと表現されています。

元記事: https://www.psypost.org/scholars-ai-isnt-hallucinating-its-bullshitting/