• 大規模言語モデルが提供する情報に疑念を表明すると、人々はそれを事実として受け入れにくくなり、正確な情報を他所で見つける可能性が高まる
  • 人工知能モデルが自分の回答に自信がないと示すと、人々はその出力に警戒し、最終的には正確な情報を探そうとする
  • しかし、現在のどのAIモデルも自分の正確さを判断することはできないため、一部の研究者はAIに疑念を表明させることが良い考えかどうか疑問視している
  • ChatGPTなどのチャットボットの背後にある大規模言語モデル(LLMs)は印象的に信じられる出力を生み出すが、それらは単にでっち上げることが多いことが何度も示されている

この記事は、大規模言語モデルが疑念を表明することの影響について述べており、AIが自らの正確さを判断できない現状に疑問を投げかけています。人々がAIの出力に警戒し、正確な情報を求める動機付けになる一方、AIが自信を持って回答することの重要性も考えさせられます。

元記事: https://www.newscientist.com/article/2429701-people-are-less-likely-to-believe-an-ai-if-it-conveys-uncertainty/