技術記事要約

  • ChatGPTは昨年話題を呼び、AIが確信満々に誤った回答をすることがあることを示した。
  • 「幻覚」と呼ばれるこれに対処するための方法の1つは、事実を取り入れることであり、これはRAG(retrieval augmented generation)によって行われ、GPTを事実が見つかる文脈に誘導する。
  • 幻覚以外にも、GPTが誤る方法はあり、特に因果推論としての「対事実論」が重要である。
  • 対事実論は、AIの責任と理解可能性の議論に根ざしており、AIの責任を果たすために説明が必要である。
  • 因果推論はビジネスにおいても重要であり、干渉を行う前に事前に結果を推測する能力が必要である。

考察

AIの進化において、事実とフィクションの軸だけでなく、対事実論や因果推論の重要性が明らかになってきている。AIが対事実論や因果推論にどのように対応するかが、AIの能力をより適切に評価する指標となる可能性があると考えられる。

元記事: https://towardsdatascience.com/counterfactuals-in-language-ai-956673049b64