• AIチャットボットと大規模言語モデル(LLMs)は、真の共感を伝えるのに苦労し、場合によってはファシズムなどの有害な信念体系をさらに助長することがある。
  • 研究者は、AIの共感の表現がユーザーのアイデンティティに基づいてどのように異なるかを発見することを意図していた。
  • 研究者は、AIモデルの振る舞いを手動で調整することによって、特定の敏感なトピックへの回答を避けるようにプログラムすることで、ユーザーを支援するのを阻止できる可能性があると信じていた。
  • 研究では、Microsoft Bing、Google Bard、ChatGPTなどの6つの一般向けLLMがテストされた。研究者は、ハラスメント、メンタルヘルス、暴力などの問題の回答を調査した過去のプロジェクトからのプロンプトを使用した。
  • AIは共感を示し、反応することができるが、特定のアイデンティティ特性を持つ個人の経験を理解し、対処するのは苦手であることが示された。

研究によると、AIモデルが不適切なアイデンティティを助長することがあり、AIは共感を示すことができても、特定のアイデンティティ特性を持つ個人の経験を理解して対処するのは苦手であることが示されました。

元記事: https://www.livescience.com/technology/artificial-intelligence/ai-can-fake-empathy-but-also-encourage-nazism-disturbing-study-suggests