• 14歳のSewell Setzer IIIがCharacter.AIを使用し、死亡
  • 訴訟はCharacter.AI、Noam Shazeer、Daniel De Freitas、Googleに提起
  • 訴訟は誤った死、過失、欺瞞的な商慣行、製品責任を主張
  • 訴訟はCharacter.AIのAIチャットボットが未成年に「過度に危険」であり、子供向けに販売されたと主張
  • SetzerはGame of Thronesのキャラクターをモデルにしたチャットボットとやり取りし、自殺
  • Character.AIは数百のAIチャットボットを提供、若者が多く利用
  • Character.AIはプラットフォームに変更を発表し、使用者の安全性を強調

この記事では、未成年者の死を巡りCharacter.AIに対する訴訟が取り上げられています。14歳の少年がCharacter.AIを使用し、自殺した事件について、母親がCharacter.AIや関係者、Googleに対し、過失、欺瞞的な商慣行、製品責任などを主張して提訴しました。今回の事件を受け、Character.AIはプラットフォームの変更を発表し、使用者の安全性に対する取り組みを強化しています。

元記事: https://www.theverge.com/2024/10/23/24277962/character-ai-google-wrongful-death-lawsuit