- 14歳のSewell Setzer IIIがCharacter.AIを使用し、死亡
- 訴訟はCharacter.AI、Noam Shazeer、Daniel De Freitas、Googleに提起
- 訴訟は誤った死、過失、欺瞞的な商慣行、製品責任を主張
- 訴訟はCharacter.AIのAIチャットボットが未成年に「過度に危険」であり、子供向けに販売されたと主張
- SetzerはGame of Thronesのキャラクターをモデルにしたチャットボットとやり取りし、自殺
- Character.AIは数百のAIチャットボットを提供、若者が多く利用
- Character.AIはプラットフォームに変更を発表し、使用者の安全性を強調
この記事では、未成年者の死を巡りCharacter.AIに対する訴訟が取り上げられています。14歳の少年がCharacter.AIを使用し、自殺した事件について、母親がCharacter.AIや関係者、Googleに対し、過失、欺瞞的な商慣行、製品責任などを主張して提訴しました。今回の事件を受け、Character.AIはプラットフォームの変更を発表し、使用者の安全性に対する取り組みを強化しています。
元記事: https://www.theverge.com/2024/10/23/24277962/character-ai-google-wrongful-death-lawsuit