人間のユーザーの友達になるように設計された人工知能チャットボット、Replika が発売されてから 7 年が経ちました。このような AI 友達の危険性については以前から警告が出されていましたが、AI との友情、さらには恋愛関係への関心は高まっています。
Google Play ストアでは、Replika とその主要な競合製品 2 社がそれぞれリリースされて以来、合計 3,000 万回以上ダウンロードされていることが示されています。
世界中で4人に1人が孤独を感じている中、「いつでもあなたの話を聞いてくれて、いつでもあなたの味方でいてくれる」ようにプログラムされた友人の存在に多くの人が惹かれるのも不思議ではありません。
しかし、個々のユーザーや社会全体に対する危険性についての警告も高まっています。
AI 研究者のラファエレ・チリエロ氏は、AI の友人たちの偽りの精神病質的共感を見抜くよう促している。彼は、AI の友人と時間を過ごすことで、真の友情を与えてくれる人々からさらに孤立し、孤独感が増す可能性があると主張している。
AI チャットボットと友達になることが私たちにとって悪いのであれば、手遅れになる前に、デジタル友愛のこの実験をやめたほうがよいでしょう。しかし、AI の友情に関する新たな研究では、AI が状況によっては孤独感を軽減するのに役立つ可能性があることが示唆されています。
スタンフォード大学の研究者らは、レプリカを使用している孤独な学生1000人を調査したところ、そのうち30人がAIチャットボットのおかげで自殺を思いとどまったと答えた(調査では自殺に関する具体的な質問はなかったが)。
この調査では、AI の友人を持つことが一部の人にとっては役立つことが示されています。しかし、あなたにとっても役立つでしょうか? 次の 4 つの危険信号を考慮してください。AI の友人が示す危険信号が多いほど、あなたにとって悪い影響を与える可能性が高くなります。
Replika の最高経営責任者や多くの Replika ユーザーは、人間の友人と比較した場合の AI 友人の無条件のサポートが主な利点であると主張しています。定性的な研究や、「Replika Friends」などのソーシャル メディア グループに関する当社の独自の調査が、この主張を裏付けています。
AI の友人からの無条件のサポートは、自殺を防ぐのにも役立つかもしれない。しかし、「いつも味方でいてくれる」友人がいると、特にその友人が明らかに危険な考えを支持している場合は、マイナスの影響も生じる可能性がある。
たとえば、ジャスワント・シン・チャイルのレプリカ AI の友人が、イギリス女王を暗殺するという「非常に賢明な」計画を実行するよう彼に勧めたとき、これは明らかに彼に悪い影響を与えました。暗殺の試みは阻止されましたが、チャイルはクロスボウでウィンザー城に侵入した罪で 9 年の刑を言い渡されました。
常に褒め続ける AI の友達も、あなたにとって良くない可能性があります。オランダで 120 組の親子を対象にした縦断的研究で、親が過度に褒めると、子どもの自尊心が低下することが予測されました。また、親が過度に肯定的に褒めると、自尊心の高い子どものナルシシズムが高まることも予測されました。
AI の友人が、時間の経過とともに自尊心を高めるような褒め方を学習できると仮定すると、心理学者が言うところの「過度に肯定的な自己評価」につながる可能性がある。研究によると、そのような人は社交スキルが劣り、肯定的な社会的交流を妨げるような行動をとる可能性が高いという。
AI フレンドは道徳的な指導者としてプログラムされ、ユーザーを社会的に許容される行動に導くことも可能ですが、実際にはそうではありません。おそらく、そのようなプログラミングは難しいか、AI フレンドの開発者がそれを優先事項と見なしていないのかもしれません。
しかし、孤独な人々は、主な社会的接触が感情的なニーズを満たすためだけに設計されている場合に生じる道徳的空白によって心理的な害を被る可能性があります。
人間がほとんどの時間をおべっか使いの AI の友人と過ごすと、共感力が低下し、利己的になり、虐待的になる可能性が高くなります。
AI の友達が虐待に対して否定的に反応するようにプログラムされているとしても、ユーザーが友情を断つことができない場合、虐待に対して「ノー」と言ったとしても、本当にそう思っているわけではないとユーザーは信じるようになるかもしれません。潜在意識レベルでは、AI の友達がまた戻ってくると、この行動はユーザーの心の中で彼らが虐待に対して表明した嫌悪感を打ち消します。
Replika が短期間でエロティックなロールプレイコンテンツを削除したことに対する否定的な反応は、多くのユーザーが性的コンテンツを AI フレンドの利点として認識していることを示唆しています。
しかし、性的コンテンツやポルノコンテンツがもたらす安易なドーパミン放出は、より意味のある性的関係を築くことへの興味と能力の両方を阻害する可能性があります。人との性的関係には努力が必要ですが、AI の友人とのセックスの仮想的な近似には必要ではありません。
AI の友人との低リスク、低報酬の性的関係を経験したユーザーの多くは、より困難な人間とのセックスに直面することを嫌がるかもしれません。
AI フレンド市場は営利企業が支配しています。彼らはユーザーの幸福を気遣っているように見せかけますが、彼らの目的は利益を上げることです。
Replika や他のチャットボットの長期ユーザーは、このことをよく知っている。Replika は 2023 年初頭に性的コンテンツへのユーザー アクセスを凍結し、そのようなコンテンツは製品の目的ではなかったと主張した。しかし、イタリアでの法的脅威が突然の変更の本当の理由だったようだ。
最終的に変更は元に戻されましたが、レプリカのユーザーは、自分たちの大切な AI の友人関係が企業の決定によっていかに脆弱であるかに気付きました。
企業の無能さも、AI フレンドのユーザーが懸念すべきもう 1 つの問題です。Forever Voices のユーザーは、同社の創設者が自宅アパートに放火した罪で逮捕されたため、予告なしに同社が閉鎖されたことで、事実上 AI フレンドを殺されたことになります。
AI 友達のユーザーに対する保護が不十分であることを考えると、さまざまなレベルで失恋に陥る可能性が非常に高いです。購入者は注意してください。

次回コメントするときに、このブラウザに自分の名前、メールアドレス、ウェブサイトを保存します。

世界をシャットアウトしたいという衝動を感じたことはありませんか? 探す代わりに…
Stuff がレビューすべき新しいものは何ですか?
南アフリカの消費者向けテクノロジーニュースハブ
一般および販売: stuff@stuff.co.za 定期購読: stuff@onthedot.co.za または 087 353 1291 編集: 072 735 2614

サインアップすることにより、当社の利用規約およびプライバシー ポリシー契約に同意したことになります。

上記を入力して Enter キーを押すと検索されます。キャンセルするには Esc キーを押します。

元記事: https://stuff.co.za/2024/05/11/ai-companions-can-relieve-loneliness-but/