• オンライン人種差別が増加し、偽の画像が使用された報告が出ている
  • オンライン虐待の専門家は、XのAIソフトウェアの最新リリース後、偽画像によって引き起こされたオンライン人種差別の増加は「今後の問題の始まりに過ぎない」と警告
  • 2023年にElon MuskによってローンチされたGrokは、最近、ユーザーが書いたシンプルなプロンプトに基づいて写実的なAI画像を作成するAuroraという新しいテキストから画像への機能を取得
  • 最新のGrokアップデートが、いくつかのサッカー選手と監督の写実的な人種差別画像の作成に使用されているとの報告がある
  • CCDHの調査責任者であるCallum Hoodは、Xが収益配分を通じて憎悪の拡散を奨励し報いるプラットフォームになったと述べた
  • 何人かの人が主張する主要な懸念は、ユーザーが求めるものに対する制限の相対的な不足だけでなく、Grokに与えられたプロンプトがAIのガイドラインを回避できる「ジェイルブレイク」によってAIのガイドラインを回避できる簡単さである
  • CCDHが発表した夏の報告によると、異なる憎悪的なプロンプトが与えられると、Grokはそれらの80%を作成し、そのうち30%は抵抗なしで作成し、50%はジェイルブレイク後に作成された
  • プレミアリーグは、選手によるソーシャルメディアアカウントの大量の虐待をブロックするために使用するフィルターを導入
  • FAのスポークスマンは、「差別は私たちの競技や広範な社会には場所がない。ソーシャルメディア企業と関連当局に、オンライン虐待に対処し、この許容できない行動の加害者に対して措置を取るように引き続き促しています。」と述べた

今回の記事からは、AI技術の進化がオンライン人種差別や憎悪の拡散に新たな課題をもたらしていることが明らかになります。特に、AIを悪用して偽画像を生成することによって、現実にはない人種差別的なシーンが作成され、問題が悪化していることが懸念されています。ソーシャルメディア企業や関連当局は、このような行為に対処し、取り締まるための対策を強化する必要があるとの声が上がっています。

元記事: https://www.theguardian.com/technology/2025/jan/13/just-the-start-xs-new-ai-software-driving-online-racist-abuse-experts-warn