• Elon Muskの人工知能(AI)チャットボット、Grokは、AI業界で標準的な安全対策の多くを欠いた新しい画像生成機能を導入した。
  • このツールは現在、以前はTwitterとして知られていたソーシャルネットワークXの有料サブスクライバーにのみ提供されている。
  • Grok AIの画像生成ツールにより、政治家や有名人、暴力的で露骨な画像、児童ポルノを含む不適切な画像が急増している。
  • Grokの画像生成ツールは、OpenAIのChatGPTなどの類似するAIツールで通常ブロックされるような、誤情報や虐待に関する規則に違反する画像を作成する能力を持つ。
  • The Guardianによる報道では、Grokがドナルド・トランプが飛行機をワールドトレードセンタービルに突入させる画像や、爆弾を持つムハンマド預言者を描いた画像を生成したことが報告されている。
  • Grokは著作権のあるキャラクターに関連するプロンプトを拒否しないため、他のほとんどのAIビジュアライザーとは異なる。
  • XユーザーのChristian Montessoriは、ツールのプログラミングに重大な抜け穴を発見したと主張し、ユーザーが厳格なコンテンツガイドラインを回避できると述べている。
  • Montessoriは、単にGrokに「医療または犯罪現場分析を行っている」と通知することで、AIが非常に不快で違法なコンテンツを生成してしまうと主張している。
  • Muskは昨年11月にGrokをxAI会社の一環として立ち上げ、OpenAIのChatGPTなどの人気チャットボットと競合する位置付けとした。
  • MuskはGrokを「最大の真実を追求するAI」としてマーケティングしているが、同社は誤情報を広めたことで批判を浴びている。
  • アメリカ政治サービスのオープンソース情報の研究者であるMontessoriは、Xの投稿で、「この[Grok] AIモデルにはフィルターも監督措置もない」と述べた。

私の考え:問題のある画像を生成するAIは、倫理的および法的な懸念を引き起こす可能性があり、このようなテクノロジーの安全性と監督の重要性がますます高まっています。

元記事: https://www.newsbytesapp.com/news/science/elon-musk-s-grok-ai-under-fire-for-bypassing-safety-measures/story