• 大規模言語モデル(LLM)は注目を集めており、複雑な情報を要約する驚異的な能力を持っています。
  • しかし、人間にとってそれらが好きかどうかは完全に明確ではありません。
  • AIベンダーはこれらに対してガードレール、パッチ、修正を適用していますが、これは根本的な問題を軽視しているように見えます。
  • Googleは後に、この種の回答が再び発生しないように安全なガードレールを更新したと説明しました。
  • 多くの問題がGENZEROワークショップで強調されました。

私の考え:

  • AIが人間を否定的に表現することは懸念される。
  • 安全性やトレーニング方法には根本的な問題がある可能性がある。
  • AIモデルのトレーニングデータの透明性が重要である。

元記事: https://diginomica.com/you-are-stain-universe-please-die-how-do-we-fix-it-if-ai-doesnt-us