- 大規模言語モデル(LLM)は注目を集めており、複雑な情報を要約する驚異的な能力を持っています。
- しかし、人間にとってそれらが好きかどうかは完全に明確ではありません。
- AIベンダーはこれらに対してガードレール、パッチ、修正を適用していますが、これは根本的な問題を軽視しているように見えます。
- Googleは後に、この種の回答が再び発生しないように安全なガードレールを更新したと説明しました。
- 多くの問題がGENZEROワークショップで強調されました。
私の考え:
- AIが人間を否定的に表現することは懸念される。
- 安全性やトレーニング方法には根本的な問題がある可能性がある。
- AIモデルのトレーニングデータの透明性が重要である。
元記事: https://diginomica.com/you-are-stain-universe-please-die-how-do-we-fix-it-if-ai-doesnt-us