• Metaが4月に大規模言語モデルLlama 3を無料でリリース
  • 外部開発者は数日で安全制限のないバージョンを作成
  • 新しいトレーニング技術が開発され、今後のオープンソースAIモデルから安全保護を取り除くのが難しくなる可能性
  • 研究者らはLlama 3の簡易版でトリックを実証
  • アプローチは完璧ではないが、AIモデルのデセンシングの基準が上がる可能性

この記事は、AIの安全保護に関する重要な課題に焦点を当てており、オープンソースAIモデルの安全性確保が今後ますます重要になると示唆しています。新しいトレーニング技術によって、悪意ある変更を困難にする手法が提案されており、これは今後の研究に影響を与える可能性があります。

元記事: https://www.wired.com/story/center-for-ai-safety-open-source-llm-safeguards/