• 研究では、大規模言語モデルの安全対策が逆効果になる可能性があることが示された。
  • 特定の人口統計用語の使用によって、モデルの「ジェイルブレイク」がどのように影響されるかが検討された。
  • マージナライズされたグループの用語を使用したプロンプトは、特権を持つグループの用語よりも望ましくない結果を生み出す可能性がある。
  • 研究者は、意図的なバイアスがモデル内に導入され、ジェイルブレイクの成功率に差が生じると述べている。
  • PCJailbreakメソッドを開発し、大規模言語モデルが「ジェイルブレイク」攻撃にどれだけ脆弱かをテストした。
  • PCDefenseメソッドは、モデルの安全性を改善し、バイアスを軽減するために開発された。
  • PCDefenseは、追加のモデルや処理ステップを必要とせず、安全性関連のバイアスを軽減できる。

研究は、大規模言語モデルの安全性を向上させる効果的でスケーラブルな方法を提供していることが示された。また、安全性、公平性、パフォーマンスのバランスを考慮したAIシステムの設計の複雑さが強調された。

元記事: https://the-decoder.com/llms-are-easier-to-jailbreak-using-keywords-from-marginalized-groups-study-finds/