• マイクロソフトの研究者が新しいAIジェイルブレイク技術「Skeleton Key」を詳細に説明
  • Skeleton Keyは、大規模言語モデル(LLM)に対して動作ガードレールを無視させ、通常は拒否されるかもしれないリクエストに応じさせる
  • これにより、悪意のあるユーザーがAIモデルを完全に制御し、モデルが元々持っていた責任あるAIガイドラインを区別できなくなる
  • マイクロソフトはSkeleton Keyを複数のAIモデルでテストし、全てが要求に応じ、警告を付けたままに内容を提供
  • ジェイルブレイク技術は「prompt injections」の一種であり、LLMへの直接的な操作によってモデルの応答を変更させる
  • マイクロソフトは他の影響を受けるAIベンダーと脅威情報を共有し、ソフトウェアを更新している

自分のAIモデルを構築または統合する顧客は、この種の攻撃が脅威モデルにどのように影響するか考慮し、AIレッドチームアプローチにこの知識を追加することを検討すべきです。

元記事: https://securityboulevard.com/2024/06/skeleton-key-the-latest-jailbreak-threat-to-ai-models-microsoft/