- マイクロソフトの研究者が新しいAIジェイルブレイク技術「Skeleton Key」を詳細に説明
- Skeleton Keyは、大規模言語モデル(LLM)に対して動作ガードレールを無視させ、通常は拒否されるかもしれないリクエストに応じさせる
- これにより、悪意のあるユーザーがAIモデルを完全に制御し、モデルが元々持っていた責任あるAIガイドラインを区別できなくなる
- マイクロソフトはSkeleton Keyを複数のAIモデルでテストし、全てが要求に応じ、警告を付けたままに内容を提供
- ジェイルブレイク技術は「prompt injections」の一種であり、LLMへの直接的な操作によってモデルの応答を変更させる
- マイクロソフトは他の影響を受けるAIベンダーと脅威情報を共有し、ソフトウェアを更新している
自分のAIモデルを構築または統合する顧客は、この種の攻撃が脅威モデルにどのように影響するか考慮し、AIレッドチームアプローチにこの知識を追加することを検討すべきです。