要約
- 大規模言語モデル(LLM)への攻撃は平均して1分未満で完了し、成功すると90%の場合に機密データが漏洩する。
- Pillar SecurityのGenAI攻撃の状況レポートによると、LLMジェイルブレイクは5回の相互作用を平均とし、攻撃は42秒で完了する。
- 攻撃はジェイルブレイクとプロンプトインジェクションの2つのカテゴリに分かれ、ジェイルブレイクはモデルのガードレールをバイパスし、プロンプトインジェクションはユーザ入力に埋め込まれた命令に焦点を当てる。
- 攻撃手法には「以前の命令を無視する」、強制的な命令、base64エンコーディングなどがあり、ジェイルブレイクはプロンプトインジェクションの成功を促す。
- GenAI攻撃の危険性は、GenAIがチャットボットから自律的に行動し、決定するAIエージェントに進化するにつれてエスカレートする可能性がある。
考察
LLMへの攻撃が短時間で機密情報を漏洩させるリスクが高いことが明らかになりました。特にジェイルブレイクとプロンプトインジェクションの手法が広く使われており、短時間で攻撃が完了することから、GenAIのセキュリティに対する脅威が増大しています。今後、GenAIの普及が進むにつれて、セキュリティ対策の重要性が高まるため、組織は適切な対策を取る必要があります。