要約:
- GoogleのVertex AIプラットフォームに2つの脆弱性が見つかり、特権昇格とモデルデータの流出が可能であることが明らかになった。
- 脆弱性の1つは特権昇格を通じたカスタムコードインジェクションで、もう1つは悪意のあるモデルの展開による他のモデルの流出が可能である。
- 特権昇格では、カスタムジョブを悪用することで、本来の範囲を超えるリソースにアクセス可能となる。
- 悪意のあるモデルを展開することで、他のプロジェクト内のすべてのMLおよびLLMモデルを流出させる危険性が示された。
感想:
これらの脆弱性の発見は、AIモデルの展開におけるセキュリティ上の重要性を強調しています。特に、悪意のあるモデル展開による他のモデルへの影響は、企業の機密情報を危険にさらす可能性があります。AI環境を保護するためには、厳格な展開管理とセキュリティ対策が不可欠であり、第三者のリポジトリからのモデルの検証も重要です。これらの課題への対処には、Prisma Cloud AIセキュリティポストチャー管理(AI-SPM)の導入が必要です。
元記事: https://unit42.paloaltonetworks.com/privilege-escalation-llm-model-exfil-vertex-ai/