人工知能 (AI) の世界は急速に進化しており、革新と進歩の大きな可能性を秘めています。しかし、大きな力には大きなリスクが伴います。Sysdig 脅威調査チーム (TRT) による最近の発見により、そのようなリスクの 1 つが明らかになりました。

伝えられるところによると、研究者らは、LLMジャッキングと呼ばれる新しいサイバー攻撃スキームを発見した。このスキームでは、脅威アクターがクラウド環境にアクセスし、クラウドプロバイダーがホストするローカルの大規模言語モデル(LLM)にアクセスしようとする。ブログ投稿で、Sysdigのセキュリティ研究者Alessandro Brucato氏は、サイバー犯罪者が、おそらく侵害されたクラウドアカウントから取得した盗まれたクラウド認証情報を使用して、古いソフトウェアを実行しているシステムを標的とし、LLMを実行しているシステムに侵入して、その機能の宝庫のロックを解除していると説明した。研究者によると、研究の発表前に、攻撃者はすでに、Anthropic、AWS Bedrock、Google Cloud Vertex AI、Mistral、OpenAIなど、10の異なるAIサービスにわたってLLMモデルにアクセスしていたという。あるケースでは、Anthropic のローカル Claude (v2/v3) LLM モデルが標的となり、攻撃者は脆弱な Laravel Framework システムに侵入し、脆弱性 CVE-2021-3129 を悪用して Amazon Web Services (AWS) の認証情報にアクセスすることで侵入を実行しました。侵害されたアカウントへのアクセスには、オープンソースの Python スクリプトが使用されました。研究者らは、攻撃者が侵害されたシステムのログ設定を改ざんしていることを発見しました。これは、盗まれた LLM アクセスを使用しながら意図的に検出を回避しようとしていることを示し、サイバー犯罪者の高度化が進んでいることを浮き彫りにしています。「発見されなければ、この種の攻撃により、被害者は 1 日あたり 46,000 ドルを超える LLM 消費コストを被る可能性があります」と Brucato 氏は指摘しています。しかし、その動機は何でしょうか? データの盗難や業務の妨害に重点を置いた従来のハッキングとは異なり、LLM ジャッキングは利益を目的としているようです。ただし、ひねりがあります。研究者らは、攻撃者が LLM 自体に保存されているデータを狙っているのではないと考えています。代わりに、彼らは AI モデルの機能へのアクセスを他の犯罪者に販売することを目指しています。これは、検証フェーズで正当な LLM クエリが実行されず、資格情報の機能とクォータのみが決定されたためです。キーチェッカーは、LLM API のリバース プロキシ サーバーである oai-reverse-proxy と統合されているため、攻撃者は基盤となる資格情報を公開せずに、侵害されたアカウントへのアクセスを提供している可能性があります。この発見は、AI を保護するための多面的なアプローチの必要性を浮き彫りにしています。Sysdig は、権限を最小限に抑え、不正アクセスを防ぐために、クラウド セキュリティ ポスチャ管理またはクラウド インフラストラクチャ エンタイトルメント管理ソリューションとともに、堅牢な脆弱性とシークレットの管理プラクティスを実装することを推奨しています。関連トピック AI 主導のサイバー犯罪のために FraudGPT チャットボットが登場 AI が生成した偽の死亡記事 Web サイトが悲しんでいるユーザーをターゲットに AI を利用した詐欺が世界的なサイバー犯罪の急増を促進: インターポール WormGPT – 悪意のある ChatGPT の代替手段が犯罪者を支援 研究者が生成 AI アプリを悪用するゼロクリック ワームをテスト

伝えられるところによると、研究者らは、LLMジャッキングと呼ばれる新しいサイバー攻撃スキームを発見しました。このスキームでは、脅威アクターがクラウド環境にアクセスし、クラウドプロバイダーがホストするローカルの大規模言語モデル(LLM)にアクセスしようとします。
Sysdig のセキュリティ研究者 Alessandro Brucato 氏はブログ記事で、サイバー犯罪者が、おそらく侵害されたクラウド アカウントから取得した盗まれたクラウド認証情報を使用して、古いソフトウェアを実行しているシステムを標的にし、LLM を実行しているシステムに侵入してその機能の宝庫をロック解除しようとしていると説明しました。
研究者によると、研究結果が発表される前に、攻撃者はすでに Anthropic、AWS Bedrock、Google Cloud Vertex AI、Mistral、OpenAI など 10 種類の AI サービスにわたって LLM モデルにアクセスしていたという。
あるケースでは、Anthropic のローカル Claude (v2/v3) LLM モデルが標的となり、攻撃者は脆弱な Laravel Framework システムに侵入し、脆弱性 CVE-2021-3129 を悪用して Amazon Web Services (AWS) の認証情報にアクセスすることで侵入を実行しました。侵害されたアカウントへのアクセスには、オープンソースの Python スクリプトが使用されました。
研究者らは、攻撃者が侵害されたシステムのログ設定を改ざんしていることを発見しました。これは、盗まれた LLM アクセスを使用して検出を回避しようとする意図的な試みを示しており、サイバー犯罪者の巧妙化が進んでいることを浮き彫りにしています。
「発見されなければ、この種の攻撃は被害者に1日あたり46,000ドル以上のLLM消費コストをもたらす可能性がある」とブルカート氏は指摘した。

データの盗難や業務の妨害を目的とした従来のハッキングとは異なり、LLM ジャッキングは利益を目的としているようです。ただし、ひねりがあります。研究者は、攻撃者は LLM 自体に保存されているデータを狙っているのではないと考えています。代わりに、彼らは AI モデルの機能へのアクセスを他の犯罪者に販売することを目指しています。これは、検証フェーズで正当な LLM クエリが実行されず、資格情報の機能と割り当てのみが決定されたためです。キーチェッカーは、LLM API のリバース プロキシ サーバーである oai-reverse-proxy と統合されているため、攻撃者は基礎となる資格情報を公開することなく、侵害されたアカウントへのアクセスを提供している可能性があります。この発見は、AI を保護するための多面的なアプローチの必要性を浮き彫りにしています。Sysdig は、権限を最小限に抑え、不正アクセスを防ぐために、クラウド セキュリティ ポスチャ管理またはクラウド インフラストラクチャ エンタイトルメント管理ソリューションとともに、堅牢な脆弱性とシークレットの管理プラクティスを実装することを推奨しています。関連トピック FraudGPT チャットボットが AI 駆動型サイバー犯罪に登場 AI が生成した偽の死亡記事 Web サイトが悲嘆に暮れるユーザーをターゲットに AI を利用した詐欺が世界的なサイバー犯罪の急増を促進: インターポール WormGPT – 悪意のある ChatGPT の代替手段が犯罪者を助長 研究者が生成 AI アプリを悪用するゼロクリックワームをテスト

データの盗難や業務妨害を目的とした従来のハッキングとは異なり、LLM ジャッキングは利益を目的としているようです。しかし、ひねりがあります。研究者は、攻撃者が LLM 自体に保存されているデータを狙っているのではないと考えています。攻撃者は、AI モデルの機能へのアクセスを他の犯罪者に販売することを目指しています。
これは、検証フェーズで正当な LLM クエリが実行されず、資格情報の機能と割り当てのみが判断されたためです。キーチェッカーは、LLM API のリバース プロキシ サーバーである oai-reverse-proxy と統合されており、攻撃者が基盤となる資格情報を公開せずに侵害されたアカウントへのアクセスを提供していることが示唆されています。
この発見は、AI を保護するための多面的なアプローチの必要性を浮き彫りにしています。Sysdig は、権限を最小限に抑え、不正アクセスを防ぐために、クラウド セキュリティ ポスチャ管理またはクラウド インフラストラクチャ エンタイトルメント管理ソリューションとともに、堅牢な脆弱性とシークレットの管理プラクティスを実装することを推奨しています。
あなたのメールアドレスは公開されません。必須項目は*でマークされています

Hackread.com は、Gray Dot Media Group Ltd. の登録商標です。英国会社登記所に登録された会社登録番号は 12903776 です。登録住所は、85 Great Portland Street, London, England, W1W 7LT です。サイト上の第三者の商標および商号の表示は、必ずしも Hackread.com との提携または承認を示すものではありません。アフィリエイト リンクをクリックして製品またはサービスを購入すると、その販売業者から手数料が支払われる場合があります。

元記事: https://www.hackread.com/llmjacking-attack-hackers-hijack-ai-models/