• Metaの大規模言語モデル(LLM)フレームワーク、Llamaには、一般的なオープンソースのコーディングの見落としによる脆弱性があり、任意のコードの実行が可能で、資源の盗難、データ漏えい、AIモデルの乗っ取りにつながる可能性がある。
  • 脆弱性は、CVE-2024-50050として追跡され、AIフレームワークでオープンソースライブラリ(pyzmq)の不適切な使用から生じる脆弱性の一つ、重大な逆シリアライズの欠陥である。
  • Metaのセキュリティチームは、Oligoの報告を受けて、Llama Stackの修正を迅速に行い、ソケット通信のシリアライズ形式をpickleからJSONに切り替えた。
  • 問題は、pickleを使用しているLlama Stackが、その「推論API」実装内でPythonオブジェクトのシリアライズと逆シリアライズを行っており、攻撃者が送信した信頼できないデータ(クラフトされたデータ)を逆シリアライズする際に任意のコードを実行する可能性があることに起因する。
  • Oligoは2024年9月29日に脆弱性をMetaに報告し、Metaは10月10日にGitHubで修正版0.0.41をリリースし、パッチがPyPiにプッシュされた。

この記事を読んだ感想として、オープンソースライブラリの不適切な使用による重大なセキュリティ脆弱性がAIフレームワークに存在することが明らかになりました。Metaは迅速に対応し、修正を行ったが、脆弱性の深刻さについての評価が異なる状況が見受けられます。セキュリティの重要性がますます高まる中、開発者や企業はコーディングのベストプラクティスを遵守し、セキュリティリスクを最小限に抑える取り組みが求められると感じます。

元記事: https://www.csoonline.com/article/3810362/a-pickle-in-metas-llm-code-could-allow-rce-attacks.html