- イリノイ大学アーバナ・シャンペーン校(UIUC)の研究によると、大規模言語モデル(LLM)エージェントが実世界のサイバーセキュリティの脆弱性を自律的に悪用できることが示された。
- 研究「LLMエージェントは自律的にウェブサイトをハックできる」という研究では、OpenAIが開発した主要LLMであるGPT-4が、CVE(既知のセキュリティ脅威の一覧)の説明を提供されると、1日の脆弱性の87%を成功裏に悪用できることが明らかになった。
- GPT-4は既知の脆弱性をうまく悪用できるが、独自にそれらを特定することに苦労しており、CVEの説明がない場合の成功率は7%にまで低下する。
- この研究結果は印象的であり、LLMエージェントが脆弱性を自律的に悪用できる能力は、サイバーセキュリティに重大な脅威をもたらす可能性がある。
- AIモデルが強力になるにつれ、その悪用がより可能性が高くなるため、サイバーセキュリティコミュニティとAI開発者はこれらのエージェントの展開と能力を注意深く考慮する必要がある。
研究結果からは、AIシステムのセキュリティ向上と倫理的な使用が重要であり、悪用を防ぐために慎重な監督と倫理的な考慮が必要であることが示唆されています。さらに、AIエージェントの計画と探索能力の向上、より洗練された防御機構の開発に関する研究が必要とされています。