• イリノイ大学アーバナ・シャンペーン校(UIUC)の新しい研究によると、大規模言語モデル(LLM)エージェントは実世界のサイバーセキュリティ脆弱性を自律的に悪用する可能性があり、これらの高度なAIシステムの普及とセキュリティについて重大な懸念が高まっている。
  • 研究者らは、OpenAIが開発した主要LLMであるGPT-4が、CVE(既知のセキュリティ脅威の一覧)の説明を提供されると、87%の一日脆弱性を成功裏に悪用できることを実証した。
  • GPT-4は既知の脆弱性を悪用することには熟練しているが、独立してそれらを特定することには苦戦しており、CVEの説明がない場合、成功率は7%に低下した。
  • LLMエージェントの脆弱性を自律的に悪用する能力はサイバーセキュリティに重大な脅威をもたらし、AIモデルが強力になるにつれて、悪用される可能性が高まる。
  • 研究者らは、AIエージェントの計画と探索能力の向上、さらに洗練された防御メカニズムの開発についてのさらなる研究を求めている。

この研究は、AI技術の進化に伴い、慎重な監視と倫理的考慮が開発と展開において不可欠であることを厳然と示しています。サイバーセキュリティコミュニティは、潜在的な脅威に先んじて、防御策を継続的に改善し、研究者、開発者、政策立案者の間で協力を促進する必要があります。

元記事: https://thejournal.com/Articles/2024/07/01/Report-Generative-AI-Agents-Can-Exploit-Cybersecurity-Vulnerabilities.aspx