- 大規模な言語モデルを使用して、防御策を構築できると研究者は述べています。
- 悪意のある行為者は既存のマルウェアサンプルに基づいて10,000個の新しいJavaScriptコードを生成するために大規模な言語モデルを活用する可能性があります。
- Palo Alto NetworksのUnit 42の研究者によると、このように新しく生成されたマルウェアのバリアントはVirusTotalの検出を回避し、テストの88%で深層学習モデルを回避できるでしょう。
- The Hacker Newsによると、研究者は、生成AIの支援を受けて新しい悪意のあるコードのバリアントの規模が拡大する可能性があると述べています。「我々は同じ戦術を使用して悪意のあるコードを書き直し、MLモデルの頑健性を向上させるためのトレーニングデータを生成するのに役立てることができます」と研究者は述べました。
- これらの研究結果は、Exploit Prediction Scoring System AIフレームワークを標的としたプルーフ・オブ・コンセプトの操作攻撃に関するMorphisecによるレポートに続きます。これは脆弱性管理イニシアチブを破壊する可能性があります。
この記事では、大規模な言語モデルを悪用した新たなマルウェアの生成が議論されており、その悪用が検出技術を回避し、深層学習モデルを回避することが示されています。生成AIの支援を受けた新しい悪意のあるコードのバリアントが増加する可能性があることが指摘されており、セキュリティ対策の重要性が強調されています。
元記事: https://insight.scmagazineuk.com/llm-could-generate-thousands-of-malware-variants