要約:
- 大規模言語モデル(LLM)の能力が大幅に向上し、悪意ある目的で生成AIを悪用する脅威行為者と、セキュリティチームが防御を強化するためにAIを利用し始めた。
- 脅威行為者は、オープンソースモデルを悪用し、DarkBard、FraudGPT、WormGPTなどの悪意のあるAIチャットボットを作成するなど、LLMsを犯罪活動に適用している。
- 脅威行為者は、特定のフィッシングを容易にするためにオープンソースLLMsを利用しており、これは汎用的なフィッシングメールよりも効果的である。
- セキュリティチームは、脅威行為者よりも進化しなければならず、AIやLLMsを利用して組織を保護するために努力している。
- AIは情報の分析や統合に役立ち、組織のセキュリティ姿勢を改善し、脅威行為者の攻撃に対抗するためのインフラを強化するのに役立つ。
考察:
生成AIやLLMsは、脅威行為者とセキュリティチームの両方にとって利益があるが、悪用される可能性もある。セキュリティ業界は、安全なコーディングや訓練の不足などの課題に直面しており、これらの問題を解決することで組織の攻撃面を脅威行為者に対してより脆弱にする可能性がある。しかし、AIは努力を増やし、組織全体でエントリーポイントを安全に保護するのに役立つ。セキュリティチームが連続監視やユーザー教育、AIパワードのセキュリティソリューションを活用することで、常に変化するデジタル環境で悪意のある行為者より一歩先んじることができる。