要約:

  • 悪意のある新しいAIツール「GhostGPT」がサイバー犯罪者によって購入され、フィッシングメールやマルウェアなどの危険な資産を生成するのに使用されている。
  • GhostGPTは、Telegramアプリを通じて販売されており、エンジニアを雇わずに犯罪者が迅速に悪意のあるコンテンツを生成できるようにしている。
  • GhostGPTは「ジェイルブレイク」を行い、非検閲の内容を提供することができるため、悪意のある活動を隠すためにログを取らないと主張している。
  • 悪意のあるAIモデル「WormGPT」「WolfGPT」「EscapeGPT」なども登場し、サイバー犯罪者による攻撃の手段が増加している。
  • これらのツールはサイバー犯罪者に低い参入障壁を提供し、AIを活用してより説得力のある資産を生成できるようにしている。

感想:

悪意あるAIツールの登場は、サイバー犯罪の脅威をさらに増大させている。このようなツールを活用することで、犯罪者は手軽に悪質なコンテンツを生成し、攻撃を増加させることが容易になっています。AIの力を悪用することで、従来のフィッシング詐欺よりも巧妙な手法が生まれ、サイバー犯罪のスピードと効率が向上しています。サイバーセキュリティの観点から、こうした悪意あるAIモデルの台頭に対処することが重要です。


元記事: https://www.eweek.com/news/ghostgpt-ai-hacking-tool/