- カスペルスキーのAI研究センターの専門家は、サイバー犯罪者が大規模なフィッシングや詐欺攻撃のために大規模な言語モデル(LLM)の使用が増加していることを発見しました。
- 脅威行為者はAI専用のフレーズなどの特徴を残すことが多く、これによりAIによって作成されたウェブサイトを手作業で作成されたものと区別できるようになりました。
- カスペルスキーによると、これまでに特定されたほとんどのフィッシング試みは、主に暗号通貨取引所やウォレットのユーザーを標的としています。
- LLMの使用の目立つ指標の1つは、免責事項や特定のコマンドを実行しない旨を拒否することで、これはKuCoinユーザーを標的としたフィッシングページで見られる「As an AI language model…」などの共通フレーズです。
- LLMの別の特徴は、譲歩的な節を含むことであり、これはGeminiやExodusユーザーを標的としたフィッシング試みで観察されており、言語モデルが詳細なログイン手順を提供しないことがあります。
私の考え:AIの進化は、サイバー犯罪者が悪用する可能性があり、今後はAI生成コンテンツを人間が書いたテキストから区別することがますます困難になるかもしれません。カスペルスキーが提案する対策は、ユーザーを危険なウェブサイトや不正行為から保護するための重要な手段となります。
元記事: https://securitybrief.co.nz/story/rise-in-ai-driven-phishing-sites-targets-crypto-users