- カスペルスキーのAI研究センターの専門家は、サイバー犯罪者が大規模なフィッシングや詐欺攻撃のために大規模な言語モデル(LLMs)の使用が増加していることを発見した。
- フィッシングや詐欺のウェブサイトのコンテンツを生成するためにAIを使用するサイバー犯罪者たちは、AI固有のフレーズなどを残しており、それによってAI生成のウェブサイトを手作業で作成されたものと区別することができる。
- カスペルスキーによると、ほとんどのフィッシング試行は、これまでに特定されたものは、主に仮想通貨取引所およびウォレットのユーザーを標的としている。
- 主な特徴の一つは、免責事項や特定のコマンドを実行しないことを拒否するフレーズが存在することであり、「As an AI language model…」などのフレーズが見られる。
- 他の特徴には、「While I can’t do exactly what you want, I can try something similar.」といった譲歩的な節が含まれることが挙げられる。
私の考え:
サイバー犯罪者がAI技術を利用してフィッシングや詐欺活動を行うことが増えており、AI生成のコンテンツと人間が書いたテキストを区別するのがますます難しくなっています。カスペルスキーが提案する対策は、ハイパーリンクのスペルを確認したり、ウェブアドレスを直接ブラウザに入力したり、安全なブラウジング機能を提供する最新のセキュリティソリューションを利用することです。
元記事: https://securitybrief.asia/story/rise-in-ai-driven-phishing-sites-targets-crypto-users