- Twitterユーザー@r_cky0はChatGPTを使用してブロックチェーン自動取引ボットを開発中に重大なセキュリティ侵害を報告
- AIによって推奨されたコードには隠しバックドアがあり、秘密鍵をフィッシングサイトに送信し、約$2,500の損失を招いた
- SlowMistの創始者Yu Jian(@evilcos)もこの事件を確認し、AI生成されたコードに脆弱性が存在することを認めた
- 専門家は、このような攻撃はAIモデルがフィッシング投稿や安全でないコンテンツから悪意あるパターンを学んだ結果と考えられると指摘
- 現在のAIモデルはコード内のバックドアを検出する際に課題を抱えており、AI生成プログラミングソリューションの信頼性について懸念が高まっている
- 業界の専門家は、ユーザーに注意を払い、AI生成されたコードを盲目的に信頼しないよう呼びかけている
- また、AIプラットフォームがコンテンツレビューメカニズムを強化してセキュリティリスクを特定し、ユーザーに警告することを推奨
- この増加する警戒心と改善された安全対策の要請は、ソフトウェア開発にAIを統合する際のより安全なアプローチの必要性を強調
考察:AIが生成したコードには悪意あるバックドアが含まれる可能性があることは大きな懸念であり、セキュリティリスクを最小限に抑えるためには、AIプラットフォームの改善とユーザーの注意が必要とされています。安全なソフトウェア開発においては、AIの利用に対する慎重さと確実な対策が不可欠であると言えます。