- Twitterユーザー@r_cky0がChatGPTを使用してブロックチェーン自動取引ボットを開発中に重大なセキュリティ侵害を報告
- AIが推奨したコードには隠しバックドアがあり、秘密鍵をフィッシングウェブサイトに送信し、約$2,500の損失を引き起こす
- SlowMist創設者のYu Jian(@evilcos)がこの事件を確認し、AI生成のコードに脆弱性が存在することを認める
- 専門家は、この種の攻撃はAIモデルがフィッシング投稿やセキュリティの脆弱なコンテンツから悪意あるパターンを学ぶことに起因する可能性があると指摘
- 現在のAIモデルはコード内のバックドアを検出するのに課題があり、AI生成のプログラミングソリューションの信頼性について懸念が高まっている
- 業界の専門家は、ユーザーに注意を払い、AI生成のコードを盲目的に信頼しないよう勧告
- また、AIプラットフォームはコンテンツレビュー機構を強化し、ユーザーに潜在的なセキュリティリスクを特定して警告することを推奨
- これらの増加した警戒と安全対策の要請は、ソフトウェア開発におけるAIのより安全な統合手法の必要性を強調している
考え:AIが生成するコードにセキュリティリスクがある可能性があることは深刻な問題であり、AIモデルの学習元や検出能力によってはセキュリティ上の脅威が増大する可能性がある。ユーザーはAI生成のコードに対して慎重になる必要があり、AIプラットフォームもセキュリティ対策を強化することが不可欠である。