- Black Duckの「2024年のグローバルなDevSecOpsの状況」レポートによると、多くの組織が開発にAIツールを使用している。
- しかし、AIが生成したコードはセキュリティリスクを引き起こす可能性があり、多くの組織がそれを効果的に保護するための必要な対策を欠いているという懸念がある。
- 報告書によると、90%の組織がソフトウェア開発にAIツールを使用しており、85%がAI生成コードのセキュリティプロトコルを実装している。
- ただし、報告書は、AIツールを使用しているにもかかわらず、多くの組織がAI生成コードを効果的に保護するための必要な対策を欠いているという懸念すべき傾向を明らかにした。
- ある調査によると、AIツールをすべての開発者が使用できると許可しているグループの中で、AI生成コードを保護する能力に対する自信が弱いまたは全くないと主張する人がいる。
- 43%の回答者は、追加のセキュリティのために特定の開発者やチームだけがAIツールを使用してコードを書くことを許可している。
Black Duckの報告によると、AIツールを使用する組織はセキュリティ面での課題があり、AI生成コードを保護するための適切な対策が必要であることが示されています。特に、開発スピードを優先する組織は、セキュリティを犠牲にしている可能性があります。今後は、AI支援の開発を考慮に入れたDevSecOpsプログラムを構築する際に、テストカバレッジと結果の実行可能性の両方を重視することが重要です。
元記事: https://futurecio.tech/concerns-arise-as-ai-generated-code-comes-with-security-risks/