- CheckmarxがGenerative AI in Application Securityレポートをリリース
- 調査では、AIの生産性の利点を活用する緊張とリスクを軽減するためのガバナンス確立の間の緊張が強調された
- 組織のうち29%しかAIツールにガバナンスがなく、15%がコード生成のためのAIを禁止
- CheckmarxはGenerative AIを安全に活用するための7つのステップを示すレポートを公開
- ジェネレーティブAIは現在、安全なコーディング慣行に従えず、本当に安全なコードを生成できない
- セキュリティチームはAI駆動のセキュリティツールを検討している
- Checkmarxの調査によると、開発者はセキュアなコードを信頼できない状態でAIを使用しており、セキュリティチームは新たな脆弱なコードの管理に直面している
- セキュリティチームは自分たちの生産性ツールを持つ必要がある
- 2024年初頭、Checkmarxはグローバル調査会社に900人のCISOとアプリケーションセキュリティ専門家を対象に調査を委託
この記事では、AIの活用に伴う生産性の利点とリスク軽減のためのガバナンス確立の間の緊張が強調されています。ジェネレーティブAIは現在、安全なコーディング慣行に従えず、安全なコードを生成できないため、セキュリティチームはAI駆動のセキュリティツールを検討しています。開発者が安全なコードを信頼できない状態でAIを使用していることが示され、セキュリティチームは新たな脆弱なコードの管理に直面しています。
元記事: https://appdevelopermagazine.com/generative-ai-in-application-security-report-from-checkmarx/