要約:

  • 米国、英国、ドイツ、フランスのセキュリティリーダーのほとんどがAIによるコード生成を使用している組織で、関連するリスクに追いつけないと懸念している。
  • 新しい報告書によると、これらの地域の800人のセキュリティ意思決定者のほぼ全員が、AI生成コードの使用がセキュリティインシデントを引き起こす可能性があると心配している。
  • 83%の組織がAIをコード生成に使用しており、57%がAIをコーディングアシスタンスとして使用している。
  • セキュリティリーダーは、AI生成コードのスピードが品質を犠牲にする可能性があることや、AIツールを使用して開発者が機密コードを処理するリスクをどのように制御するかに悩んでいる。
  • セキュリティリーダーは、AIに過度に依存することで基準が低下し、AIが適切に品質チェックされない可能性、およびメンテナンスされていない古いオープンソースライブラリが使用される可能性を懸念している。

考察:

セキュリティリーダーは、AIによる開発者の過度な依存により基準が低下することや、AIが適切に品質チェックされない可能性、およびAIがメンテナンスされていない古いオープンソースライブラリを使用する可能性を懸念しています。セキュリティチームがAIパワードの開発者を追跡または効果的に監視することがすでに不可能であると63%の回答者が述べ、シャドウAI(許可なくAIツールを使用する従業員のプロセス)は明確な方針がなければ見つけることが難しいと指摘しています。


元記事: https://www.itpro.com/technology/artificial-intelligence/security-leaders-are-increasingly-worried-about-ai-generated-code