• 2024年には、大規模言語モデル(LLMs)の使用が急増し、多くの開発者がOpenAIのChatGPT、GitHub Copilot、Google Gemini、またはJetBrains AI Assistantを使用してコーディングを補助している。
  • 生成されたコードのセキュリティと開発者の信頼性には課題があり、商用モデルによる生成コードの5%以上とオープンソースモデルによる生成コードの約22%には存在しないパッケージ名が含まれていた。
  • AIツールを使用している開発者の約76%は、AIによって生成されたコードが人間よりも安全であると考えている。
  • GitHubの報告によると、オープンソースプロジェクトで作業している開発者の約73%がAIツールをコーディングやドキュメンテーションに使用しており、97%がAIコーディングツールをある程度使用している。
  • AIコード生成が2025年には標準となる中、開発者は脆弱なコードをチェックし、AIツールがセキュリティを優先する方法をより意識する必要がある。

AIを活用したコード生成は開発を加速させる一方、安全にツールを使用する方法を知っている開発者によってセキュアなコードの開発を促進します。AIツールは開発者の生産性を最大2倍に向上させる可能性がありますが、エラーも10%から30%の割合で生じることがあります。開発者はAIツールを熟練したインターンのように使用し、一部の作業を処理してから精緻化と確認に移すべきです。

元記事: https://www.darkreading.com/application-security/will-ai-code-generators-overcome-their-insecurities-2025