• AIモデルによって生成されたソフトウェアの脆弱性報告が、オープンソースの「新しい時代のセキュリティレポートの乱雑さ」をもたらし、これらのプロジェクトを維持する開発者たちは、バグハンターが機械学習アシスタントによって生成された結果にあまり頼らないことを望んでいる。
  • Python Software Foundationのセキュリティ開発者であるSeth Larsonは、先週のブログ投稿でこの問題を提起し、バグ報告にAIシステムを使用しないように呼びかけた。
  • 低品質の報告は悪意を持つものとして扱うべきであるとLarsonは主張。
  • オープンソースプロジェクトにとって、AI支援のバグ報告は特に悪質であり、セキュリティエンジニアによる検討と評価を必要とする。
  • Larsonは、このトレンドに先んじて損害を軽減するためにオープンソースコミュニティが取るべき行動について検討する必要があると述べている。

私の考え: AIによる低品質な脆弱性報告は、オープンソースプロジェクトにとって深刻な問題であり、セキュリティに関わるボランティアのエンジニアたちの負担を増やす可能性がある。このような問題に対処するためには、より信頼できる個人をオープンソースに参加させる方法を模索する必要があります。また、AIを使用せずに人間によって検証された報告のみを提出するよう呼びかけることは重要です。

元記事: https://www.theregister.com/2024/12/10/ai_slop_bug_reports/