- Generative AI(genAI)は短い年月で存在してきたが、幻滅と陶酔の間を行き来している
- genAIは既に武器化されており、時には事故によって、時には意図的に
- 新技術ではセキュリティが見過ごされることがあり、genAIにとってもセキュリティの欠点は広範な生産利用に必要な信頼を侵害する可能性がある
- オープンソースの世界では、セキュリティに対して軽率であり、オープンソースのセキュリティはライセンスではなく解決すべき課題となっている
- 開発者はAIを使ってバグレポートを作成し、プロジェクトのセキュリティを維持するのがより難しくなっている
- genAIはソフトウェアにバグを導入する責任も持っており、同じバグや差別的なコメントを再現する可能性がある
- 業界の大規模言語モデルはセキュリティに関して十分な注力をしておらず、安全性に関する保証が提供されていない
- genAIは引き続き顧客を探しており、ソフトウェア開発の分野で広範な採用が見られている
- 企業がより高いセキュリティ水準を求めることで、LLMのセキュリティは改善される可能性がある
私の考え:新しい技術が発展する際にはセキュリティが後回しにされることがよくあるが、genAIにおいてはセキュリティの欠点が広範な生産利用に必要な信頼を損なう可能性があることが明らかになっています。開発者がAIを利用してバグレポートを自動生成することで、プロジェクトのメンテナンスが困難になっている点も重要です。今後、企業がより高いセキュリティ水準を要求し、genAIベンダーがセキュリティを向上させる必要があるでしょう。
元記事: https://www.infoworld.com/article/3624650/weaponizing-genai.html