– 人工知能(AI)は現在、多くの分野で使用されており、政府機関も例外ではない。
– 政府機関はAIの使用に関するガイドラインを設けており、「連邦機関のためのAIアカウンタビリティフレームワーク」などが存在する。
– 新しい世代のAI、特にジェネレーティブAIはコーディングにおいて高速で効率的だが、セキュリティの問題も指摘されている。
– 最新の研究では、AIが生成したコードにはセキュリティ上の脆弱性が多く含まれていることが明らかになっている。
– 例えば、ケベック大学の研究では、ChatGPTによって生成された21のプログラムのうち、5つのみがセキュリティ面で安全だった。
– AIはコードの脆弱性を特定する能力にも問題があり、多くの場合、脆弱性を見逃したり、誤って安全なコードを脆弱と判断することがある。
– AIのトレーニングには改善が必要であり、現在のところは経験豊富な開発者と密接に連携することが推奨されている。

【感想】
AIの技術が進化し、多くの作業を効率化できる一方で、セキュリティの問題は依然として大きな課題であることがこの記事からも明らかです。特に政府機関のようなセキュリティが非常に重要な分野でのAIの利用には、慎重なアプローチと追加のセキュリティ対策が必要であると感じました。AIの能力に過度に依存することなく、人間の監視と介入が引き続き重要であることを認識するべきです。

元記事: https://www.nextgov.com/artificial-intelligence/2024/05/feds-beware-new-studies-demonstrate-key-ai-shortcomings/396526/