- 5つの大手研究所によってリリースされた大規模言語モデル(LLM)に組み込まれたセーフガードは効果がない
- AIセーフティ・インスティテュートによる研究によると、匿名化されたLLMsが評価され、コンプライアンス、正確性、応答の完成度が測定された
- 企業のテクノロジースタックでのAIの普及に伴い、セキュリティ関連の不安が高まっている
- 93%のサイバーセキュリティリーダーが企業で生成型AIを展開しているが、そのうち約3分の1はセーフガードを設定していない
- ベンダーの取り組みだけでは企業を保護するのに十分ではない
AIが企業においてますます普及する中、セキュリティ関連の懸念が高まっています。セーフティ・インスティテュートの研究によれば、LLMsは基本的なジェイルブレイクに対して脆弱であり、攻撃を回避しようとする意図がなくても有害な出力を提供することがあります。サイバーセキュリティリーダーの93%が企業で生成型AIを展開している一方、そのうちの約3分の1はセーフガードを設定していないという調査結果も示されています。
元記事: https://www.techcentral.ie/popular-llms-are-insecure-uk-ai-safety-institute-warns/