要約:
- 2026年までに、80%以上の企業がGenAI(生成型人工知能)API、モデル、および/またはGenAI対応アプリケーションを導入する見込み。
- AIアプリケーションセキュリティツールは既に34%の組織で使用されており、今後増加する可能性がある。
- 機械学習は新しいAIシステムにおいて重要であり、これらのシステムのセキュリティ評価は他のシステムのセキュリティレビューと異なる。
- 機械学習は、監視学習、非監視学習、強化学習など、さまざまな手法を包括しており、それぞれ異なるデータシナリオに適合している。
- 大規模言語モデル(LLM)は、人間らしいテキストの理解や生成においてAI業界をリードし、言語翻訳、テキスト要約、質問応答、テキスト生成などの言語関連タスクで優れた性能を示している。
- MLモデルは以前に分析されたデータのパターンを使用して作成されるファイルであり、新しいデータを予測するために以前の学習を活用する。
- 推論サーバーは、モデルをロードして上流サービスが利用できるAPIを公開し、アプリケーションコードを実行し、モデルと対話するためのAPIを呼び出すことを可能にする。
感想:
機械学習とAIの急速な発展に伴い、セキュリティリスクの重要性が高まっています。特に推論サーバーのような新たな攻撃面や既知のアプリケーションセキュリティリスクが新しいAIシステムやツールで現れていることに対処する必要があります。
元記事: https://www.kroll.com/en/insights/publications/cyber/machine-learning-cybersecurity