ライフサイクルを含むAI自体を対象としたセキュリティ問題(AIのためのセキュリティ)と、現在のセキュリティ問題にAIが適用される状況(セキュリティのためのAI)について説明します。
2022年からのChatGPTの導入により、AIを取り巻く環境は大きく変わりました。2010年代にも、AIの進化が人間の論理的思考を超えられるかどうかという問いが研究開発されていました(IBM WatsonやGoogle AlphaGoなど)。その成果から数年後の今、生成型AIの登場により、誰もがAIの将来性を実感できるようになりました。大手IT企業やAIスタートアップは、チャット形式で多くの人がLLM(大規模言語モデル)にアクセスできる環境を積極的に整備しています。彼らは、消費者向けに双方向コミュニケーション、プログラミング、画像生成などのAIサービスを開始しています。
AIの進化は、ビジネスチャンスの拡大や業務の効率化に寄与すると、様々な企業が期待している。プライスウォーターハウスクーパース(※3)が2023年に4,702人のCEOを対象に実施した調査では、64%以上がAIは従業員の業務効率を向上させると回答し、59%がAIは自身の業務も改善すると回答した[1]。一方で、59%のCEOは、サイバーセキュリティが生成AIの大きなリスクであると懸念している。別の企業が2023年に300人以上のリスクおよびコンプライアンスの専門家に質問したところ、93%の企業が生成AIに対するリスクを認識している一方で、リスク軽減の準備をしている企業はわずか9%であるとの調査結果が出ている[2]。さらに、ISC2(国際情報システムセキュリティ認証コンソーシアム)(※4)が1,123人のセキュリティ専門家を対象に実施した別の調査では、AIは犯罪よりもサイバーセキュリティに有益であるかどうかという質問に対して、同意したのはわずか28%、反対は38%であった[3]。実際、[3]の別の調査では、回答者の12%が自社の業務ですべての生成AIツールの使用を禁止し、32%がいくつかの生成AIツールの使用を禁止していることが明らかになっています。
AIの開発と導入とは別に、AIの柔軟性によってセキュリティオペレーションセンターの効率化や脅威の検知と対応の自動化が期待されています。一方で、AIはサイバー防御だけに寄与するわけではありません。大手企業が提供するAIサービスは、有害な入力や出力ができないよう適切に訓練されていますが、ハッキングコミュニティではゼロから構築されたサイバー攻撃用のAIツールが見つかっています。
本ホワイトペーパーでは、主に企業におけるAIの活用に焦点を当て、ライフサイクルを含むAI自体を対象としたセキュリティ問題(AIのためのセキュリティ)と、現在のセキュリティ問題にAIが適用される状況(セキュリティのためのAI)という2つのAIセキュリティ問題について議論します。また、AIに対するリスクに対処するための政府機関や業界団体の現在の動向も示します。
名前*(注: この名前は公開されます)
メールアドレス*(公開されません)
元記事: https://semiengineering.com/security-for-ai-and-ai-for-security/