企業の世界では長い間、信頼こそがビジネスの原動力であるという考え方に基づいて運営されてきました。しかし、AI によって企業の運営方法や顧客と企業のやりとりの方法が変革され、再定義されるにつれて、テクノロジーに対する信頼を構築する必要があります。
AI の進歩により、人的資本を解放して、価値の高い成果物に集中できるようになります。この進化はビジネスの成長に変革をもたらすことは間違いありませんが、ユーザーと顧客のエクスペリエンスは、安全で責任ある、信頼できるテクノロジー ソリューションを構築するという組織の取り組みにかかっています。
企業は、ユーザーと連携する生成 AI が信頼できるかどうかを判断する必要があり、セキュリティは信頼の基本的な要素です。したがって、ここに企業が直面する最大の賭けの 1 つ、つまり AI 展開のセキュリティ保護があります。
本日、IBM® Institute for Business Value は、IBM と AWS が共同執筆した「生成 AI のセキュリティ確保: 今何が重要か」という調査レポートを公開しました。このレポートでは、生成 AI の導入のセキュリティ確保に関する新しいデータ、実践、推奨事項が紹介されています。IBM の調査によると、経営幹部の 82% が、安全で信頼できる AI がビジネスの成功に不可欠であると述べています。これは有望に思えますが、調査対象のリーダーの 69% は、生成 AI に関しては、セキュリティよりもイノベーションが優先されると回答しています。
イノベーションとセキュリティの優先順位は選択のように思えるかもしれませんが、実際はテストです。ここには明らかな緊張関係があります。組織は、ジェネレーティブ AI のリスクがこれまで以上に高まっていることを認識していますが、過去の技術革新から学んだ教訓を適用していません。ハイブリッド クラウド、アジャイル ソフトウェア開発、ゼロ トラストへの移行と同様に、ジェネレーティブ AI のセキュリティは後回しにされる可能性があります。回答者の 50% 以上が、ジェネレーティブ AI イニシアチブに影響を与える予測不可能なリスクを懸念しており、ビジネスに混乱が生じる可能性が高まることを恐れています。しかし、現在のジェネレーティブ AI プロジェクトのうち、セキュリティが確保されているのはわずか 24% であると報告されています。なぜこのような乖離があるのでしょうか。
セキュリティに関する決断力の欠如は、生成 AI に関する幅広い知識ギャップの兆候であると同時に、その結果である可能性もあります。回答者のほぼ半数 (47%) は、生成 AI に関してはどこにどれだけ投資すべきかがわからないと答えています。チームが新しい機能を試験的に導入している一方で、リーダーたちはどの生成 AI ユースケースが最も理にかなっているか、またそれを本番環境に合わせてどのように拡張するかについてまだ検討中です。
どこから始めればよいかわからないことも、セキュリティ対策の妨げになる可能性があります。そのため、IBM と AWS は協力して、AI を保護したい組織向けのアクション ガイドと実用的な推奨事項を明らかにしました。
組織は、生成 AI の信頼性とセキュリティを確立するために、ガバナンスをベースラインとして、基礎から始める必要があります。実際、回答者の 81% が、生成 AI には根本的に新しいセキュリティ ガバナンス モデルが必要であると回答しています。ガバナンス、リスク、コンプライアンス (GRC) から始めることで、リーダーは、ビジネス目標とブランド価値に沿った AI アーキテクチャを保護するサイバーセキュリティ戦略の基盤を構築できます。
あらゆるプロセスをセキュリティ保護するには、まずそのプロセスがどのように機能し、想定されるプロセスがどのようなものであるかを理解して、逸脱を特定できるようにする必要があります。運用上の設計から逸脱した AI は、予期しないビジネスへの影響を伴う新たなリスクをもたらす可能性があります。したがって、これらの潜在的なリスクを特定して理解することは、組織が独自のコンプライアンスおよび規制要件に基づいて独自のリスクしきい値を理解するのに役立ちます。
ガバナンス ガードレールが設定されると、組織は AI パイプラインを保護するための戦略をより効果的に確立できます。データ、モデル、それらの使用、および AI イノベーションを構築して組み込む基盤となるインフラストラクチャ。セキュリティの共有責任モデルは、組織が生成 AI をどのように使用するかに応じて変わる可能性があります。組織が独自の AI 運用を開発する際にビジネスへの影響のリスクを軽減するのに役立つツール、コントロール、プロセスが多数用意されています。
信頼できる AI について考えるとき、幻覚、倫理、偏見が最初に頭に浮かぶことが多いものの、AI パイプラインは信頼そのものを危険にさらす脅威に直面していることを組織は認識する必要があります。従来の脅威は新たな意味を持ち、新たな脅威は攻撃的な AI 機能を新たな攻撃ベクトルとして使用し、私たちがますます依存する AI 資産とサービスを侵害しようとします。
セキュリティは、生成 AI のユースケースに信頼と自信をもたらすのに役立ちます。この相乗効果を実現するには、組織はビレッジ アプローチを採用する必要があります。対話は、IS および IT の利害関係者を超えて、戦略、製品開発、リスク、サプライ チェーン、顧客エンゲージメントにまで及ぶ必要があります。
これらのテクノロジーは変革的かつ破壊的であるため、組織の AI および生成 AI 資産を管理するには、セキュリティ、テクノロジー、ビジネス ドメイン間の連携が必要です。
テクノロジー パートナーは重要な役割を果たすことができます。脅威のライフサイクル全体とセキュリティ エコシステム全体にわたってテクノロジー パートナーの幅広く深い専門知識を活用することは、非常に貴重な資産となります。実際、IBM の調査では、調査対象組織の 90% 以上が、ジェネレーティブ AI セキュリティ ソリューションをサードパーティの製品またはテクノロジー パートナー経由で実現していることが明らかになりました。ジェネレーティブ AI セキュリティのニーズに合わせてテクノロジー パートナーを選択する場合、調査対象組織は次のことを報告しています。
この調査では、組織が AI イノベーションにおけるセキュリティの重要性を認識しているものの、AI 革命にどう取り組むのが最善かをまだ模索していることが明らかになっています。こうした取り組みを指導、助言、技術的にサポートできる関係を構築することは、保護され信頼できる生成 AI の重要な次のステップです。IBM と AWS は、経営幹部の認識と優先事項に関する重要な洞察を共有するだけでなく、生成 AI セキュリティ戦略を次のレベルに引き上げるための実用的な推奨事項を含むアクション ガイドも提供しています。
5 分間の読み物 – 組織の変更管理をシームレスに統合する上でリーダーと従業員をサポートできる 5 つの重要なステップについて説明します。
5 分間読む – ジェネレーティブ AI は、単純な質疑応答のやり取りを超えたコンテキスト認識型の会話を導入することで、顧客サービスを変革します。
4 分間読む – AI に対する人間中心のアプローチでは、倫理的な慣行を採用し、持続可能性の必須事項に対処しながら、AI の機能を向上する必要があります。
9 分で読む – 2023 年 11 月、カリフォルニア州プライバシー保護局 (CPPA) は、人工知能 (AI) と自動意思決定テクノロジー (ADMT) の使用に関する一連の規制案を発表しました。提案された規則はまだ策定中ですが、組織はその進化に細心の注意を払う必要があるかもしれません。カリフォルニア州は世界最大のテクノロジー企業の多くが拠点を置いているため、カリフォルニア州が採用する AI 規制は州境をはるかに超えて影響を及ぼす可能性があります。さらに、カリフォルニア州の控訴裁判所は最近、…
9 分で読む – オンライン小売業者は、顧客データをパートナーと共有する前に、常にユーザーの明示的な同意を得ています。ナビゲーション アプリは、旅行の傾向を分析する前にアクティビティ データを匿名化します。学校は、生徒の情報を提供する前に、保護者に本人確認を求めます。これらは、組織がデータ プライバシーをサポートする方法のほんの一例です。データ プライバシーとは、誰が個人データを閲覧できるか、誰が収集できるか、どのように使用できるかなど、個人データは個人が管理すべきであるという原則です。データ プライバシーの重要性を強調しすぎることはありません…
8 分で読む – 大規模言語モデル (LLM) は、この 10 年間で最大の技術的ブレークスルーとなるかもしれません。しかし、LLM はプロンプト インジェクションに対しても脆弱です。これは、明らかな修正方法がない重大なセキュリティ上の欠陥です。生成 AI アプリケーションが企業の IT 環境にますます浸透するにつれて、組織はこの悪質なサイバー攻撃に対抗する方法を見つける必要があります。研究者はまだプロンプト インジェクションを完全に防止する方法を見つけていませんが、リスクを軽減する方法はあります。プロンプト インジェクション攻撃とは何か、そしてなぜそれが問題なのか? プロンプト…
元記事: https://www.ibm.com/blog/enterprises-best-bet-for-the-future-securing-generative-ai/