組織が生成型 AI から価値を生み出そうと躍起になるなか、多くの組織がセキュリティという重要な要素を軽視しています。IBM Institute for Business Value (IBM IBV) が最近実施した経営幹部を対象とした調査では、回答者の 82% が安全で信頼できる AI がビジネスの成功に不可欠であると回答しているにもかかわらず、現世代の AI プロジェクトのうち、取り組みをセキュリティで保護するコンポーネントを備えているのはわずか 24% であることがわかりました。実際、約 70% がセキュリティよりもイノベーションを優先すると回答しています。
このトレードオフの認識は、世代型 AI の幅広いリスクに対する幹部の見解とは対照的です。セキュリティの脆弱性は、彼らの最大の懸念事項の 1 つです。
経営幹部は、次世代 AI の導入に関して幅広い懸念を表明しました。
こうした懸念には根拠がある。サイバー犯罪者はすでに、生成型 AI と従来型 AI の両方から恩恵を受けている。よりリアルな電子メール フィッシング戦術やディープフェイク音声が話題になっているほか、従業員が ChatGPT などの公開ツールを不注意に使用してデータが漏洩した事件も話題になっている。
今後、重要な AI システムに対する潜在的な脅威はさらに厄介なものになります。AI を活用したソリューションの能力が高まり、医療、公共事業、通信、輸送などの重要なインフラストラクチャに統合されるようになると、セキュリティが後回しにされている場合は特に、その価値と同じくらい脆弱になる可能性があります。
統合された AI 脅威表面が形成され始めたばかりですが、IBM X-Force® の研究者は、業界の状況が共通のテクノロジーと有効化モデルを中心に成熟すると、脅威アクターがこれらの AI システムをより広範囲にターゲットにし始めると予測しています。実際、市場が急速に成熟するにつれてその収束は順調に進んでおり、ハードウェア、ソフトウェア、サービス全体で大手プロバイダーがすでに登場しています。
経営幹部の不安と行動のギャップは、サイバーセキュリティとビジネスリーダーが今すぐ AI のセキュリティ確保に取り組む必要があることを強調しています。IBM IBV の新しい調査によると、多くの組織が情報セキュリティ (43%) やリスクとコンプライアンス (46%) などのほとんどの生成 AI ユースケースについてまだ評価/パイロット段階にあるため、今こそ最初からセキュリティを優先して潜在的な脅威に先手を打つべき時です。1
どこから始めるべきかについてより具体的なガイダンスの必要性に応えるため、IBM IBV と IBM Security は Amazon Web Services (AWS) の専門家と協力し、最近の研究の洞察に基づいた主要な実践と推奨事項を共有しています。このレポートのパート 1 では、世代 AI の脅威の状況を理解するためのフレームワークを提供します。パート 2 では、組織が世代 AI を利用する主な 3 つの方法と、関連するセキュリティ上の考慮事項について説明します。パート 3 では、リソースの課題とパートナーの役割について説明します。パート 4 では、リーダーが組織全体で AI を保護するために実行できる実用的な手順のアクション ガイドを提供します。
生成 AI は、新たな潜在的な脅威ベクトルと、それを軽減する新たな方法をもたらします。このテクノロジーは、スキルの低い脅威アクターにとってのハードルをさらに下げ、より高度なエクスプロイトの開発を支援する一方で、防御側が効率と自信を持ってより迅速に行動する能力も強化します。
出典: Okta ブログ、Cyber Magazine、SlashNext、Bleeping Computing、Ars Technica
生成 AI が価値を提供するには、データの機密性、整合性、可用性という点で、従来の意味で安全でなければなりません。しかし、生成 AI が組織の働き方、そして組織が価値を実現し提供する方法を変革するには、モデルの入力と出力が信頼できるものでなければなりません。信頼できる AI を考えるとき、幻覚、倫理、偏見が最初に思い浮かぶことが多いですが、AI パイプラインは、信頼そのものを危険にさらす脅威に直面しています。パイプラインの各側面 (アプリケーション、データ、モデル、使用法) は、既知のものから新しいものまで、脅威の標的になる可能性があります。
新たな脅威の中には、見慣れたものもあれば、まったく新しいものもあります。
マルウェアやソーシャル エンジニアリングなどの従来の脅威は依然として存在しており、これまでと同じデュー デリジェンスが必要です。セキュリティの基礎を怠っている組織や、セキュリティ文化がまだ形成段階にある組織にとって、こうした種類の脅威は今後も課題であり続けるでしょう。
脅威アクターによる AI および自動化ソリューションの採用が増えていることを考えると、強力なセキュリティー基盤を持たない組織は、ジェネレーション AI によってもたらされる従来の脅威の新たな展開に対処する準備も不十分です。フィッシング メールを例に挙げてみましょう。ジェネレーション AI を使用すると、サイバー犯罪者ははるかに効果的で、標的を絞った詐欺を大規模に作成できます。IBM セキュリティー チームは、ジェネレーション AI 機能によって、効果的なフィッシング メールの作成に必要な時間が 99.5% 以上短縮されることを発見しました。この新しい種類のメール脅威は、最小権限や多要素認証の標準プラクティス、横方向の移動を制限するゼロ トラスト アーキテクチャなど、成熟した ID 管理アプローチを採用している企業に中程度の影響を与えるはずです。しかし、これらの分野で遅れをとっている企業は、壊滅的な影響をもたらす可能性のあるインシデントのリスクを負います。
2,300 人以上の経営幹部を対象にした IBM IBV の調査結果が示すように、セキュリティの欠陥がかなりの数の組織に影響を及ぼしているのは事実です。回答者の大半は、ゼロ トラスト (34%)、設計によるセキュリティ (42%)、DevSecOps (43%) における組織の能力がパイロット段階にあると回答しました。これらの組織は、生成 AI を保護するために不可欠なコア セキュリティ機能への投資を継続する必要があります。
最後に、組織の gen AI イニシアチブに対する根本的に新しい一連の脅威も出現しており、この事実は調査回答者のほぼ半数 (47%) が認識しています。たとえば、プロンプト インジェクションは、AI モデルを操作して意図しないアクションを実行することを指します。インバージョン エクスプロイトは、モデルのトレーニングに使用されたデータに関する情報を収集します。これらの手法はまだ普及していませんが、敵が gen AI をサポートするハードウェア、ソフトウェア、サービスに精通するにつれて急増するでしょう。組織が gen AI ソリューションの導入を進めるにつれて、これらの新たな脅威を反映するために、リスクとガバナンスのモデル、およびインシデント対応手順を更新する必要があります。最近の AWS Executive Insights ポッドキャストで、セキュリティの専門家は、脅威の攻撃者はまず簡単に手に入るものを狙う、つまり最小限の労力で最大の影響を与える脅威を狙うと強調しました。セキュリティ投資を選択する際、リーダーはサプライ チェーンのエクスプロイトやデータの流出などのユース ケースを優先する必要があります。
AI 運用に対する新たな脅威には、組織のリスクおよびガバナンス モデルの更新が必要です。
シンプルなフレームワークでは、ガバナンス、リスク、コンプライアンス (GRC) 戦略の更新から始まる、AI パイプラインを保護するための効果的なアプローチを概説しています。これらの原則を最初から中核的な設計上の考慮事項として正しく理解することで、イノベーションを加速できます。生成 AI に対するガバナンスと設計重視のアプローチは、EU AI 法などの新たな AI 規制ガイダンスを考慮すると特に重要です。GRC 機能を AI イニシアチブに統合して組み込むことで、差別化を図ると同時に、強固な基盤の上に構築されていることを認識しながら投資を活用し、価値への道を切り開くことができます。
AI バリュー ストリームのセキュリティ保護は、リスクとガバナンス モデルの更新から始まります。
AI 規制は、世代 AI モデルと同じ速さで進化しており、事実上すべてのレベルの政府で制定されています。組織は、変化するポリシー要件へのコンプライアンス管理に役立つ自動化された AI ガバナンス ツールを検討できます。規制の例には次のものがあります。
出典: グローバル AI 規制トラッカー
次に、リーダーは、インフラストラクチャと、AI バリュー ストリームを構成するプロセス (データ収集、モデル開発、モデル使用) のセキュリティ保護に注意を向けることができます。それぞれが、組織が AI をどのように有効にしているか (組み込みの gen AI 機能を備えたサードパーティ アプリケーションの使用、事前トレーニング済みまたは特注の基盤モデルのプラットフォームを介した gen AI ソリューションの構築、または gen AI モデルとソリューションをゼロから構築) を反映した、明確な脅威面を示します。
それぞれの導入ルートには、さまざまなレベルの投資、コミットメント、責任が含まれます。それぞれのリスクとセキュリティに取り組むことで、AI パイプライン全体の回復力を高めることができます。一部の組織はすでに導入戦略を固めていますが、複数のアプローチを適用している組織もあれば、まだ方法を模索して戦略を正式化している組織もあります。セキュリティの観点から見ると、各オプションで異なるのは、誰が何に責任を負い、その責任をどのように共有するかです。
共有責任の原則は、生成 AI モデルとアプリケーションのセキュリティ保護にも適用されます。
まだ始めたばかりの組織は、OpenAI の ChatGPT、Anthropic の Claude、Google Gemini などの消費者向けサービスを使用しているか、Microsoft 365 や Salesforce などの、gen AI 機能が組み込まれた既製の SaaS 製品を使用している可能性があります。これらのソリューションにより、投資リソースが少ない組織でも、基本的な gen AI 機能から効率を得ることができます。
これらの gen AI 対応ツールを提供する企業は、トレーニング データ、モデル、およびモデルを格納するインフラストラクチャを保護する責任を負います。しかし、製品のユーザーはセキュリティの責任から逃れられません。実際、従業員の不注意な行動がセキュリティ チームに頭痛の種をもたらす可能性があります。
シャドー IT が最初の SaaS 製品とともに登場し、クラウド セキュリティ リスクを生み出したのと同様に、シャドー AI の発生も増加しています。従業員は AI 世代で仕事の負担を軽減しようとしており、組織のセキュリティ体制が複雑化しており、セキュリティとガバナンスがさらに困難になっています。
まず、善意のスタッフが、AI ツールがセキュリティ ニーズを満たしているかどうかわからないまま、組織のプライベート データをサードパーティ製品と共有する可能性があります。これにより、機密データや特権データが露出したり、サードパーティ モデルに組み込まれている可能性のある独自データが漏洩したり、ベンダーがサイバー インシデントやデータ侵害を経験した場合に脆弱になる可能性のあるデータ アーティファクトが露出したりする可能性があります。
2 つ目は、セキュリティ チームが使用状況を把握していないため、リスクを評価して軽減することができないことです。IT/IS チームの承認の有無にかかわらず、サードパーティ ソフトウェアは脆弱性をもたらす可能性があります。基盤となる gen AI モデルにはトロイの木馬やバックドアなどの悪意のある機能が組み込まれている可能性があるためです。ある調査では、従業員の 41% が IT/IS チームの承認なしにテクノロジを取得、変更、または作成しており、この割合は今後 3 年間で 75% に上昇し、問題が悪化すると予測されています。
生成 AI アプリケーション用の基礎モデルと LLM をトレーニングするには、膨大なインフラストラクチャとコンピューティング リソースが必要であり、多くの場合、ほとんどの組織が予算化できる範囲を超えています。ハイパースケーラーは、ユーザーがニーズに合わせてより具体的な生成 AI アプリケーションを構築するために、事前トレーニング済みの基礎モデルを選択できるようにするプラットフォームを導入しています。これらのモデルは、大規模な汎用データセットでトレーニングされ、幅広いタスクから学習した知識と機能をキャプチャして、特定のタスクまたはタスク セットのパフォーマンスを向上させます。事前トレーニング済みモデルは、組織の少量のデータを使用して、より具体的なタスクに合わせて微調整することもできます。その結果、業界固有の要件などの明確なユース ケースに合わせて最適化された新しい専用モデルが作成されます。
オープンソース コミュニティは、事前トレーニング済みの LLM の広範なライブラリを使用して、gen AI を民主化しています。Meta の Llama や Mistral AI など、最も人気のあるものは、汎用 gen AI プラットフォーム経由でも利用できます。
プロバイダーからライセンスを購入した顧客のみが使用できる独自の LLM とは対照的に、オープンソース LLM は無料で、誰でもアクセスできます。独自のモデルよりもはるかに柔軟に使用、変更、配布できます。
透明性と相互運用性を提供するように設計されたオープンソース LLM により、組織は最小限の機械学習スキルしか持たない場合でも、独自のクラウドまたはオンプレミス インフラストラクチャ上で、独自のニーズに合わせて gen AI モデルを適応させることができます。また、少数の独自 LLM に過度に依存するリスクに対する懸念を軽減するのにも役立ちます。
オープンソース モデルの使用に伴うリスクは、幻覚、偏見、トレーニング データの説明責任の問題など、プロプライエタリ モデルと同様です。しかし、オープンソースの人気を博している特徴である開発に対するコミュニティ アプローチは、ハッカーが悪意のある目的でコア機能をより簡単に操作できるため、最大の脆弱性にもなり得ます。これらのリスクは、セキュリティ ハイジーン プラクティス、ソフトウェア サプライ チェーン、データ ガバナンス制御を採用することで軽減できます。
出典: オープンソースの大規模言語モデル: 利点、リスク、種類
プラットフォームには、セキュリティとガバナンスの機能が組み込まれているという利点があります。たとえば、インフラストラクチャのセキュリティは、クラウド インフラストラクチャ契約と同様にベンダーと共有されます。組織のデータがすでに特定のクラウド プロバイダーに保存されている場合、モデルの微調整は、構成と API 呼び出しを更新するだけで済む可能性があります。さらに、組織独自のものを補完または置き換えるために、強化されたセキュリティ製品とサービスのカタログを利用できます。
規制要件を考慮すると、ライフサイエンス企業は、セキュリティ、コンプライアンス、スケーラビリティを兼ね備えた生成 AI ソリューションを必要としています。世界のライフサイエンス業界に商用サービスを提供する大手プロバイダーである EVERSANA は、ライフサイエンス業界全体で生成 AI のユースケースを加速するために AWS を採用しています。その目的は、生成 AI の力を活用して、製薬およびライフサイエンスメーカーが効率を高め、ビジネス価値を創出しながら患者の転帰を改善できるようにすることです。
EVERSANA は、デジタルおよび AI イノベーション機能を Amazon Bedrock マネージド ジェネレーション AI サービスと組み合わせて、最善の基盤モデルを活用します。EVERSANA は、基盤モデルをカスタマイズするために使用するデータを完全に制御し、アプリケーション要件と責任ある AI ポリシーに基づいてガードレールをカスタマイズできます。最初のアプリケーションでは、AWS および TensorIoT と提携して、チームは医療、法律、規制 (MLR) コンテンツの承認に関連するプロセスを自動化することを目指しました。
ライフサイエンス企業の複雑な課題を解決するためにジェネレーション AI を活用する EVERSANA の戦略は、同社が「AI の製薬化」と呼ぶものの一部です。EVERSANA の最高経営責任者である Jim Lang 氏は、「ライフサイエンス業界で AI を製薬化することは、技術を活用して、革新と変革が切実に求められている一般的なプロセスを最適化し、加速することです」と説明しています。このアプローチにより、重要なプロセスが数か月から数週間に短縮されました。EVERSANA は、MLR 機能を自動化すると、承認までの時間が数週間から数日にさらに短縮されると予想しています。
ただし、組織が事前トレーニング済みまたは微調整済みのモデルを統合したジェネレーション AI アプリケーションを構築する場合、サードパーティの SaaS 製品を使用する場合と比較して、セキュリティの責任が大幅に増大します。組織は、このレポートのパート 1 で言及されている基盤モデルと LLM に対する固有の脅威に対処する必要があります。トレーニング データだけでなく、モデルの開発と推論に対するリスクも、組織のレーダーに正確に表示されます。ModelOps と MLSecOps (機械学習セキュリティ操作) の原則を適用することで、組織はジェネレーション AI アプリケーションを保護できます。
資金力のあるいくつかの大規模組織は、LLM と、より小規模でカスタマイズされた言語モデル (SLM) を、自社のデータのみに基づいてゼロから構築し、トレーニングしています。ハイパースケーラー ツールはトレーニング プロセスの加速に役立ち、組織はモデルのあらゆる側面を所有します。これにより、パフォーマンス上の利点と、より正確な結果を得ることができます。
このシナリオでは、事前トレーニング済みで微調整されたモデルに基づくアプリケーション向けに概説されたガバナンスとリスク管理に加えて、組織自身のデータ セキュリティ体制がさらに重要になります。組織のデータが AI モデル自体に組み込まれるようになったため、責任ある AI はリスクの露出を減らすために不可欠になります。
AI トレーニング データの主なソースである組織は、データとそのデータに基づく結果が信頼できるものであることを確認する責任があります。つまり、厳格なデータ セキュリティ プラクティスに従ってソース データを保護する必要があります。また、モデルが悪意のある行為者によって侵害されたり悪用されたりしないように保護する必要があります。アクセス制御、暗号化、脅威検出システムは、データの操作を防ぐ上で重要な要素です。AI ソリューションの信頼性は、偏りのない、正確で倫理的な応答を提供できるかどうかで測ることができます。
組織が責任ある AI を実践しない場合、ジェネレーション AI モデルから出力される誤った、さらには危険な出力によってブランドに損害が生じるリスクがあります。こうしたリスクがあるにもかかわらず、ジェネレーション AI からの誤った出力に対する潜在的な責任を懸念していると答えた経営幹部は 20% 未満です。IBM IBV の別の調査では、ジェネレーション AI 出力の整合性を検証していると答えた回答者はわずか 30% でした。2
安全で信頼できるデータが価値創造の基盤である場合(当社の調査の多くがそうであると示唆しています)、リーダーは責任ある(または無責任な)AI のセキュリティへの影響に焦点を当てる必要があります。そうすることで、AI モデルが操作される可能性のあるさまざまな方法を明らかにできます。バイアスや説明可能性の制御がなければ、そのような操作を認識することは困難です。これが、組織がガバナンス、リスク、コンプライアンスの強力な基盤を必要とする理由です。
組織のデータ セキュリティ体制の延長として、LLM を作成する際にはソフトウェア サプライ チェーンのセキュリティもより重要になります。これらのモデルは、ソフトウェア依存関係、ライブラリ、フレームワークの複数のレイヤーを含む複雑なソフトウェア スタック上に構築されます。これらの各コンポーネントは、攻撃者が AI モデルまたは基礎となるデータの整合性を侵害するために悪用できる脆弱性をもたらす可能性があります。
残念ながら、最近の IBM IBV の調査によると、多くの組織ではソフトウェア サプライ チェーンのセキュリティに関するベスト プラクティスの導入がまだ初期段階にあります。たとえば、ソフトウェア サプライ チェーンのセキュリティを確保するために DevSecOps の原則とプラクティスを導入していると回答した経営幹部はわずか 29% で、ソフトウェア サプライヤーの継続的な監視機能を実装していると回答した経営幹部はわずか 32% でした。どちらのプラクティスも、ソフトウェア サプライ チェーン全体でサイバー インシデントを防止するために不可欠です。2
AI が実験段階から実稼働段階へと移行するにつれ、セキュリティの ABC (認識、行動、文化) は、責任ある AI の実現にさらに重要になります。AI が社会の利益のために善意で設計、開発、展開されるためには、信頼が不可欠です。
多くの新興テクノロジーと同様に、十分な情報を持つ従業員やパートナーは資産となり得ます。特に、AI 世代によって可能になった新しいマルチモーダルおよびリッチ メディア ベースのフィッシング戦術を考慮すると、その価値は高まります。従業員の新たなリスクに対する認識を高めることで、積極的な行動が生まれ、やがてより強固なセキュリティ文化が生まれます。
AI ソリューションが業務にますます不可欠なものになるにつれ、新しい機能と関連するセキュリティ制御を従業員に伝えると同時に、独自のデータと個人データを保護するために実施されているポリシーを繰り返し伝えることが標準的な方法となるはずです。確立された制御は、ゼロ トラストと最小権限という中核原則によって横方向の移動を制限しながら、新しい脅威に対処するために更新する必要があります。セキュリティの結果に対するオーナーシップの意識を強調することで、事実上すべての利害関係者とパートナーを結びつける共通の取り組みとしてセキュリティを強化できます。責任ある AI とは、ポリシー以上のものです。組織の継続的な成功に不可欠な信頼を守るための取り組みなのです。
生成型 AI ソリューションの開発とセキュリティ保護には、能力、リソース、スキルが必要ですが、これらは組織に十分ではありません。断片化された IT 環境では、セキュリティの複雑さが増し、さらに多くの能力、リソース、スキルが必要になります。リーダーはすぐにジレンマに陥ります。
AI を活用したセキュリティ製品は、過重労働のスタッフを時間のかかる作業から解放し、スキルギャップを埋めることができます。これにより、スタッフは専門知識と判断力を必要とするより複雑なセキュリティ問題に集中できるようになります。AI は時間とリソースを最適化することで、効果的に能力とスキルを追加します。洞察力、生産性、規模の経済性が向上することで、組織はより予防的かつプロアクティブなセキュリティ体制を採用できます。実際、セキュリティ AI を先導的に導入している企業は、インシデントの検出時間を 3 分の 1 に短縮し、データ侵害のコストを少なくとも 18% 削減しています。急速に変化する規制環境内でのコンプライアンス管理を自動化する新しい機能も登場しています。
AI セキュリティ ツールへの移行は、サイバー セキュリティの需要の変化と一致しています。AI セキュリティ製品の市場は今後 5 年間で約 22% の CAGR で成長すると予想されており、プロバイダーは統合セキュリティ ソフトウェア ソリューションの開発に注力しています。効率性とガバナンスを向上させるために、ソリューション プロバイダーはツールセットを合理化し、データ分析を合理化しています。セキュリティに対するこのより総合的なアプローチにより、運用ライフサイクル全体の可視性が向上します。これは、53% のエグゼクティブが gen AI から得られると期待しているものです。
ビジネス パートナーは、セキュリティ スキルのギャップを埋めるのにも役立ちます。クラウドへの移行と同様に、パートナーはニーズの評価とセキュリティ成果の管理を支援できます。AI スキルの不足によって悪化している継続的なセキュリティ人材不足の中、組織はトレーニング、知識の共有、知識の移転を促進できるパートナーを求めています (76%)。また、広範なサポート、メンテナンス、顧客サービスを提供する gen AI パートナーも求めています (82%)。最後に、進化する法律および規制のコンプライアンス環境全体でガイドしてくれるパートナーを選択しています (75%)。
経営幹部は、戦略や投資の決定を支援するパートナーも求めています。約半数がどこにいくら投資するか不明であると答えているため、4 分の 3 (76%) が確実な ROI を伴う説得力のあるコスト ケースの構築を支援するパートナーを求めているのも不思議ではありません。また、半数以上が全体的な戦略とロードマップに関するガイダンスを求めています。
経営幹部は、生成型 AI セキュリティ ソリューションの提供とサポートを支援するパートナーを求めています。
調査結果によると、ほとんどの組織が、セキュリティ用のジェネレーティブ AI を有効にするためにパートナーに頼っています。回答者は、ジェネレーティブ AI セキュリティ ソリューションのわずか 9% を社内開発に依存していると回答しています。多くの回答者がジェネレーティブ AI 機能を備えたセキュリティ製品またはソリューションを購入していますが、セキュリティ ジェネレーティブ AI 機能のほぼ 3 分の 2 は、マネージド サービス、エコシステム/サプライヤー、ハイパースケーラーなどの何らかのパートナーを通じて提供されています。クラウド導入と同様に、リーダーは、ジェネレーティブ AI に関する情報提供やアドバイス、または配信およびサポート機能の強化など、包括的なサポートをパートナーに求めています。
セキュリティ生成 AI 機能の 90% 以上は、サードパーティ製品またはパートナーから提供されています。
生成 AI の実験を始めたばかりでも、独自にモデルを構築している場合でも、その中間でも、次のガイダンスは組織が AI パイプラインを保護するのに役立ちます。これらの推奨事項は、セキュリティ、テクノロジー、ビジネスの各ドメインにわたる取り組みを促進する、部門横断的なものであることを目的としています。
1IBM Institute for Business Value が世界中のさまざまな業界の経営幹部 2,500 人を対象に AI 導入について調査。2024 年。未発表データ。
2IBM Institute for Business Value がサプライヤー管理、サプライヤー調達、エコシステム パートナー関係を担当する世界中の経営幹部 2,000 人を対象に実施した調査。2023 年。未発表データ。
2024年5月6日に初版発行
生成 AI をサイバーセキュリティに適用するために CEO が知っておくべき 3 つのことと、今すぐ実行する必要がある 3 つのことについて説明します。
データ セキュリティは、競争上の優位性を高めるための陰の立役者になり得ます。信頼できるデータの提供がどのようにイノベーションを刺激するかを学びます。
セキュリティリーダーは、サイバーセキュリティに AI を活用して、セキュリティ運用全体の可視性と生産性を向上させています。
防衛リーダーは、防衛と国家安全保障における AI の現状と、意思決定の優位性のためにこのテクノロジーをどのように適用するかを理解する必要があります。
ジェネレーティブ AI をデジタル製品エンジニアリングに適用するために CEO が知っておくべき 3 つのことと、今すぐ実行する必要がある 3 つのことについて説明します。
生成 AI を財務に適用するために CEO が知っておくべき 3 つのことと、今すぐ実行する必要がある 3 つのことについて説明します。
IBM プライバシー ステートメントをご覧ください。この登録解除フォーム、または IdeaWatch ニュースレターのフッターから、いつでもこれらの通信をオプトアウトできます。

元記事: https://www.ibm.com/thought-leadership/institute-business-value/report/securing-generative-ai