ベストセラー作家であり、ビジネスで有名な AI 専門家であるバーナード氏が、機械学習テクノロジーがどのようにビジネスを変革しているかを示します。この本では個々の企業の概要を示し、具体的な問題を説明し、AI がどのように解決を促進するかを説明します。各ケーススタディは、技術的な詳細や重要な学習の概要を含む包括的な洞察を提供します。マーの本は、21 世紀の経済におけるテクノロジーの変革力についての洞察力に富んだ有益な考察です。
バーナード・マーは、ビジネスとテクノロジーの分野で世界的に有名な未来学者、インフルエンサー、思想的リーダーであり、テクノロジーを人類の利益のために活用することに情熱を注いでいます。20 冊以上のベストセラー著書を執筆し、Forbes 誌に定期的にコラムを執筆し、世界的に有名な組織の多くにアドバイスや指導を行っています。ソーシャル メディア チャンネルとニュースレターを合わせて 400 万人のフォロワーを抱え、LinkedIn では世界トップ 5 のビジネス インフルエンサーの 1 人に選ばれています。
バーナードの最新の著書は、『Future Skills』、『The Future Internet』、『Business Trends in Practice』、『Generative AI in Practice』です。
バーナード・マーは、人類の利益のためにテクノロジーを活用することに情熱を持った、世界的に有名な未来学者、インフルエンサー、そしてビジネスとテクノロジーの思想的リーダーです。彼は 20 冊の本のベストセラー著者であり、フォーブスに定期的にコラムを執筆し、世界で最も著名な組織の多くにコンサルティングと指導を行っています。彼は 200 万人を超えるソーシャル メディアのフォロワー、100 万人のニュースレター購読者を持ち、LinkedIn によって世界のビジネス インフルエンサー トップ 5 の 1 人に選ばれ、Xing によってトップ マインド 2021 に選ばれました。
Bernard の最新の著書は、「ビジネスにおける人工知能: 成功した 50 社の革新的なアプリケーション」です。
AI は、組織の構造や顧客の日常生活にますます深く浸透するにつれて、ビジネスの世界を急速に変革しています。
しかし、この変革のスピードはリスクを生み出し、組織は責任を持って損害のリスクを最小限に抑える方法で AI を導入するという課題に取り組んでいます。
責任ある AI の基盤の 1 つは透明性です。AI システム (アルゴリズム自体とデータ ソースを含む) は理解可能でなければならず、それによって意思決定がどのように行われるかを理解し、それが公正かつ公平で倫理的な方法で行われることを保証できます。
現在、AI を活用する多くの企業が、これを確実に実現するための措置を講じています。しかし、AI の活用が憂慮すべきほど不透明になっているケースもあります。
ここでは、透明性のある AI の利点と、不明瞭または説明できないアルゴリズムの危険性を示す、良い例と悪い例の両方を含む実際の例を見ていきます。
Adobe は、Firefly 生成 AI ツールセットをリリースした際に、他の生成 AI ツール (OpenAI の Dall-E など) とは異なり、モデルのトレーニングに使用したデータについてオープンかつ透明性があることをユーザーに保証しました。Adobe は、使用したすべての画像に関する情報を公開し、これらの画像のすべての権利を Adobe が所有していること、または画像がパブリック ドメインにあることを保証しました。つまり、ユーザーは、ツールが著作権を侵害する方法でトレーニングされていないことを信頼できるかどうかについて、情報に基づいた選択を行うことができます。
Salesforce は、信頼できる AI を開発するための 5 つのガイドラインの 1 つである「正確性」の重要な要素として透明性を取り入れています。つまり、AI が完全に正しいかどうか確信が持てない回答をしたときに、それを明確にするための措置を講じるということです。これには、ソースを引用したり、ツールのユーザーが間違いがないか再確認したほうがよい領域を強調表示したりすることが含まれます。
Microsoft の Azure Machine Learning 向け Python SDK には、モデルの説明可能性と呼ばれる機能が含まれており、最近のバージョンではデフォルトで「true」に設定されています。これにより、開発者は解釈可能性に関する洞察を得ることができ、決定を理解して、公正かつ倫理的に決定が下されることを保証できます。
Cognizant は、AI 監視を一元化するための卓越センターを設立し、組織全体で透明性に関するベスト プラクティスを採用することを推奨しています。AI の説明責任と説明可能性を確保するためにどのような手順が踏まれているかを理解することは、これらのプラクティスをすべての AI プロジェクトで責任を持って反復できることを意味します。
ChatGPT と画像生成モデル Dall-E の開発者である OpenAI は、モデルのトレーニングにどのデータが使用されているかに関して透明性を欠いていると非難されています。このため、アーティストや作家が自分の作品が無断で使用されたとして訴訟を起こしています。しかし、著作権者が OpenAI のツールを利用して作成された作品が知的財産権を侵害しているとうまく主張できれば、OpenAI のユーザーは将来的に訴訟に直面する可能性があると考える人もいます。この例は、トレーニング データに関する不透明性が AI サービス プロバイダーとその顧客の間の信頼関係の崩壊につながる可能性があることを実証しています。
Google の Imagen や Midjourney などの他の画像生成ツールは、専門家を白人男性として過度に描写したり、米国建国の父やドイツのナチス兵士を有色人種として描写するなど、歴史的に不正確な描写をしているとして批判されている。AI の意思決定における透明性の欠如は、開発者がこれらの問題を簡単に特定して修正することを妨げている。
銀行や保険業界では、リスク評価や不正行為の検出に AI がますます利用されるようになっています。これらのシステムが透明でなければ、顧客が融資を拒否されたり、取引がブロックされたり、さらには、なぜ自分が標的にされたのか、あるいは疑われているのかを理解できないまま刑事捜査を受けることさえあり得ます。
さらに心配なのは、医療で使用されるシステムとデータの透明性の欠如がもたらす危険性です。医療画像でがんの兆候を見つけるなどの日常的なタスクに AI がますます使用されるようになると、偏ったデータは危険なミスや患者の転帰の悪化につながる可能性があります。透明性を確保するための対策が講じられていないため、偏ったデータが特定され、AI ツールのトレーニングに使用されるシステムから削除される可能性は低くなります。
AI が透明に導入されることは、顧客との信頼関係を築く上で不可欠です。顧客は、データを使ってどのような決定が、どのように、なぜ下されているのかを知りたいと考えており、何をしているのか説明を拒否する「ブラック ボックス」マシンに対しては、本質的に不信感を抱いています。
さらに、使用されるすべてのデータが徹底的に監査され、クリーンアップされることを保証することで、偏ったデータによって引き起こされる可能性のある問題を特定して排除することができます。
最後になりますが、AI に関する規制は増加しています。近々施行される EU AI 法などの法律では、重要なユースケースにおける AI システムは透明性と説明可能性を備えていなければならないと明確に規定されています。つまり、不透明なブラックボックス AI を使用している企業は、多額の罰金を科せられる可能性があるということです。
AI システムに透明性と説明責任を組み込むことは、倫理的で責任ある AI を開発する上で重要な要素であるとますます認識されるようになっています。今日の高度な AI モデルは非常に複雑なため、これは必ずしも簡単なことではありませんが、AI が前向きな変化と価値を生み出す可能性を実現するには、克服しなければならない課題です。
テクノロジーは猛烈な勢いで進化しており、10年後の世界はおそらく今日とは大きく異なるものになっているでしょう。[…]
生成 AI という用語は、写真やビデオから詩、さらにはコンピューター コードまで、人間のようなコンテンツを作成できる AI の比較的新しい分野を指します。[…]
AI がリアルなテキストや画像を生成する能力があることはよく知られていますが、リアルなサウンドも生成できます。[…]
AI は世界をさまざまな形で変える大きな変革をもたらす技術だと私は固く信じていますが、このテーマについては多くの誇大宣伝や誇大宣伝があることも明らかです。[…]
ジェネレーティブ AI は、ビデオ ゲーム開発者に、魅力的なコンテンツ、リアルなビジュアル、没入感のあるゲームプレイ体験を作成するための刺激的な新しい方法を提供します。[…]
ジェネレーティブ AI は、ビデオ ゲーム開発者に、魅力的なコンテンツ、リアルなビジュアル、没入感のあるゲームプレイ体験を作成するための刺激的な新しい方法を提供します。[…]
バーナード・マーは、ビジネスとテクノロジーの分野で世界的に有名な未来学者、影響力のある人物、思想的リーダーであり、テクノロジーを人類の利益のために活用することに情熱を注いでいます。
彼は 20 冊以上のベストセラー本を執筆しており、Forbes 誌に定期的にコラムを執筆し、世界で最も有名な組織の多くにアドバイスや指導を行っています。
彼はソーシャル メディア チャンネルとニュースレターを合わせて 400 万人のフォロワーを抱えており、LinkedIn によって世界トップ 5 のビジネス インフルエンサーの 1 人にランクされています。
バーナードの最新著書は『Generative AI in Practice』です。
123 Internet による Web、SEO、ソーシャル メディア

元記事: https://bernardmarr.com/building-trust-in-ai-the-case-for-transparency/