信頼は繊細なものだと言われています。信頼を築くには長い時間がかかります。信頼は失いやすく、取り戻すのは困難です。信頼は一貫性のある倫理的な行動の上に成り立ちます。したがって、AI モデルを作成するときは意図的に行う必要があります。信頼性がモデルに組み込まれていることを確認することが重要です。AI ライフサイクルを進める際には、信頼を高めるための行動をとる必要があります。このブログ シリーズでは、モデルの作成は AI ライフサイクルの 5 つの重要なステップのうち 3 番目のステップです。質問、データの管理、モデルの開発、洞察の展開、意思決定というこれらのステップは、思慮深い検討によって倫理的および社会的期待に沿った AI エコシステムへの道が開かれる段階を表しています。AI モデルに信頼性を組み込むには、モデルの構築方法とモデルの使用方法について一連の質問をする必要があります。次のような質問です。1. 機密変数を使用していますか? 使用している場合、使用する必要がありますか? 信頼できる AI モデルの構築は、適切なデータを活用することにかかっています。企業は日常業務で膨大な量のデータを収集していますが、入手可能であるという理由だけですべてのデータを使用するべきではありません。たとえば、検討しているデータに機密情報や個人情報(健康状態、個人を特定できる情報(PII)など)は含まれていますか?人口統計情報や社会経済情報(人種、宗教など)は含まれていますか?このような機密データを含めるかどうかは慎重に検討する必要があります。入手可能な場合でも、モデルに含めるべきではありません。この種の情報の使用は、規制や法律で禁止されている場合もあります。このような潜在的な地雷を回避するには、データを分析して機密情報または個人情報かどうかを判断します。この種の情報を AI システムの基盤として使用すると、過去の偏見が将来にまで不注意に引き継がれる可能性があります。機密データを集約、匿名化、またはその他の方法でマスキングすることで、同様のモデル結果が得られる可能性があります。2. トレーニング データ内の不公平な表現がモデルの予測に影響を与えていませんか?代表的でないトレーニング データは、モデルの予測を歪める可能性があります。特定の地域の住民への融資が拒否された過去のデータでトレーニングされた融資承認モデルを想像してください。このデータは社会的な偏見を反映したものであり、信用度を反映したものではありません。モデルは、その地域の将来の申請者に対して、たとえ信用度が高くても、不当に融資を拒否する可能性があります。これはほんの一例です。顔認識ソフトウェアや履歴書のスクリーニング アルゴリズムなどの分野では、人種、性別、年齢などの要因に基づいて同様の偏見が入り込む可能性があります。これらの偏見は、現実世界で深刻な結果をもたらし、機会を制限したり、特定のグループを不当にターゲットにしたりする可能性があります。モデルの予測可能性の偏りをさらに防ぐには、モデル構築の過程でチェックポイントを設けて、データのこれらのギャップを特定するための措置を講じる必要があります。3. 異なるグループ間でのパフォーマンスを比較し、差異を特定するにはどうすればよいでしょうか。信頼できる AI システムを構築するには、異なるグループ間での公平性が求められます。あるグループに対して別のグループに対して不当に偏ったモデルは、広く信頼されません。モデル構築の段階で、次の統計のいくつかを使用して公平性を確認します。• 人口統計の均等性: 人口統計変数の敏感な各グループは、同じ割合で同じ肯定的な結果を受け取る必要があります。これは、データに影響を与える過去のバイアスをバランスさせるのに役立ちます。• オッズ均等化: さまざまな敏感なグループの真陽性率と偽陽性率の両方を一致させます。グループ間でそれらが同様であることを確認する必要があります。• 機会均等: さまざまな敏感なグループの真陽性率を一致させます。これは、グループのメンバーであるかどうかに関係なく、機会の資格を得るべき人々が同等に機会を得る可能性があるかどうかを測定します。不均衡を特定しないと、過去から未来にかけてバイアスをうっかり永続させてしまう可能性があります。あるカテゴリのバイアスによって、他のカテゴリのバイアスも永続化される場合があります。良い住宅を手に入れた人は良い学校に通えます。そして、このサイクルが続きます。私たちは、最も脆弱な集団に対するリスクと被害を最小限に抑えたいと考えています。そこから始めれば、他のすべてのグループが保護される傾向があります。SAS Studio の Fair AI Tools アクション セットからのバイアス メトリック4。特定されたバイアスに緩和手法を適用しましたか?バイアスは、AI ライフサイクルのどの段階でも発生する可能性があります。それは、トレーニング データまたはトレーニング済みモデルの一部である可能性があります。バイアスを軽減することは重要です。なぜなら、バイアスは特定のグループに対する不公平な予測につながり、過去から未来までバイアスが継続することが多いためです。考慮すべきバイアス軽減手法には 3 つの種類があり、プロセスのどこで展開されるかに基づいて分類されます。• 前処理: トレーニング データに適用されます。モデルをトレーニングする前に、データ内のバイアスを特定して軽減します。バイアスの少ないデータによって、バイアスの少ないモデルが生成されることを目的としています。異常検出、代入、フィルタリング、変換などの手法は、ほんの一例です。• インプロセス: トレーニング中にモデルに適用されます。バイアスの少ないモデルによって、バイアスの少ない予測出力が生成されることを目的としています。モデルのトレーニング プロセス中に、公平性の制約を考慮し、モデル パラメータを調整します。• 後処理: 予測出力に適用されます。モデル内のバイアスを補正するために、モデル出力を調整します。バイアスを放置すると、モデルにバイアスが入り込み、公平性に影響を与え、教育機会、キャリア、住宅、医療、信用へのアクセスなどに差が生じる可能性があります。5.モデルを説明するためにどのような手順を踏んでいますか? AI システムの精度と解釈可能性は、一般的にトレードオフの関係にあります。単純なものとしては、ルールベースのモデルがあります。たとえば、10(x) + 100(y) + 200 = モデル出力です。これらのモデルを使用すると、モデル出力までのすべてのデータ入力を追跡できます。これらは、モデルが「動作を示す」のが容易であり、透明性のあるモデルと見なされます。連続体に沿って他のモデル タイプ (決定木、ロジスティック回帰など) に進むと、モデルの透明性は継続しますが、説明が難しくなる傾向があります。
モデルの種類が高度化するにつれて、モデルを迅速かつ正確に解釈する能力が低下する可能性があります。最終的には、すべてのデータ入力をモデル出力まで追跡できなくなる可能性があります。透明なモデルではなく、不透明なモデルになります。ニューラル ネットワークは、モデルの入力と出力に加えて非表示のレイヤーがある不透明なモデルの典型的な例です。ただし、不透明なモデルであっても、結果を説明する責任が免除されるわけではありません。ここで、AI システムの解釈可能性が重要になります。不透明なモデルを詳しく調べて、データ入力とモデル出力の意味と関係を発見し、モデルがどのように結論に達したかを判断できる手法があります。PD プロット、ICE、LIME、HyperSHAP などの手法は、モデルを解釈してこれらの関係を検出するのに役立ちます。では、なぜモデルの解釈可能性が重要なのでしょうか。モデルを人間の言葉で説明できる必要があるからです。たとえば、次のようなことが考えられます。• ローン申請を拒否する理由が、特定のグループの人々を保護する法律に違反していないことを確認することが法的に義務付けられている場合があります。• 経営幹部は、不透明な AI モデルに基づいて下した決定を正当化する必要があります。• これは、データ サイエンティストがトレーニング データとモデル開発におけるバイアスを検出するのに役立ちます。モデル開発は、モデルの開発だけにとどまりません。信頼できる AI モデルは自然に生まれるものではありません。組織は、潜在的なバイアスを特定して軽減し、決定が下された方法と理由を説明する意図的な措置を講じることで、データ主導の意思決定システムの信頼性を確保できます。Steve Mellgren は、SAS のデータ倫理プラクティスのシニア ソリューション アーキテクトです。
05/13 – Oracle Code Assist は、開発者に AI を使用したより迅速なアプリケーション構築を提供します
10/05 – Red Hat が OpenShift AI、RHEL AI、Lightspeed 統合による自動化を提供
10/05 – Dynatrace が Kubernetes セキュリティ向けの可観測性ベースのソリューションを発表
08/05 – Dell Technologies は、サイバー攻撃に対するマルチクラウド データ保護と AI ツールを提供します
07/05 – 開発者向けの Amazon Q 生成 AI ツールが利用可能になりました
06/05 – Teradata は Apache Iceberg と Delta Lake によるオープンソースを採用
06/05 – 全国ソフトウェアエンジニアリングシンポジウム
03/05 – CrowdStrike と AWS がクラウド セキュリティと AI で提携
02/05 – テキストから価値へ: テキスト分析と生成 AI の組み合わせ
02/05 – Immuta AI のセキュリティとガバナンスに関する調査は楽観的であることを示しています
2024 年 5 月 16 日 ナイジェル ターナーによる実践的でインタラクティブなワークショップ データドリブンになることは、新しいテクノロジーやツールを購入するだけでは実現できません。それには、文化の変化、再設計を伴う、既存のビジネス モデルの変革が必要です。
2024 年 5 月 29 ~ 31 日 ビジネス プロセスの認識、説明、設計について、国際的に著名な講演者アレック シャープ氏による実践的な 3 日間のワークショップ。このワークショップは、実践的な例と明確で再利用可能なガイドラインによってサポートされています…
2024 年 6 月 3 日から 5 日まで、ビジネスの観点からエンティティ リレーションシップを使用したモデリングについて、国際的に著名な講演者アレック シャープとの実践的なワークショップが開催されます。このワークショップは、実践的な例と明確で再利用可能なガイドラインによってサポートされています…
2024 年 6 月 10 ~ 12 日 実践的なワークショップ Chris Bradley によるデータ管理の基礎 – CDMP 試験はオプション DAMA DMBoK2 では、データ ガバナンスを中心としたデータ管理の 11 分野について説明しています。認定されたデータ管理…
2024 年 10 月 15 日 ChatGPT を使用した AI 主導のビジネス分析について、BPM スペシャリストの Christian Gijsels とのワークショップ。人工知能は間違いなくこれまでで最も画期的なテクノロジーの 1 つであり、さまざまな機能を備えたアナリストに新たな扉を開きます。
2024 年 11 月 28 日BPM スペシャリストの Christian Gijsels による、Sparx Systems の Enterprise Architect バージョン 16 の最新リリースを使用したビジネス分析、モデリング、シミュレーションに関するワークショップ。最も重要な基本機能を学ぶ集中コース…
元記事: https://release.nl/2800971/five-key-questions-to-ask-when-developing-trustworthy-ai-models.html