テクノロジー企業は、製品やサービスに人工知能を統合することで、機能が強化されたカスタマイズされたソリューションを構築できます。ただし、チームが責任ある開発手法に従わない場合は、偏見やユーザーのプライバシーに関する懸念など、AI には重大な欠点が伴う可能性があります。
テクノロジー企業にとって、AI システムを構築または活用する際には、ユーザーの幸福と倫理的配慮を優先することが重要です。以下では、Forbes Technology Council の 20 人のメンバーが、ユーザーのプライバシーと価値観を尊重しながら、ユーザーを支援する AI ソリューションを作成するための戦略を共有します。
AI を活用した製品やサービスが急速に進化する中で、最も重要な実用的な戦略の 1 つは、「責任ある AI」フレームワークの採用です。このアプローチでは、最初からユーザーの幸福と倫理的配慮を優先し、これらの重要な側面が後付けではなく、設計および開発プロセスの基礎要素となることを保証します。 – Josh Scriven、Neudesic
大規模言語モデルは非常に有能で、今では AI とほぼ同義になっていますが、膨大な量のデータでトレーニングされているため、その動作は予測しにくくなっています。対象となる製品やサービスによっては、より予測可能な動作を持つ、はるかに小さなデータセットでトレーニングされた専用モデルを使用する方が理にかなっている場合があります。 – Avi Shua、Orca Security
Forbes Technology Council は、世界クラスの CIO、CTO、テクノロジー エグゼクティブ向けの招待制コミュニティです。私は参加資格がありますか?
アプリケーション セキュリティは現在、AI、特に生成型 AI の急速な台頭と正面衝突する方向に進んでいます。ChatGPT などの LLM と連携することで、開発者が AI コード生成ツールを安全に活用し、自分で生成したコードを精査できるようにしています。このプロアクティブなアプローチは、特にオープンソース マテリアルから取得したコードの潜在的な脆弱性を特定するのに役立ちます。 – Sandeep Johri、Checkmarx
重要な考え方がいくつかあります。まず、ユーザー中心の設計原則と倫理的配慮を、後からではなく開発プロセスの最初から統合します。次に、製品開発では、説明可能な AI (別名 XAI) 技術を使用して、AI システムが決定に至る仕組みをユーザーに基本的に理解してもらいます。これにより信頼が構築され、ユーザーが AI の背後にある理由を理解するのに役立ちます。 – Erum Manzoor、Citigroup
汎用的な AI は存在せず、自己監督は機械に任せて管理させるレベルに達していません。人間は AI システムの決定をすべて確認し、データを使用してモデルを繰り返し改善する必要があります。その際、ユーザーの幸福と倫理的配慮を念頭に置いてください。さらに一歩進むと、AI が有害な偏見を示す可能性のある場所を特定し、そのプロセスに人間を関与させるメカニズムを構築できます。 – Kaarel Kotkas、Veriff
透明性と説明可能性は、AI を活用したあらゆるソリューションの製品設計の中核になければなりません。透明性は関係者間の信頼を築き、説明可能性は AI の推奨やアクションの背後にある理由の理解を向上させます。透明性のあるシステムは、バイアスの検出と軽減に優れており、業界で求められるコンプライアンス監査を簡単にサポートできます。 – Shailaja Shankar、シスコ
AI を活用した製品を構築する際には、プライバシーと透明性への確固たる取り組みが不可欠です。ユーザー データの取り扱い、フィードバックの収集、生成モデルのトレーニングに関する明確なプロセス、および AI の動作の透明性のある開示は、ユーザーとの信頼関係を築くために不可欠です。そして、その信頼は、製品やサービスの採用を促進するために不可欠です。 – Oz Alon、HoneyBook
AI 製品とサービスを設計および実装する際には、5 つの主要な倫理的要素を考慮する必要があります。これには、偏りのないデータセットの責任ある調達、人間による監視による説明責任、AI モデルにおける偏りの緩和、システムの使用方法に関する透明性、製品ライフサイクル中およびそれ以降のこれらすべての原則の集合的な統合が含まれます。 – Alan O'Herlihy、Everseen
設計段階から販売後および/または顧客成功段階まで、責任ある AI 開発を運用します。この方法では、ほとんどのリスクを通常の製品開発プロセスの一部として軽減でき、発売後に問題が発生した場合でも、エスカレーションの管理が容易になります。 – ディデム・ウン・アテス、ゴールドマン・サックス
こうした議論を開発者に任せてはいけません。倫理的な AI はリーダーシップの責任です。私のアドバイスは、ユーザーの幸福と倫理的な問題を管理する管理機関を設立することです。開発者が適用できる意思決定フレームワークを開発する必要があります。 – Glen Robinson、Platform One
AI 製品を構築するときは、ユーザーの幸福と倫理をデザイン スプリントに組み込みます。コア機能と並行して、潜在的なリスクと軽減戦略についてブレインストーミングします。ユーザーと社会の両方に利益をもたらすソリューションを優先します。定期的なレビューとユーザーからのフィードバック ループは、開発全体を通じて倫理基準を維持するのに役立ちます。 – Sergey Mashchenko、Light IT Global Limited
この AI ツールは、本当にユーザーの課題、問題、または要件を解決しますか? ユーザーにサービスを提供する際、AI のアプローチは冷たく、いくぶん臨床的であるように感じられることがあります。ユーザーに満足のいく結果をもたらすユースケースへの明確な道筋はありますか? できるだけ多くのユーザー ストーリーを検討し、考慮してください。 – Arran Stewart、Job.com
Integrail.ai では、ほぼすべての新しい AI モデルやモデルの変更をテストしてベンチマークしていますが、テストが絶対に重要であることがわかりました。「システムを破壊」しようとする人々の事前定義されたケースをいくつか用意し、AI マルチエージェントに変更を加えるたびにそれらを実行する必要があります。 – Anton Antich、Integrail
重要な AI 戦略は、堅牢なユーザー フィードバック ループを実装することです。設計および開発プロセス全体にユーザー フィードバックを取り入れることで、技術チームは AI 搭載製品がユーザーの価値観と一致し、ユーザーの幸福を優先していることを確認できます。さらに、倫理学者や社会科学者を含む学際的なチームを設立することで、組織が潜在的な倫理的考慮事項を早期に特定して対処するのに役立ちます。 – Ankur Pal、Aplazo
技術チームは明確な基準を確立し、自社製品を動かす AI モデルの継続的な監視に取り組む必要があります。チーム内のピアレビューや、変更管理委員会などの部門間のチェックとバランスを優先する必要があります。さらに、定期的にリリースノートを提供して、進化する機能や変更を社内外の受信者に伝える必要があります。 – Kempton Presley、AdhereHealth
AI 設計においてユーザーの幸福を優先するには、データの匿名化技術を実装することが不可欠です。仮名化や匿名化などの方法で個人識別子を削除することで、プライバシーが保護され、データ保護法への準拠が確保され、信頼が築かれます。これらの方法を定期的に更新することは、技術の進歩に継続的に適応するために不可欠です。 – Hashim Hayat、Walturn
AI ツールを設計する際に、ユーザーの幸福と倫理的配慮を優先する実用的な方法は 3 つあります。1. 報酬トレーニング モデルにフィードバックを提供する多様な人間のチームを優先します。2. AI が答えるべきではない質問と答えるべき質問の境界を明確にし、AI が確信を持てない場合はデフォルトで人間にエスカレーションします。3. ユーザーがツールの出力に対してフィードバックを提供できるように、継続的なフィードバック ループを構築します。- Pranav Kashyap、Central
AI には「FIRST」フレームワークの使用をお勧めします。これには、ユーザーの問題に対するフィードバック (F) メカニズム、多様なデータを含む倫理トレーニングの整合性 (I)、定期的な (R) 倫理レビュー、最初からの利害関係者 (S) の参加、データの使用とコンプライアンスに関する透明性 (T) が含まれます。 – Viplav Valluri、Nuronics Corp.
AI ツールの結果のログを保持し、定期的にレビューします。「成功への道の途中で失敗する」という格言に従い、AI ツールの結果を事後検証することで、修正や再調整が必要な領域が明らかになります。これらのレビューをチームで実施するとさらに効果的で、「正しく行う」ことの重要性が強調されます。 – Henri Isenberg、ReviewInc
データの保存方法と収集方法については、ユーザーに透明性と選択肢を与えてください。これには、特定の機能やデータ共有要件をオプトアウトする機能も含まれる必要があります。 – JJ Tang、Rootly