- オーストラリア政府がAIのリスクを最小化し、技術への信頼を築くために10の義務的なガードレールを提案
- 公開コンサルテーションによって、AIを使用する高リスク設定に適用される可能性
- 組織はAIを安全かつ責任を持って使用するための明確な期待を設定し、リスクと害から保護
- 高リスクAIシステムには、テスト、評価、監視が必要
- 人間の監督が必要であり、ユーザーにAIの使用方法を明確に伝える
- AIによって影響を受けた人々は使用や結果に異議を唱える権利を持つ
- 組織は透明性を保ち、AIの供給チェーンに関連する情報を提供
- AIシステムに関する記録を維持し、公的機関に提供する必要がある
- AIを安全に使用するための新しい責任あるAI安全基準も提案
提案されたガードレールはAIのリスクを最小限に抑え、公共の信頼を構築するための重要な手段となります。オーストラリア政府は、AIの使用を監督し、責任を持つために必要な措置を提案しており、これにより将来のAI技術の発展と社会への影響を考慮しています。
元記事: https://www.techrepublic.com/article/australia-proposes-mandatory-guardrials-ai/