- 国際女性デーの機会に、Telefónica TechがWomenWithTechイベントを開催
- AIには性差があるのかという疑問が提起され、Unescoの報告書が性差に関するバイアスを警告
- Unescoの報告書は、3つの大規模言語モデルで性差や文化的バイアスを分析
- Generative AIの振る舞いをテストし、男性中心の結果が出ることを確認
- AIは作成者やデータ提供者の価値観やバイアスを反映しており、公平性を保証するための研究と介入が必要
- アルゴリズムの問題を評価し、データクリーニング、事前トレーニング、微調整、後処理などの対策を提案
- 技術的観点から、入力データの多様性、アルゴリズムの透明性と責任、性別意識の重要性が強調される
- AIの使用においてもジェンダー視点での教育と啓発が重要であり、女性と少女をこの分野でエンパワーする取り組みが求められる
AIの発展に伴う性差や社会的バイアスへの対処が重要であり、公平性を確保するための研究や介入が必要です。特に、AIの技術的側面だけでなく、その使用方法にも注意を払う必要があります。ジェンダー視点からの教育と啓発が重要であり、女性と少女をこの分野でエンパワーする取り組みが進められることが望ましいです。
元記事: https://www.telefonica.com/en/communication-room/blog/ai-gender-bias/