- AI駆動の採用ツールは、白人男性に関連する名前の履歴書を85%選択し、女性に関連する名前のものはわずか11%しか選ばれないことが分かった。
- 一方、黒人男性に関連する名前の履歴書は、ほぼ100%のケースで他のグループを優先している。
- 大規模言語モデル(LLM)ベースのツールは、履歴書を選別し、求人情報に最も関連性のあるものを特定するために使用されている。
- 研究者たちは、Salesforce、Contextual AI、MistralからのオープンソースのMassive Text Embedding(MTE)モデルを使用して、300万の実世界の履歴書と職務内容の組み合わせをテストした。
- これらのモデルは、女性がより多く採用されているHRなどの分野でも、白人男性に関連する名前を圧倒的に好む傾向がある。
- AI採用における差別を減らすには、トレーニングデータが多様な経験やアイデンティティを反映するようにすることが重要である。
- ニューヨーク市はAI支援採用に関する開示を義務付け、最近カリフォルニアは交差的アイデンティティを保護対象と認識している。
AIによる採用ツールが白人男性に関連する名前を圧倒的に好む傾向があることが明らかになった。これには社会構造に根ざしたバイアスが影響していると指摘されている。AI採用における差別を減らすためには、より包括的なデータ設計アプローチが必要であり、トレーニングデータが多様性を反映するようにすることが重要である。