- 大規模言語モデルは、人種や性別によるバイアスを示す可能性がある
- ワシントン大学の研究者が、大規模テキスト埋め込みモデル(MTE)を使用して、履歴書と求人要項の評価を行った
- 研究では、白人の名前が選好される割合が高く、男性の名前も優先される傾向があることが明らかになった
- これらの傾向は、実際の職業パターンとは関係なく、モデルが「男性的かつ白人の概念」をデフォルト値として扱うことに起因している可能性がある
- AIツールを使用する際のバイアスの問題に対処するために、厳格なテストやガードレールが重要である
この研究は、大規模言語モデルが人種や性別に基づくバイアスを持つ可能性を示唆しています。特に、白人や男性の名前が優先される傾向が強く見られました。モデルが「男性的かつ白人の概念」をデフォルト値として扱うことが、これらのバイアスの原因である可能性があります。AIツールを使用する際は、バイアスや有害な出力を防ぐための厳格なテストやガードレールが重要であることが示唆されています。