• 最近の研究によると、ソフトウェアエンジニアリングの求人の模擬面接では、最近のAIモデルは男性を不利に評価し、特に英語系の名前を持つ男性を低く評価している。
  • スウェーデンのストックホルムの王立工科大学(KTH)で学部論文プロジェクトとして実施されたこの研究の目的は、現行のLLMが性別データや文化的推論を可能にする名前を提示された際に偏見を示すかどうかを調査することだった。
  • 研究では、Googleのジェミニ-1.5-flash、Mistral AIのオープンミストラルネモ-2407、OpenAIのGPT4o-miniを使用し、24の面接質問に対する回答を評価しました。
  • 結果は、男性名が一般的に差別され、特に英語系の名前に偏見があることを統計的に有意で示していた。
  • 研究では、名前や性別をマスクし、求人コンテキストでの不要な推論に使用される可能性のある情報へのモデルのアクセスを拒否することを主張しています。

この記事は、AIモデルが名前や性別に基づく偏見を持っている可能性があることを示しています。AIの公平な評価を実現するためには、モデルの設定やプロンプトだけでなく、より緻密なアプローチが必要とされています。

元記事: https://www.theregister.com/2024/11/21/ai_hiring_test_bias/