- イギリスの組織が使用している人工知能ツールには、プライバシーのリスクがあり、バイアスと精度の問題に対応している可能性がある。
- イギリス情報委員会による監査で、AIツールが採用の目的で使用され、候補者の関心を予測したり、求職者の能力を評価したり、録画されたビデオ面接の候補者の言語やトーンを分析することが明らかになった。
- AIソリューションの主な焦点は機械学習と自然言語処理であり、採用の目的で使用されるモデルには「人々とそのプライバシーに固有のリスク」がある。
- 個人の同意がないまま、ソーシャルメディアや求人ネットワーキングサイトから収集された広範囲の個人情報が処理され、GDPRに違反する可能性がある。
- AI開発者は擬似化された個人情報を使用し、トレーニングやテストのためのデータセットを最小限に抑えることを推奨している。
報告書は求職者のプライバシー権利を保護するための前進だが、AIベースの採用を監督するための部門固有の規制機関が欠如していることは懸念される。政府は緊急に対処する必要がある。また、AIの透明性と説明責任を強化する措置が必要であり、バイアスやプライバシーのリスクに対処するためにアルゴリズムの影響評価を導入すべきだと述べられている。
私の考え:この記事は、イギリスでのAI採用ツールの使用に関する重要なプライバシーとバイアスの問題を示しています。特に、個人情報の取り扱いやデータの最小化などが重要であることが強調されています。AIの透明性と説明責任の強化が必要であり、政府や関連機関が迅速に対策を講じる必要があると感じます。
元記事: https://www.govinfosecurity.com/ai-recruitment-tools-prone-to-bias-privacy-issues-a-26774