• シンガポールに拠点を置く政府機関がResaroの保証サービスを利用し、LLMベースの推薦文生成ツールが性別や人種に偏りがなく、機関の要件に適合していることを確認
  • ツールはLLMを使用して、教師が学生のために個別化された推薦文を効率的かつ効果的に作成するのを支援
  • テストツールは、生成される推薦文の品質の違いを定量化する手法を開発し、性別や人種による偏りを特定
  • アプローチの問題点として、生成された推薦文の一部に幻覚があり、モデルが地域の文脈を理解する際の制限があることが指摘された
  • 透明性と説明可能性を重視することで、教育者や学生の信頼を育み、ツールの採用を促進
  • 将来のツールバージョンは、基盤となるフレームワークと比較され、リリース前に十分にチェックされたことを保証
  • 性別や人種に基づく偏りを評価するために、感情分析やフォーマリティ分析を実施
  • ResaroのLLMバイアス監査は、AI規制、業界基準、およびビジネスユースケースに準拠していることを保証

私の考え: テクニカルなAIを使用したプロジェクトの透明性と偏りの排除は非常に重要です。Resaroの手法は、偏りを特定し、製品の安全性と信頼性を向上させるのに役立つと感じます。

元記事: https://www.gov.uk/ai-assurance-techniques/resaros-bias-audit-evaluating-fairness-of-llm-generated-testimonials