要約:

  • Google AIは、新しいAGREE(Adaptation for Grounding Enhancement)を導入することで、LLMの幻覚の数を減らすことを発表
  • AGREEは、大規模言語モデル(LLM)の不正確さを減らすことを目的とした機械学習フレームワークで、幻覚が特にニュース報道や教育分野で問題となっている
  • AGREEは、自己根拠を持つための学習ベースのフレームワークを導入し、訓練時に合成データを使用してLLMを微調整し、テスト時には反復推論戦略を使用して回答を継続的に洗練させる
  • AGREEの試験では、基線方法と比較して根拠付けと引用の精度が大幅に向上し、さらにテスト時適応(TTA)を組み込むことで、回答の正確性と根拠付けをさらに向上させることが示された

感想:

AGREEは、幻覚の減少に取り組む新しいアプローチを提供し、高い事実の精度が必要なさまざまな分野でLLMの応用可能性を広げる可能性があると感じました。テスト時適応を組み込むことで、モデルがより的確な回答を構築するためのより多くの関連情報を積極的に探すことができる点が特に興味深いです。


元記事: https://winbuzzer.com/2024/05/29/google-ai-introduces-agree-to-improve-llm-grounding-xcxwbn/