• LLM(Large Language Models)における幻覚とは、モデルが事実とは異なる内容を生成する現象であり、トレーニングデータに必要な情報が欠如している場合や、モデルが実際の知識を超えた論理的推論を行って一貫した応答を生成しようとする際に発生する。
  • 幻覚の緩和は、ヘルスケア、ファイナンス、法律などの分野で誤った情報が重大な影響をもたらす可能性があるプロダクションアプリケーションにおいて重要であり、幻覚を放置すると信頼性や信頼性が損なわれ、潜在的な害や法的責任を引き起こす可能性がある。
  • 幻覚を軽減する戦略には、厳密な事実チェックメカニズム、RAG(Retrieval Augmented Generation)を使用した外部知識源の統合、信頼度の閾値の適用、重要な出力のための人間の監視や検証プロセスの実装などがある。
  • RAGは、言語モデルに幻覚を減少させるアプローチであり、外部知識を取り込み、モデルへの入力として使用されるプロンプトの一部に組み込むことで、幻覚を軽減することを目指している。
  • Amazon Bedrock Agentsは、動的なワークフローオーケストレーションを可能にし、新しい検出技術や追加のAPI呼び出しを組み込むための努力を軽減し、全体ワークフローを再構成することなく適応性を制限する。

考察:言語モデルにおける幻覚の問題は、信頼性や正確性に影響を及ぼす重要な課題であり、RAGなどのアプローチを利用して外部知識を組み込むことで、幻覚の発生を軽減し、生成される応答の信頼性を向上させることが可能である。Amazon Bedrock Agentsは、動的なワークフローオーケストレーションを通じて、柔軟性を持たせつつ、幻覚の検出と軽減を実装する際の手間を軽減する重要な役割を果たしている。

元記事: https://aws.amazon.com/blogs/machine-learning/reducing-hallucinations-in-large-language-models-with-custom-intervention-using-amazon-bedrock-agents/