• ジェネラティブAIブームは2022年末のOpenAIのChatGPTのリリース以来、ほぼ1年半続いている
  • 大規模言語モデル(LLM)によるジェネラティブAIツールは、多くの企業の株価に影響を与えたが、まだ重要な欠点がある
  • リトリーバル増強生成(RAG)はこれらの欠点のいくつかを修正することを目指している
  • LLMの最も顕著な欠点は、confabulation(幻覚)傾向であり、訓練データに存在しなかった知識を再現する際にAI言語モデルが生じる現象である
  • RAGはLLMの性能を向上させるために、LLMプロセスとウェブ検索または他の文書検索プロセスを組み合わせる手法である

ジェネラティブAI技術が将来の人類を前進させる技術であることを目指すなら、誰かが途中でconfabulationの問題を解消する必要があるとされる。その役割を果たすのがRAGであり、RAGの支持者はこの技術が、人間が回答を二重チェックや疑問視することなく生産性を向上させる信頼できるアシスタントに変えることを期待している。

元記事: https://arstechnica.com/ai/2024/06/can-a-technology-called-rag-keep-ai-models-from-making-stuff-up/