• 2022年以来、新しい概念や再定義された概念が次々と登場し、新しいモデルがリリースされるたびに制限や可能性が常に変化している
  • Retrieval Augmented Generation(RAG)は、外部ソースから情報をもたらし、LLMの回答をそれに基づいて補強するという一般的な概念
  • RAGは、ベクトルデータベースとほぼ直ちに関連付けられるが、この技術はRAGの1つの実装に過ぎず、概念全体は検索エンジン、API、Excelファイル、PDFファイルなどの任意の外部情報源に適用可能
  • 長いコンテキストは、モデルに送信できるトークンの制限と、モデルが実際に効果的に処理できるトークンの2つの概念に適用される
  • 長いコンテキストはすべてのモデルには当てはまらないが、適用される場合(例: Gemini 1.5、Claude 3)では、RAGを実装する方法が変わる可能性がある
  • 検索ソリューションを使用してプロンプトで使用するコンテキストを選択する場合、LLMモデルの応答能力だけでなく、検索ソリューションが関連コンテンツを見つける能力も重要
  • 新しいモデルは、従来のやり方を変える可能性があるため、常に研究を追いかけ、使用ケースの実装方法を選択するためのパラメータを更新する必要がある

考察:
新しいAIモデルの登場により、従来のやり方が変わる可能性があり、常に最新の研究を追いかけ、適切な実装方法を選択する必要があると感じます。外部情報源を活用するRAGや長いコンテキストの考え方は、モデル選択やプロンプト設計に影響を与える重要な要素であることが示唆されています。

元記事: https://medium.com/%40daniellefranca96/where-are-we-with-in-2024-part-1-rag-vs-long-context-41cede58c900