- MIT researchers developed SymGen to help verify Large Language Models (LLMs) responses.
- LLMs sometimes generate incorrect or unsupported information, known as “hallucination.”
- SymGen allows users to verify responses by pointing directly to the source document.
- Users can hover over highlighted text to see the data used by the model and identify areas needing attention.
- SymGen speeds up verification time by about 20% compared to manual procedures.
自然言語処理の分野におけるMITの研究者は、SymGenというシステムを開発し、大規模言語モデル(LLM)の応答を検証するのを支援しました。LLMは時折、「幻覚」として正確でない情報を生成することがあります。SymGenは、ユーザーがソースドキュメントに直接指摘することで応答を検証できるようにします。ユーザーはモデルが使用したデータを見るためにハイライトされたテキストをホバーすることができ、注意が必要な部分を識別することができます。SymGenは、手動手続きに比べて検証時間を約20%短縮します。
元記事: https://indiaai.gov.in/article/symgen-new-ai-model-that-aids-in-verifying-an-llm-s-responses