• 大規模言語モデル(LLMs)の潜在能力に対する興奮が収まると、それらがうまくできない点を修正する作業が始まる。
  • LLMsが苦手とすることの最も明らかな例は「幻覚」であり、虚偽の出力は明らかに間違っている。
  • 事実の不正確さ、偏り、誤解を招く参照など、それらは気づかれないため、より大きな問題となっている。
  • IBM、MIT、Boston University、Monash Universityの研究チームは、LLMsのトレーニング方法の短所に対処できると考えられる技術を提案している。
  • 提案された解決策の1つは、高品質の専門データをLLMsに供給することで、リトリーバル増強生成(RAG)を展開すること。
  • もう1つのチームは、自己特化と呼ばれる手法を使用して、特定の知識分野からの材料を取り込むことで、一般モデルを専門モデルに変換する方法を提案している。
  • LLMsは特定のタスクには優れているが、単純な事実または真実のチェックエンジンではなく、迅速に進化する必要がある。

LLMsの短所に対処するための新しいアプローチが提案されており、特にRAGやDCTの導入が注目されています。LLMsは事実に対応することが苦手であると指摘されており、これらの新しい技術が導入されることで、その課題に対処できる可能性が示唆されています。LLMsの進化が重要であり、それが特定の専門的なツールになるか、あるいは一般的なツールとしてより有用になるかは、今後の展開が注目されます。

元記事: https://www.computerworld.com/article/3487262/researchers-tackle-ai-fact-checking-failures-with-new-llm-training-technique.html