- 大規模言語モデル(LLMs)の潜在能力に対する興奮が収まると、それらがうまくできない点を修正する作業が始まる。
- LLMsが苦手とすることの最も明らかな例は「幻覚」であり、虚偽の出力は明らかに間違っている。
- 事実の不正確さ、偏り、誤解を招く参照など、それらは気づかれないため、より大きな問題となっている。
- IBM、MIT、Boston University、Monash Universityの研究チームは、LLMsのトレーニング方法の短所に対処できると考えられる技術を提案している。
- 提案された解決策の1つは、高品質の専門データをLLMsに供給することで、リトリーバル増強生成(RAG)を展開すること。
- もう1つのチームは、自己特化と呼ばれる手法を使用して、特定の知識分野からの材料を取り込むことで、一般モデルを専門モデルに変換する方法を提案している。
- LLMsは特定のタスクには優れているが、単純な事実または真実のチェックエンジンではなく、迅速に進化する必要がある。
LLMsの短所に対処するための新しいアプローチが提案されており、特にRAGやDCTの導入が注目されています。LLMsは事実に対応することが苦手であると指摘されており、これらの新しい技術が導入されることで、その課題に対処できる可能性が示唆されています。LLMsの進化が重要であり、それが特定の専門的なツールになるか、あるいは一般的なツールとしてより有用になるかは、今後の展開が注目されます。