- Root Signals Inc.は、企業が人工知能モデルの信頼性を監視するのを支援するスタートアップで、成長計画を進めるために280万ドルの投資を獲得
- Angular Venturesが主導し、Business Finlandも参加した
- 大規模言語モデルは時々ユーザープロンプトに対して不正確な応答を生成し、これを幻覚と呼び、高リスクなビジネスタスクにLLMを適用するのが難しいという問題がある
- Root Signalsは、開発者が高品質なLLMを見つけ、信頼性を維持するためのクラウドプラットフォームを提供している
- LLM-as-a-judgeというアプローチを使用して幻覚を軽減し、LLMの出力品質を監視する
自然言語処理モデルの信頼性を維持することは重要であり、Root Signalsの取り組みはその課題に向き合っている。LLM-as-a-judgeという新しいアプローチは、他の言語モデルを使って出力の信頼性を監視するという画期的な考え方であり、これによって幻覚の軽減と出力品質の向上が期待される。開発者はRoot Signalsのプラットフォームを通じて、高精度なLLMを選択し、製品における信頼性を維持するための評価者を活用することができる。