大規模言語モデルの強化された協調フィルタリング
著者: Zhongxiang Sun、Zihua Si、Xiaoxue Zang、Kai Zheng、Yang Song、Xiao Zhang、Jun Xu
要約: 大規模言語モデル (LLM) の最近の進歩は、これらのモデルを活用してレコメンデーション システム (RS) を強化する研究者の間で大きな関心を集めています。既存の研究では、主に LLM を使用して知識豊富なテキストを生成するか、LLM から派生した埋め込みを機能として使用して RS を改善しています。LLM に埋め込まれた広範な世界知識は一般に RS にメリットをもたらしますが、アプリケーションは限られた数のユーザーとアイテムしか入力として受け取ることができず、協調フィルタリング情報を十分に活用できません。RS での重要な役割を考慮すると、LLM を使用して RS を強化する際の重要な課題の 1 つは、LLM を通じてより優れた協調フィルタリング情報を提供することです。この論文では、LLM のコンテキスト内学習と思考連鎖推論からインスピレーションを得て、大規模言語モデル強化協調フィルタリング (LLM-CF) フレームワークを提案します。これは、LLM の世界知識と推論機能を協調フィルタリングに抽出します。また、LLM の一般的な機能を維持しながら (たとえば、LLM ベンチマークで低下しない) LLM の推奨機能を向上させる簡潔で効率的な命令チューニング方法も検討しました。3 つの実際のデータセットでの包括的な実験により、LLM-CF はいくつかのバックボーン推奨モデルを大幅に強化し、競合ベースラインを一貫して上回り、LLM の世界の知識と推論機能を協調フィルタリングに抽出する有効性を示しています。△
宇宙愛好家。コンピュータサイエンス、AI、物理学、神経科学とテクノロジー、フロントエンドとバックエンド開発について執筆しています。

元記事: https://medium.com/%40monocosmo77/new-methods-with-collaborative-filtering-part8-machine-learning-2024-559da9135630