要約:

  • EPFLの研究者が大規模言語モデル(LLMs)の適応におけるインコンテキスト学習(ICL)と指示微調整(IFT)を比較する研究を実施
  • ICLとIFTは最初のMT-Benchテストで少ない訓練例(最大50個)を使用すると同様の結果を示す
  • 簡単なタスクではICLとIFTに類似性がありますが、複雑なシナリオでは大きな違いが現れ、IFTが優れたパフォーマンスを示す
  • ICLモデルは個々の例のスタイルに過剰適合し、複雑な会話に対処するのが難しいという研究仮説があります
  • URIALメソッドは、わずか3つの例と指示に従うルールでベース言語モデルをトレーニングしましたが、IFTで調整されたモデルには及ばなかった
  • デコーディングパラメータはモデルのパフォーマンスに重要な影響を与え、正しいパラメータ設定によりベースモデルでもある程度の指示に従うことが可能
  • ICLは少ない訓練例が利用可能な場合に効果的であり、多回の会話などの複雑なタスクにはIFTが優れる
  • ICLとIFTの選択は、リソース、データ量、特定のアプリケーション要件など、様々な要因に依存する

感想:

研究によると、ICLとIFTの適切な選択は、データ品質の重要性に依存しており、少ない例を使用する場合にはICLが有効であることが示されました。一方、IFTは多回の会話などの複雑なタスクには優れており、データセットが大きくなるにつれて改善されることが強調されました。ICLとIFTの使い分けは、研究で強調されているように、利用可能なリソースや具体的なアプリケーションの要件など、様々な要因に依存する重要な決定であると感じます。

元記事: https://the-decoder.com/in-context-learning-proves-competitive-with-llm-fine-tuning-when-data-is-scarce/