• MicrosoftとBeihang大学の研究者が、大規模言語モデル(LLM)の微調整のための新しい技術MoRAを導入
  • MoRAは、他の人気のある技術である低ランク適応(LoRA)などのいくつかの制限に対処する、パラメータ効率のよい微調整(PEFT)技術である
  • LoRAは、テキスト分類や指示調整などのタスクではうまく機能するが、MoRAは数学的推論や継続的事前トレーニングなど、LLMの能力向上を必要とするより複雑なタスクで優れている
  • MoRAは、LoRAの制限に対処するために、低ランク行列の代わりに正方行列を使用し、高いランクの更新から利益を得ている

MoRAは、LoRAよりも新しい知識を学習する能力が高く、同じサイズのLoRAモデルよりも優れた性能を示している。MoRAアダプターのランクを増やすことで、数学的推論タスクにおけるPEFTとフル微調整の性能差をなくすことができるが、トレーニングおよびストレージのコストが高くなる可能性がある。

MoRAは、LoRAの制限に対処するために正方行列を使用することで、より高いランクの更新能力を持つことができます。これにより、新しい知識をより効果的に学習し、記憶できるようになります。

元記事: https://venturebeat.com/ai/microsoft-beihang-release-mora-an-efficient-llm-fine-tuning-technique/