• Microsoftが新しいPhi-3.5ファミリーを導入
  • Phi-3.5-MoEはMixture of Experts(MoE)技術を活用
  • Phi-3.5-MoEモデルはAzure AI StudioとGitHubで利用可能
  • Phi-3.5-MoEはEast US 2、East US、North Central US、South Central US、West US 3、West US、およびSweden Central地域で利用可能
  • Phi-3.5-MoEは1Kの入力トークンあたり0.00013ドル、1Kの出力トークンあたり0.00052ドルの料金体系
  • Phi-3.5-MoEはLlama-3.1 8B、Gemma-2-9B、Mistral-Nemo-12Bなど他のモデルを凌駕
  • Phi-3.5-MoEは42Bの総パラメータを持ち、6.6Bのアクティブパラメータと16のエキスパートを特徴としている
  • MicrosoftはGRIN(GRadient INformed)MoEという新しいトレーニング方法を開発
  • Phi-3.5-MoEは開発者に力を与え、AI分野の革新を加速

考察:
MicrosoftのPhi-3.5-MoEモデルは、Mixture of Experts(MoE)技術を活用し、AI分野での性能と利用可能性を向上させています。新しいトレーニング方法であるGRIN MoEを使用することで、従来のトレーニング方法よりもはるかに高い品質向上が実現されています。サーバーレスの提供と消費に基づく支払いモデルにより、開発者にとってAIの高度な機能が以前よりも手軽に利用できるようになりました。

元記事: https://www.neowin.net/news/microsofts-phi-35-moe-rivals-gemini-15-flash-now-available-in-azure-ai-studio-and-github/