- Microsoftが新しいPhi-3.5ファミリーを導入
- Phi-3.5-MoEはMixture of Experts(MoE)技術を活用
- Phi-3.5-MoEモデルはAzure AI StudioとGitHubで利用可能
- Phi-3.5-MoEはEast US 2、East US、North Central US、South Central US、West US 3、West US、およびSweden Central地域で利用可能
- Phi-3.5-MoEは1Kの入力トークンあたり0.00013ドル、1Kの出力トークンあたり0.00052ドルの料金体系
- Phi-3.5-MoEはLlama-3.1 8B、Gemma-2-9B、Mistral-Nemo-12Bなど他のモデルを凌駕
- Phi-3.5-MoEは42Bの総パラメータを持ち、6.6Bのアクティブパラメータと16のエキスパートを特徴としている
- MicrosoftはGRIN(GRadient INformed)MoEという新しいトレーニング方法を開発
- Phi-3.5-MoEは開発者に力を与え、AI分野の革新を加速
考察:
MicrosoftのPhi-3.5-MoEモデルは、Mixture of Experts(MoE)技術を活用し、AI分野での性能と利用可能性を向上させています。新しいトレーニング方法であるGRIN MoEを使用することで、従来のトレーニング方法よりもはるかに高い品質向上が実現されています。サーバーレスの提供と消費に基づく支払いモデルにより、開発者にとってAIの高度な機能が以前よりも手軽に利用できるようになりました。