技術記事の要約
- Microsoftの研究コミュニティでは、大規模言語モデル(LLM)の新知識導入の効果を探る研究が行われている。
- 「Supervised Fine-Tuningを通じてLarge Language Modelsに新しい知識を注入する」という論文では、特にスポーツイベントの最新情報を学習させる方法が検討されている。
- トークンベースのスケーリングと事実ベースのスケーリングという二つのデータセット生成戦略が比較され、事実ベースの方が新知識の均一なカバレッジを実現している。
- 計算ノートブックのユーザーエクスペリエンスに関する研究では、AIツールの進化がどのようにユーザーの痛点に影響を与えているかが調査されている。
- 組み込みシステムのプロトタイピングにおいて、Jacdacというサービスベースのアプローチが提案され、各センサーやアクチュエータが独立したマイクロコントローラを通じて機能を提供する方式が開発されている。
- 多言語LLMの評価には多くの課題があり、特にインド語LLMのための包括的な評価フレームワーク「PARIKSHA」が開発された。
- AI公正性を高めるためのリソースの適用に関する研究では、AIフェアネス・チェックリストのカスタマイズがどのように進められているかが明らかにされている。
- MS MARCO Web Searchという新しい大規模ウェブデータセットが公開され、さまざまなAIシステムでの利用が可能になる。
- AIが科学研究をどのように加速させているかについての事例がEmTech Digital 2024で紹介された。
- MicrosoftのProject Silicaが長期データ保存技術として注目され、再利用可能なvitrimerベースのPCBの研究が進行中である。
個人的な感想
この記事から、MicrosoftがAI技術のさまざまな側面で革新的な研究を進めていることがよく理解できました。特に、LLMの新知識導入や多言語モデルの評価など、具体的な課題に対して実用的な解決策を開発している点が印象的です。また、AIの公正性やユーザーエクスペリエンスの向上に対する取り組みも、今後のAI技術の発展において重要な要素であると感じました。
元記事: https://www.microsoft.com/en-us/research/blog/research-focus-week-of-may-13-2024/