- チップ大手のNvidiaが、年次SIGGRAPHコンピュータグラフィックスカンファレンスの開幕で、NIMコンテナソフトウェア向けのさまざまな機能と業界に対応するオファリングを発表
- NvidiaのNIMは、AIモデルを実行するための事前パッケージ化ソフトウェアを含み、大規模言語モデルを外部データベースやアプリケーションに接続する人気の高い方法である「RAG」インフラストラクチャと対話するために最適化されている
- NvidiaはNIMの数を1年前の数十から100以上に拡大し、Google、Meta、Microsoft、Snowflakeなどのモデルパートナーから最適化されたモデルを提供
- Nvidiaの新しいNIMには、先週発表されたMetaのLlama 3.1言語モデルや、NvidiaとフランスのAI企業Mistral AIが共同開発したMistral NeMo 12Bなどが含まれている
- また、ロボティクスやデジタルバイオロジーに焦点を当てた他のNIMや、3D製品開発に特化したNIMも存在
- Nvidiaは、Appleを含む他の業界巨大企業と共同でOpen USDを構築し、3Dシミュレーション環境間で変換を行う標準であるOpen USDを使用する3D製品開発に焦点を当てた新しいNIMも提供
考察: NvidiaのNIMは、AIモデルを効率的に実行し、異なる業界や用途に適したソリューションを提供している。特に、コンピュータグラフィックスやAIモデルの高速化に焦点を当てた取り組みが注目される。Nvidiaの取り組みは、AIの普及と応用の促進に貢献していると言える。
元記事: https://www.zdnet.com/article/nvidia-announces-raft-of-nims-to-speed-up-gen-ai-apps/