• 2024 NVIDIA GTCカンファレンスでは、Amazon SageMaker InferenceでNVIDIA NIM Inference Microservicesをサポートすることが発表された。
  • NIMは、NVIDIA TensorRT、NVIDIA TensorRT-LLM、vLLMなどの技術を活用して構築されており、NVIDIA GPUアクセラレーションインスタンスでのAI推論を容易に、安全に、高性能に可能にしている。
  • NIMは、Amazon SageMaker上での最先端のLLMの展開を迅速化し、企業向けAIアプリケーションにシームレスに統合できるようにする推論マイクロサービスのセットであり、NLPや理解能力を提供する。
  • プロトタイプの開発やMLアプリケーションの展開に利用できる幅広いNIM最適化AIモデルがNVIDIA APIカタログで提供されている。
  • NIMをSageMakerに展開する際は、NIMをダウンロードしてデプロイする必要があり、NGC APIキーを取得して、SageMakerで実行するためのリソースを準備する。

私の考え:
NVIDIAのNIMは、AI推論を高速かつ効率的に行うための重要なツールであり、Amazon SageMakerとの統合によって、企業向けAIアプリケーションに最先端のLLMを簡単に統合できるようになります。NIMを活用することで、AI開発者は先進的なモデルの力を活用しやすくなり、AI能力を迅速に展開できるでしょう。

元記事: https://aws.amazon.com/blogs/machine-learning/get-started-with-nvidia-nim-inference-microservices-on-amazon-sagemaker/