• Cerence Inc.(NASDAQ: CRNC)はNVIDIAとの協力を拡大し、CaLLM™ファミリーの言語モデルを改善する。
  • この協力により、NVIDIA AI EnterpriseおよびNVIDIA DRIVE AGX Orinプラットフォームを活用して、CerenceのCaLLM実装は著しい計算上の利点を得る。
  • TensorRT-LLMとNeMoフレームワークの統合は、遅延、パフォーマンス最適化、リソース効率化といった自動車環境における大規模言語モデルの展開における主要な課題に対処している。

この協力は、自動車AI展開における戦略的な前進を表しており、CerenceのCaLLM実装がNVIDIA AI EnterpriseとNVIDIA DRIVE AGX Orinプラットフォームを活用することで、重要な計算上の優位性を得る。TensorRT-LLMとNeMoフレームワークの統合は、自動車環境での大規模な言語モデルの展開における主要な課題、つまり遅延、パフォーマンス最適化、リソース効率化に特に注目すべきである。

この協力により、Cerenceは自動車AI市場で競争力を強化し、SoundHoundやNuanceなどの競合他社に対抗している。この協力により、CerenceはNVIDIAの業界をリードするAIインフラにアクセスし、新機能の開発コストを削減し、市場導入までの時間を短縮する可能性がある。これは、33.4億ドルの時価総額を持つ企業にとって、NVIDIAのような業界の巨人との連携が重要な信頼性と技術力をもたらす。

元記事: https://www.stocktitan.net/news/CRNC/cerence-ai-expands-collaboration-with-nvidia-to-advance-its-ca-llm-rwadz64m0cxk.html