• Hot Chips 2024において、SK Hynixは、AIアクセラレータ向けの標準DRAMだけでなく、インメモリコンピューティングの最新技術を披露。
  • AiMX-xPUとLPDDR-AiMを使用したLLM推論に焦点を当て、メモリ内で直接データ変換を行うことで効率的かつ高速に実行。
  • GDDR6 Accelerator-in-Memoryカードや32GBのメモリ容量を備えたAIMパッケージも紹介。
  • データセンターAIだけでなく、オンデバイスAIにも注力し、LPDDR5-AiM製品の最適化を目指す。
  • LPDDR5は、モバイルデバイス向けのSoCに統合可能。
  • 異なるアプリケーションに対して異なるトレードオフが必要であり、AiMのプログラミングや熱および電力要件の変更も課題となる。

SK Hynixは、インメモリコンピューティングの展開を広げつつあり、AiM/AiMXの利用先も増やしているようです。

この技術は、主要SoC/チップベンダーが採用してメインストリーム化する前に統合する必要があると感じられます。

メモリ内での計算は合理的なアプローチであると考えられますが、将来製品化されるかどうかは検討の余地があります。

元記事: https://www.servethehome.com/sk-hynix-ai-specific-computing-memory-solution-aimx-xpu-at-hot-chips-2024/