要約:
- ミネソタ大学ツインシティの工学研究者は、AIコンピューティングアプリケーションのエネルギー消費を少なくとも1,000分の1に削減できる最先端のハードウェアデバイスを実証。
- 研究はNatureが出版するnpj Unconventional Computingという査読付き科学ジャーナルに掲載。
- 新しいモデルである計算ランダムアクセスメモリ(CRAM)では、データがメモリを離れることなく処理される。
- 2026年までにAIのエネルギー消費が2倍になると予測されており、CRAMに基づく機械学習推論アクセラレータは1,000倍の改善が見込まれる。
- CRAMアーキテクチャは、メモリ内で真の計算を可能にし、伝統的なフォン・ノイマンアーキテクチャのボトルネックを打破。
感想:
この研究は、AIのエネルギー消費を大幅に削減する画期的な取り組みであり、CRAMアーキテクチャの導入により、計算とメモリの間の壁を取り除くことができる点が特に興味深いと思います。
元記事: https://www.sciencedaily.com/releases/2024/07/240726113337.htm