要約:
- Google I/Oで、新しいハードウェアを利用してデバイス上でAIを直接実行できるようになった。
- 新しい電話やPCにはニューラルプロセッサが搭載され、オンデバイスAIが可能になった。
- 新しい波のアクセラレータやGPUにより、モバイルデバイス上でAIが可能になった。
- GoogleはGemini Nano LLMを活用する開発キットやAPIを提供し、Androidの推奨パスとして位置づけている。
- 開発者はQuantizationを使用してモバイルデバイス向けにモデルを最適化できる。
- AICoreは、モバイルデバイス向けにAIモデルを調整するための重要なツールである。
- MediaPipe APIを使用して、開発者はAndroidおよびiOSデバイス向けのAIウェブアプリを作成できる。
- Googleは、TensorFlow Lite開発環境を使用しており、よりコンパクトなバージョンのTensorFlowモデルをデバイス上で実行できる。
- 開発者は、最新のチップを使用してスマートフォンにLLMsを移植できる。
- 新しいデバイス世代は、オンデバイスAIの能力を向上させる。
感想:
AIのオンデバイス展開が進んでおり、モバイルデバイスなどでも高度なAI処理が可能となっています。Googleや他の企業が開発者向けに多様なツールやリソースを提供しており、これによりAIアプリケーションの開発がより手軽になっています。モバイルデバイスにおけるAIの普及が進むことで、デバイスの性能向上やアプリの効率化が期待されます。
元記事: https://thenewstack.io/google-wants-developers-to-build-on-device-ai-applications/