- RHEL AI 1.2がリリースされ、大規模言語モデル(LLM)の開発、テスト、展開を容易にする多くの改善が導入された。
- RHEL AIはIBM ResearchのGranite LLMファミリー、InstructLabアライメントツール、InstructLab AIプロジェクトを組み合わせた新しいプラットフォームで、Retrieval-Augmented Generation(RAG)も利用している。
- 新バージョンはLenovo ThinkSystem SR675 V3サーバーをサポートし、AMD Instinct Acceleratorsもサポートする。
- RHEL AI 1.2はAzureやGoogle Cloud Platformに対応し、ソフトウェアには「Periodic Checkpointing」機能やPyTorch Fully Sharded Data Parallel(FSDP)が導入された。
- RHEL AIはLLMトレーニングをデータサイエンティストだけでなくプログラマーや専門家にもアクセス可能にし、Red Hat OpenShift AIを介してハイブリッドクラウド上でモデルをスケーリングできる。
Red HatのRHEL AI 1.2は、大規模言語モデルの開発、テスト、展開を容易にする多くの改善が導入された。新プラットフォームはIBM ResearchのGranite LLMファミリー、InstructLabアライメントツール、InstructLab AIプロジェクトを組み合わせ、Retrieval-Augmented Generation(RAG)も利用しています。さらに、新バージョンはLenovo ThinkSystem SR675 V3サーバーをサポートし、AMD Instinct Acceleratorsもサポートします。また、AzureやGoogle Cloud Platformに対応し、ソフトウェアには「Periodic Checkpointing」機能やPyTorch Fully Sharded Data Parallel(FSDP)が導入されました。RHEL AIはLLMトレーニングをデータサイエンティストだけでなくプログラマーや専門家にもアクセス可能にし、Red Hat OpenShift AIを介してハイブリッドクラウド上でモデルをスケーリングできるようにしています。