- Red HatがRHEL AI 1.2の一般提供を発表
- RHEL AIは大規模言語モデル(LLMs)の開発、テスト、展開を効率化
- RHEL AIはIBM ResearchのGranite LLMファミリーとInstructLab AIプロジェクトを組み合わせたプラットフォーム
- RAGを使用して外部知識にアクセス可能に、正確な回答を提供
- Lenovo ThinkSystem SR675 V3サーバーのサポート追加、AWSとIBM Cloudに加えてAzureとGCPでも展開可能
- 新機能”Periodic Checkpointing”でトレーニング中の進捗を保存、PyTorch Fully Sharded Data Parallel (FSDP)も導入
- プログラマーや専門家が容易にAIモデルを開発、Red Hat OpenShift AIを通じて本番環境でスケーリング可能
- RHEL AI 1.1のサポート廃止、最新版へのアップグレードが必要
Red HatのRHEL AI 1.2は、大規模言語モデルの開発、テスト、展開を効率化するための数々の改善が導入された。特に外部知識へのアクセスやトレーニング時間の短縮など、AI開発において重要な機能が強化されている。プログラマーや専門家がAIモデルの開発に容易に参加できる点も大きな特徴であり、Red HatのエンタープライズAI市場への積極的な進出がうかがえる。