要約:
- Red HatがRHEL AI 1.0をリリースしてからわずか数か月後に、RHEL AI 1.2の一般提供が発表された。
- RHEL AI 1.2は大規模言語モデル(LLM)の開発、テスト、展開を効率化するための改良を導入している。
- RHEL AIはIBM ResearchのGranite LLMファミリー、InstructLabアライメントツール、InstructLab AIプロジェクトを組み合わせたプラットフォームである。
- RHEL AIはRetrieval-Augmented Generation(RAG)を使用し、LLMがデータベースや文書などの外部知識にアクセスできるようにする。
- RHEL AI 1.2はLenovo ThinkSystem SR675 V3サーバーをサポートし、AMD Instinct Accelerators向けの技術プレビューも導入された。
- RHEL AI 1.2はAzureとGoogle Cloud Platform(GCP)にも展開可能であり、PyTorch Fully Sharded Data Parallel(FSDP)などの新機能も搭載している。
- Joe Fernandes氏によれば、RHEL AIはデータサイエンティストだけでなく、ドメインエキスパートがジェネレーティブAIモデルに貢献できるようにする。
- RHEL AI 1.2のリリースに伴い、バージョン1.1のサポートが終了し、30日以内に最新版へのアップグレードが必要とされている。
考察:
RHEL AI 1.2のリリースは、大規模言語モデルの開発を促進し、AIの利用をさらに容易にすることを目指している。Red Hatの積極的な取り組みは、エンタープライズAI市場への強力な進出を示しており、AI開発はますます加速していると言える。