Red Hat は今週、組織が Kubernetes ベースの OpenShift プラットフォームのインスタンス上で人工知能 (AI) ワークロードを構築および展開できるようにするための取り組みの範囲を拡大しました。
さらに、Red Hat は、コンテナ イメージとして展開して DevOps ワークフローを効率化できる Red Hat Enterprise Linux (RHEL) オペレーティング システムのインスタンスのテクノロジ プレビューも同時に提供しています。
Red Hat Summit 2024 カンファレンスで発表されたように、Red Hat は、Kubernetes クラスターが複数のタイプの AI モデルをオーケストレーションできるようにする Kubernetes カスタム リソース定義である KServe の使用を可能にしています。さらに、Red Hat は、大規模言語モデル (LLM) 用の推論エンジンをデプロイするためのライブラリ (vLLM と呼ばれる) と、自然言語処理 (NLP) モデルおよびタスク用の Caikit-nlp-tgis ランタイムのサポートを追加します。
Red Hat は、複数のクラスターにわたって Python ワークロードを実行するためのオープンソースの Ray フレームワークと、AI モデル用の IT インフラストラクチャの消費を最適化するオープンソースのサーバーレス コンピューティング フレームワークである CodeFlare のサポートも追加しています。
同時に、Red Hat は現在、テクノロジー プレビューで、ネットワーク エッジに展開されるアプリケーションに通常使用される単一ノード クラスターに AI モデルを展開できるようにしています。
Red Hat は、テクノロジー プレビューを通じて VS Code、RStudio などの開発ツールや、NVIDIA が開発した推論エンジン用の CUDA フレームワークおよび NIM マイクロサービス フレームワークとの統合も強化しています。IT チームは、さまざまな種類のハードウェア アクセラレータを構成し、既存の Red Hat ツールを利用して AI モデルを監視することもできます。
Podman Desktop の拡張機能である Podman AI Lab により、開発者はローカル ワークステーション上でコンテナー化された生成 AI アプリケーションを構築、テスト、実行できるようになりました。RHEL 9.4 のコンテナー イメージ モードで動作するように設計されており、開発者が拡張できるチャットボットなどのアプリケーションを構築するためのレシピも含まれています。
さらに、Red Hat は Intel および AMD との提携を拡大し、グラフィカル プロセッサ ユニット (GPU) やアクセラレータを含む複数のクラスのプロセッサに Red Hat OpenShift をより簡単に導入できるようにしています。また、NVIDIA が最近買収したオーケストレーション ツールのプロバイダーである Run:ai との提携により、GPU 上で実行される Red Hat OpenShift インスタンスで実行される AI ワークロードの最適化も容易になります。Red Hat は Stability AI とも提携し、Red Hat OpenShift プラットフォームへのオープン AI モデルの導入も容易にしています。
Red Hat の AI ビジネス部門の副社長兼ゼネラルマネージャーである Steve Huels 氏は、全体的な目標は、IT チームがハイブリッド クラウド コンピューティング環境全体で AI モデルを最適な方法で簡単に構築および展開できるようにすることだと述べています。
その取り組みの一環として、Red Hat は今夏後半に、ソースコードを Kubernetes 環境に移行するためのオープンソース ツールキットである Konveyor に大規模言語モデル (LLM) のサポートを追加することを約束しています。
Red Hat は、Oracle および Pure Storage との提携も拡大し、クラウドおよびオンプレミスの IT 環境での Red Hat OpenShift の導入をより簡単にしました。
さらに、Red Hat は Red Hat Connectivity Link の開発者プレビューを公開しています。オープンソースの Kuadrant ソフトウェアをベースとする Red Hat Connectivity Link は、イングレス ゲートウェイ、サービス メッシュ、ロードバランサー、アプリケーション プログラミング インターフェイス (API) の管理を統合し、複数のクラウド コンピューティング環境にまたがるアプリケーション接続のフレームワークを提供します。
Red Hat は今年後半に、IT 運用の自動化を目的とした既存の Lightspeed 生成 AI プラットフォームの範囲を Red Hat OpenShift プラットフォームに拡張し、特定の日付に RHEL でも同様の機能を提供する予定です。
最後に、Red Hat は、OpenShift 4.14 および 4.x シリーズの以降の偶数番号の Red Hat OpenShift リリースに対してオプションで 12 か月の追加の EUS 期間を提供し、これらの OpenShift リリースで利用可能なライフサイクル全体を 3 年にします。
クラウドネイティブ アプリケーションの構築と展開に Red Hat OpenShift を標準化している組織がいくつあるかは、正確にはわかりません。1 つ明らかなことは、Kubernetes が AI アプリケーションの構築と展開の事実上の標準になりつつあるため、Red Hat はハイブリッド クラウド コンピューティングへのアプローチを前進させる大きなチャンスを見出しているということです。
Mike Vizard 氏は、25 年以上の経験を持つ熟練の IT ジャーナリストです。また、IT Business Edge、Channel Insider、Baseline など、さまざまな IT 雑誌にも寄稿しています。以前は、Ziff-Davis Enterprise の編集ディレクター、CRN および InfoWorld の編集長を務めていました。
Mike Vizard は 1627 件の投稿をしており、現在も増え続けています。Mike Vizard のすべての投稿を見る

すべてのポッドキャストを聴く
セキュア コーディング プラクティス ステップ 1/7 14% 組織では現在、ソフトウェア開発プロセスにセキュア ガードレールを実装していますか?(必須) はい、すべてのプロジェクトにわたって広範囲に実装しています はい、特定のプロジェクトまたはチームのみに実装中です いいえ、近い将来に実装する予定です いいえ、実装する予定はありません 開発プロセスにセキュア ガードレールを実装する際に直面する最大の課題は何ですか? (該当するものをすべて選択してください)(必須) 認識または理解の欠如 統合における技術的な問題 開発チームの抵抗 適切なツールの不足 コストの制約 その他 その他、詳細をお知らせください: プロジェクトのセキュリティ脆弱性を防ぐ上で、セキュア ガードレールはどの程度効果的だと思いますか? 1 (効果なし) から 5 (非常に効果的) のスケールで評価してください(必須) 1 2 3 4 5 セキュア ガードレールはどの程度自動化されていますか?( (重要度の高い順にランク付け)既存のワークフローへの統合のしやすさセキュリティ脆弱性の包括的なカバー特定のプロジェクトのニーズに合わせたカスタマイズ性開発速度への影響が最小限実用的な洞察と推奨事項幅広いプログラミング言語とフレームワークのサポート 今後 12 か月以内に、セキュア ガードレールの導入または強化に関して組織が計画していることは何ですか?(必須) セキュア ガードレールの使用をより多くのプロジェクトに拡大する 既存のセキュア ガードレールの機能を強化する 現在のセキュア ガードレールの使用レベルを変更せずに維持する セキュア ガードレールへの依存を減らす セキュア ガードレールに関連する計画はありません あなたの主な役割に最も近いものは何ですか?(必須) セキュリティ エンジニア DevOps エンジニア プラットフォーム エンジニア 開発チームのセキュリティ チャンピオン ソフトウェア開発者 CISO (または同等の役職) 上級管理職 (CEO、CTO、CIO、CPO、VP) マネージャー、ディレクター その他 Δ

元記事: https://cloudnativenow.com/news/red-hat-expands-scope-of-ai-ambitions-for-openshift-platform/