Red Hat 社長兼最高経営責任者、マット・ヒックス氏。
Red Hat は変化しました。1990 年代に私たちが思い描いていた会社は、オープンソースのオペレーティング システムとソフトウェア開発ツールの純粋主義者で、深夜のコーディング セッション、ソーダ、ピザを好む筋金入りのギークが支持する会社でした。しかし、Red Hat は成長し、ミレニアル以降の数年間、おそらくクラウド コンテナ化とオーケストレーションについて語り始める前から、同社は「コンポーザブル」コンピューティング機能で知られるようになりました。同社のハイブリッド クラウドの強みがさらに明らかになると、IBM はまさにその理由で Red Hat を買収し、業界は次の Red Hat がどのようなものになるか待ち望んでいました。
驚いたことに (Red Hat の従業員とユーザーの堅実な性質を知っている人にとっては、実際には驚くことではないが)、企業買収の消費の饗宴は実際には起こらなかった。つまり、大規模な技術買収が行われると、新しい親会社は通常、買収対象を縮小し、肉の最もおいしい部分を取得し、礼儀上、最初の 1 年間はサブブランドとして元の会社名を保持し、その後、飲み込んでゲップをする。
IBM 社内では、Red Hat は今でも Red Hat であり、今後もそうあり続けると常に言われてきました。
同社の現在の状況を見ると、Red Hat は生成型 AI ハイブリッド クラウド開発、オーケストレーション、および Infrastructure-as-Code (IaC) 管理を行う企業であり、オリジナルのオープン ソース Red Hat Enterprise Linux (RHEL) は今でも広く導入され、使用されています。同社の最新のプラットフォーム アップデートは、ソフトウェア エンジニア、システム アーキテクト、運用チーム スタッフのニーズに今も忠実に取り組んでいる企業であることを物語っています。では、何が新しく、なぜそれが重要なのか、そして Red Hat が現在行っていることのどの程度が、ユーザーが何かを知りたいときは赤い帽子をかぶった人に尋ねなさいと言われた時代の伝統を引き継いでいるのかを考えてみましょう。
あらゆるエンタープライズ ソフトウェア プラットフォーム企業の現在の進歩と開発ロードマップを推進する流れに従い、Red Hat はコア サービスとソリューションに生成型人工知能 (gen-AI) を組み込んでいます。同社の Red Hat Lightspeed テクノロジーにより、生成型 AI 機能が Red Hat の Linux およびハイブリッド クラウド アプリケーション プラットフォームに拡張されます。Red Hat Lightspeed は、自動化に特化した基盤モデルを備えた生成型 AI サービスで、自然言語処理 (NLP) を使用して、書かれたプロンプトをコード スニペットに変換し、複雑なコンピューティング タスクをより効率的にし、従業員のスキル レベルを問わずアクセスしやすいように設計されています。このテクノロジー自体は、Red Hat Ansible Automation Platform で初めて登場しました。
ここでのコンセプトは、生成 AI ガイダンス要素を使用して、ミッションクリティカルなハイブリッドクラウド環境におけるオープンソーステクノロジーに関する Red Hat の知識を特定の状況に文脈的に適用する能力を中心にしています。
「今年の[作業]はオープンソースとAIの交差点に焦点を当てています。ご存知のように、イノベーションの加速率は急上昇しています。AIテクノロジーの選択肢が爆発的に増えたことにより、現在は非常に多くのモデルが利用可能になっています。かつては数億ドルの費用がかかるシステムで実行されていたトレーニング手法が、今では数千ドルで実行されています。学術界は、10年ほど前にはできなかった方法でオープンソースを採用しており、そのおかげで、画期的な[イノベーションのアイデア]から実用的なAIモデルまでを数週間で実現できるようになりました。オープンソースのエコシステムがAIのより広い領域に広がるにつれて、これらのテクノロジーの範囲は地球全体に拡大します。今日MITで起こるブレークスルーは、明日インドの実務組織に導入されるでしょう」と、2024年5月に報道関係者やアナリストに語ったRed Hatの社長兼最高経営責任者、マット・ヒックス氏は述べた。
「長年オープンソースの成長を目の当たりにしてきた私たちは、オープンライセンスからオープンデータ、オープンコントリビューションに至るまで、あらゆる面でオープンであることの力を信じています。しかし、モデルへのコントリビューション能力はまだ解決されておらず、これらの[大きな]モデルを微調整するための障壁は高すぎるため、Red Hatはこれに対処したいと考えています。私たちが前進し、ビジネス固有のニーズにさらに具体的に適合したより小さなモデルをトレーニングするスキルを開発するにつれて、組織がデータを非公開にしながら、エンジニアがオープンモデルに貢献できるようにしていきます」とヒックス氏は付け加えました。「AIの世界でオープンソースの要素が拡大するにつれて、それは力の倍増となるでしょう。なぜでしょうか?そうですね、私が最初にテクノロジーに夢中になったのは、Linuxに初めて触れ、作成中の製品を変更して貢献できることを知ったときです。そのため、AIが今何ができるかを見て、テクノロジーへの情熱が再び高まっています。AIとオープンソースの融合を経験できることは幸運だと思います。」
あらゆるベンダーのより広範なプラットフォームに gen-AI を展開することは、ポイント アンド クリックのプロセスではありません。つまり、Red Hat は、アプリケーション ライフサイクル管理の簡素化やリソースのスケーリングなどのコア アクションで AI 自動化がソフトウェア エンジニアを支援できる分野を時間をかけて検討してきたはずです。Red Hat OpenShift は、Kubernetes を搭載したハイブリッド クラウド アプリケーション プラットフォームとしてすでに知られています。また、さまざまな役割とスキル セットを持つソフトウェア チームがこれを一般的に採用していることもわかっています。現在、gen-AI を搭載した OpenShift Lightspeed が提供されており、初心者レベルのエンジニアでも従来のアプリケーションやクラウド ネイティブ アプリケーションを OpenShift クラスターに展開できるようになります。
簡単に言えば、クラウドのプロビジョニングから展開、そしてその後の管理ライフサイクルを簡素化したものです。
ここではどのような簡素化措置が実施されるのでしょうか?
容量の限界に達したクラウド クラスターを想像してください。つまり、アプリケーション タスクやデータベースの指示を処理するために、これ以上データを処理、計算、分析、または保存できない状態です。OpenShift Lightspeed の gen-AI は、IT エンジニアに自動スケーリング (基本的にはクラウド パワーの追加) を有効にすることを提案し、クラスターがパブリック クラウドでホストされていることを確認した後、適切なサイズの新しいインスタンスを提案します。使用パターンを継続的に評価することで、OpenShift Lightspeed は、容量要件が減少すると、自動スケーリングを縮小することを提案できます。ここでのインテリジェントなクラウド管理 AI グレムリンは、GitOps (コード化された IT インフラストラクチャ形式を再現可能にするリポジトリ テクノロジ) を使用して、ここで作成された構成を保存し、クラスター間で使用できるようにするなどの追加の推奨事項も作成できます。
「Red Hat はオープン ハイブリッド クラウド全体で AI/ML 戦略を推進し、データセンター、複数のパブリック クラウド、エッジなど、データが存在する場所で AI ワークロードを実行できるようにすることで、この取り組みを継続しています。ワークロードだけでなく、Red Hat の AI ビジョンは、モデルのトレーニングとチューニングにも同じ方向性をもたらし、データ主権、コンプライアンス、運用の整合性に関する制限に適切に対処します。これらの環境で実行される場所に関係なく、Red Hat のプラットフォームによって提供される一貫性は、AI イノベーションの流れを維持する上で非常に重要です」と、同社は技術製品声明で述べています。
新しい Common Vulnerability and Exploit (CVE) の発表について考えてみましょう。Red Hat Enterprise Lightspeed は、このアラートを管理者にフラグ付けし、修正プログラムを含む Red Hat Security Advisory (RHSA) がリリースされたことを通知できます。次に、影響を受けるマシンの一部が実稼働中 (つまり、稼働中) であり、停止してはならないが、影響を受ける開発およびステージング システムに更新を適用できることをユーザー (Red Hat ではソフトウェア エンジニアとシステム管理者を指します) に警告できます。最後に、Red Hat Enterprise Linux Lightspeed は、IT チームが次の実稼働メンテナンス ウィンドウにパッチをスケジュールするのを支援します。これらすべてを簡単なコマンドで実行できるため、コマンドライン (つまり、実際のソフトウェア コーディング) の知識が限られている新人エンジニアでもクラウド デプロイメントを管理できます。
前述のように、同社はもちろん生成 AI 機能を Ansible に取り入れています。2015 年に Red Hat が買収し、積極的に採用した Ansible は、プロビジョニング、構成管理、アプリケーションの展開、オーケストレーション、その他多くの IT タスクを自動化するオープンソースの IT 自動化エンジンです。AI モデルのカスタマイズとチューニングの分野では、IBM watsonx Code Assistant により、Ansible Lightspeed ユーザーは既存の Ansible コンテンツを使用してモデルをトレーニングできるようになりました。技術スタッフは、組織の特定のニーズと自動化パターンに合わせたコード推奨事項を使用して、Ansible コンテンツの品質と精度を向上させることができます。管理ダッシュボードを介して、Red Hat アカウント管理者は、Ansible Lightspeed の使用状況に関するテレメトリ データを表示できます。これには、gen-AI リクエストの監視メトリックや、エンド ユーザー (この場合は開発者ではなく人々) によるサービスの使用状況に関する洞察が含まれます。
Red Hat のアプローチの全体像は、同社がクラウド サービスをどのようにバランスさせているかを考えると、さらに明確になります。同社は現在、AI 最適化およびオーケストレーション企業である Run:ai と連携して、同社のリソース割り当て機能を把握し、それを Red Hat OpenShift AI に導入しています。これは、基盤となるインフラストラクチャを最適化することで AI 運用を合理化するために設計された取り組みです。企業へのメッセージは、ユーザーが AI リソースを最大限に活用できるように支援し、信頼できる MLOps プラットフォーム上で人間中心のワークフローとハードウェア主導のワークフローの両方を最大限に活用できるようにするという約束を中心に展開されています。
名前にもかかわらず、MLOps は運用 (つまり IT 管理者) チーム向けの機械学習ではないことに注意してください。ML は、AI 対応のアプリケーションとモデルの構築、調整、展開、監視を支援する機械学習管理のための運用管理です。
このテクノロジーはどのように機能するのでしょうか。説明するために、まず、グラフィカル プロセッシング ユニット (GPU) は AI ワークフローを推進するコンピューティング エンジンであり、実験を推進するために設計されたモデルのトレーニング、推論、およびプロトタイピング プロセスを可能にするものであることを思い出す必要があります。つまり、GPU は非常に強力ですが、特に分散コンピューティングのトレーニング ジョブと推論全体で使用する場合は高価です。Red Hat と Run:ai は、Red Hat OpenShift AI 上の Run:ai 認定 OpenShift Operator を使用して、GPU リソースの最適化というこの重要なニーズを満たすために取り組んでいます。これにより、ユーザーは AI ワークロードがどこにあってもスケーリングと最適化を行うことができます。
「AIの採用とGPUの需要の増加により、企業はハイブリッドクラウドのどこにいても、運用とインフラストラクチャを最大限に活用するためにAIプラットフォームを最適化する必要があります。Run:aiとのコラボレーションを通じて、組織はAI/MLプラットフォームの信頼性や貴重なGPUリソースを犠牲にすることなく、必要な場所でAIワークロードを大規模に最大化できるようになります」と、Red HatのAIビジネスユニット担当副社長兼ゼネラルマネージャーであるSteven Huels氏は述べています。
Red Hat OpenShift AI 上の Run:ai のクラウドネイティブ コンピューティング オーケストレーション プラットフォームは、専用のワークロード スケジューラを使用して AI ワークロードの GPU スケジューリングの問題に対処し、ミッション クリティカルなワークロードの優先順位を高め、それらのワークロードをサポートするために十分なリソースが割り当てられていることを確認します。また、共有 GPU インフラストラクチャに対する制御が向上し、データ サイエンス チームとソフトウェア アプリケーション開発チーム間でのアクセスとリソースの割り当てが容易になります。
AI を活用したインテリジェンス サービスが次々と登場している中、現在のコンピューティング時代を新しいコグニティブ時代などと名付けようとするベンダーが 1 社もないのは不思議です。ネタバレ注意、Red Hat もそうしています。別のコラボレーションでは、今度は半導体企業 AMD (同社は「高性能で適応性の高いコンピューティング企業」を自称していますが、私たちが知っているのはチップです) と提携し、Red Hat は、Red Hat OpenShift AI 上の AMD GPU Operators がハイブリッド クラウド全体の AI ワークロードに必要な処理能力とパフォーマンスを提供できるように設計されたパートナーシップにより、新しいコグニティブ時代における地位を固めていると述べています。
GPU オペレーターは人ではなくテクノロジーであり、オペレーター フレームワークを使用して、GPU のプロビジョニングに必要なソフトウェア コンポーネントの管理を自動化します。高性能でスケーラブルな CPU プラットフォームとともに、GPU は AI ワークロードを駆動するトレーニング フェーズと推論フェーズの両方に不可欠です。
「Red Hat は、オープンなコラボレーションとイノベーションの力を活用して、AI ワークロードへの参入障壁を下げることに取り組んでいます。AMD と連携して、主要な AI テクノロジーへのアクセスを民主化し、開発者を支援し、組織が AI 主導の未来でその可能性を最大限に実現できるようにします」と、Red Hat のパートナー エコシステム サクセス担当シニア バイスプレジデントの Stefanie Chiras 氏は述べています。「Red Hat OpenShift AI 上の AMD GPU により、お客様は検証済みの GPU Operator にアクセスし、導入してそのメリットを享受することが容易になり、AI ワークフローを合理化し、GPU サプライ チェーンの既存および潜在的なギャップを埋めることができます。」
さらに、Red Hat は、大規模言語モデルと基盤モデルのトレーニングと微調整に不可欠なこれらのハードウェア アクセラレータへの投資をより簡単に使用できるようになり、AI アプリケーションをより迅速に構築できるようになると示唆しています。
内容は豊富ですが、これは現時点で Red Hat ニュースフィードの舵取りから発信されている情報のほんの一部にすぎません。これが単に昔の Reg Hat Enterprise Linux (RHEL) オペレーティング システム組織ではなく、オープンソースのクラウド進化型インフラストラクチャ拡張型で、現在は AI 対応の RHEL テクノロジー プラットフォームおよびツール企業となった Red Hat であることが明らかになれば幸いです。常にオタク第一主義を誇りにしてきた企業が、これまでとほとんど変わらない方法でソフトウェア エンジニアと直接対話しているのを見るのは、間違いなく非常に喜ばしいことです。
確かに、Red Hat の活動の一部には、青いスーツを着た IBM の企業風の華やかさが浸透している。しかし、その要素は良質のワインのように、年月と成熟とともに自然に表面化すると主張するのも妥当だろう。