AI(人工知能)は、人間の認知機能をシミュレートしようとする技術です。AI はさまざまな方法でソフトウェア開発分野に進出しています。AI に関する知識を広げるには、AI 記事リストをご覧ください。
可観測性は、組織内の開発チームがプログラムの状態を確認する方法です。開発者にツールやプロセスに関する情報を提供しないと、未対応のバグやシステム障害につながる可能性があります。最新の可観測性コンテンツについては、こちらをご覧ください。
これまで、CI/CD パイプラインは単にコードを統合する場所でした。開発者は GitHub でコードを記述し、パイプラインに渡してデプロイしていました。今日では、パイプラインはソフトウェア配信ライフサイクルにおいてさらに重要な部分になっています。
最新のクラウドネイティブアプリケーションでは、マイクロサービス、コンテナ、API、コードとしてのインフラストラクチャなどを活用して、アプリの開発と展開を迅速化することがよく行われます。
わずか90秒で分散PostgreSQLを導入
セキュリティテストの重要性
今日では、オープンソースやサードパーティのコンポーネントを使用してアプリケーションを構築する開発チームが増えており、セキュリティ チームにとって最大の懸念事項は API になっています。これらのインターフェイスの更新が遅れているため、脆弱性が発生する可能性が高いのはここです。
モバイル アプリ テストでは、モバイル アプリの機能性、使いやすさ、見た目の魅力、複数のモバイル デバイス間での一貫性を分析します。これにより、アプリへのアクセスに使用するデバイスに関係なく、最適なユーザー エクスペリエンスを確保できます。
今日の分散ソフトウェア環境には、モバイルからマイクロサービスまで、ソフトウェアが接続するすべてのインターフェイスにさまざまな API が組み込まれています。ソフトウェアが期待どおりに機能するようにするには、各 API を継続的にテストして検証する必要があります。Parasoft の API テスト プラットフォームは、このような要件を迅速かつ効率的かつインテリジェントに処理します。
アプリケーションの回復力を確保し、さまざまな動作条件下でソフトウェアが期待どおりに動作することを確認します。(Parasoft 提供)
DevSecOps は、開発ライフサイクルにセキュリティを取り入れる DevOps コミュニティのアプローチです。企業はソフトウェアを提供したいものの、信頼性の低いアプリケーションや安全でないアプリケーションをリリースする余裕はありません。そのため、従来よりもはるかに早くセキュリティを組み込む必要があります。
アプリケーションをセキュリティで保護することは、アプリケーションを構築することと同じくらい重要です。データの価値が高まるにつれて、それを盗んで私利私欲のために使用しようとする人が増えています。ハッカーは防御側の一歩先を行くように努めているため、アプリケーションが確実に安全であることを確認することは常に課題となっています。
2023 年には、「積極的に維持されている」と見なされるオープンソース プロジェクトの数が 18% 減少しました。これは、Sonatype の年次ソフトウェア サプライ チェーン状況レポートによるものです。
開発マネージャーには開発者とは異なる種類のコンテンツが必要です。彼らは、どのようなプラットフォーム、ツール、トレンド、問題について考えるべきなのかを知る必要があります。SD Timesは、ここでそれらのユニークなトピックをお届けします。
アジャイル ソフトウェア開発は 1990 年代から存在していましたが、ユタ州スノーバードで開催された 17 人の著名なソフトウェア開発思想リーダーによる有名な会議でアジャイル宣言が採択されるまで、その名前は付けられていませんでした。アジャイル ソフトウェア開発の背後にある考え方は、ソフトウェアの小さなセグメントをより迅速に反復できるようにすることで、市場投入までの時間を短縮することです。
バリュー ストリーム管理では、組織内の人々がワークフローやその他のプロセスを検証し、リソース、時間、資産の無駄を排除しながら、努力から最大限の価値を引き出せるようにします。これは、ビジネス側と IT 側をパートナーとして結び付け、組織に価値を生み出す実践です。
DevOps は、ソフトウェア開発および IT 業界における方法論です。一連のプラクティスとツールとして使用される DevOps は、システム開発ライフサイクルを改善および短縮する手段として、ソフトウェア開発と IT 運用の作業を統合および自動化します。
マイクロサービスは、サービス指向アーキテクチャの最新の反復を定義します。このアーキテクチャでは、アプリケーションはモノリスとして記述されるのではなく、アプリケーション プログラミング インターフェイス (API) を介して個別のコンポーネント (サービスと呼ばれる機能のビット) を結合することによって構築されます。
AI(人工知能)は、人間の認知機能をシミュレートしようとする技術です。AI はさまざまな方法でソフトウェア開発分野に進出しています。AI に関する知識を広げるには、AI 記事リストをご覧ください。
バリュー ストリーム管理では、組織内の人々がワークフローやその他のプロセスを検証し、リソース、時間、資産の無駄を排除しながら、努力から最大限の価値を引き出せるようにします。これは、ビジネス側と IT 側をパートナーとして結び付け、組織に価値を生み出す実践です。
毎年恒例の Red Hat Summit イベントで、人気の高いオープンソース企業は AI 戦略に関するいくつかの発表を行いました。
同社は、Red Hat Lightspeed をより多くの製品に拡張し、OpenShift AI のアップデートを発表し、Red Hat Enterprise Linux (RHEL) AI をリリースし、Podman AI Lab を導入しました。
この生成 AI サービスは、2023 年末に初めて Ansible に組み込まれました。
Red Hat によると、OpenShift Lightspeed は、デプロイメントと管理のプロセスに生成 AI を適用することで、開発者が OpenShift を操作する方法を変えます。たとえば、クラスターが容量いっぱいになると、Lightspeed はユーザーに自動スケーリングを有効にするよう提案する場合があります。
RHEL では、Lightspeed により、CVE の修正がリリースされたときにフラグを付けてユーザーがそれを適用できるようにしたり、コマンド ラインの知識が限られているユーザーがメンテナンス ウィンドウにパッチをスケジュールできるようにしたりするなど、一般的な質問に答えて問題を解決することで、ユーザーは Linux の操作を簡素化できるようになります。
「Red Hat Lightspeed は AI を即座に活用し、Red Hat Enterprise Linux によるハイブリッドクラウドの基盤の構築から、Red Hat OpenShift によるクラウドネイティブ アプリケーションの実現、Red Hat Ansible Automation Platform による分散環境の管理まで、既存の専門知識を拡大しながら新しいスキルを迅速に習得できるようにします」と、Red Hat のシニア バイスプレジデント兼最高製品責任者である Ashesh Badani 氏は述べています。
OpenShift AI は、企業がハイブリッド クラウド環境全体に AI を活用したアプリケーションを構築および展開できるようにするサービスです。
OpenShift AI 2.9 のリリースにより、エッジへのアプリケーションのデプロイメントのサポートが強化され、リソースが制限された環境での推論機能がサポートされるようになりました。
OpenShift AI では、複数のモデル サーバーの使用もサポートされるようになりました。これにより、ユーザーは単一のプラットフォームで複数のユース ケースに対して AI を実行できます。KServe、vLLM、テキスト生成推論サーバー (TGIS)、および LLM と Caikit-nlp-tgis ランタイムのサービング エンジンのサポートが追加されました。
さらに、更新されたプロジェクト ワークスペース、追加のワークベンチ イメージ、強化された CUDA など、モデル開発をサポートする新機能もあります。
OpenShift AI 2.9 のその他の新機能には、CodeFlare と KubeRay を使用したモニタリング視覚化、新しいアクセラレータ プロファイル、Ray による分散ワークロードなどがあります。
「企業に AI を導入するかどうかは、もはや「もし」ではなく「いつ」の問題です」とバダニは述べています。「企業は、生産性を高め、収益を促進し、市場での差別化を促進することができる、より信頼性が高く、一貫性があり、柔軟な AI プラットフォームを必要としています。大規模な企業 AI の需要に対する Red Hat の答えは、Red Hat OpenShift AI です。これにより、IT リーダーはハイブリッドクラウドのどこにでもインテリジェントなアプリケーションを導入できるようになり、運用とモデルを必要に応じて拡張および微調整して、実稼働アプリケーションとサービスの現実に対応できるようになります。」
RHEL AI を使用すると、ユーザーは生成 AI モデルの開発、テスト、および展開のためのプラットフォームにアクセスできます。
これには、IBM のオープンソース Granite LLM ファミリーと InstructLab のモデル調整ツールのサポート対象バージョンが含まれています。
関連コンテンツ: Red Hat Enterprise Linux は RHEL のイメージモードで AI の未来を見据えています
InstructLab は、IBM と Red Hat の共同プロジェクトであり、分類法に関連付けられたデータとスキルを使用して合成データを作成し、モデルをトレーニングする IBM Research の Large-scale Alignment for chatBots (LAB) アプローチに基づいています。
「InstructLabプロジェクトは、他のオープンソースプロジェクトへの貢献と同じくらい簡単にLLMを作成、構築、貢献することで、開発者の手にLLM開発を委ねることを目指しています」とRed Hatは発表の中で述べている。
RHEL AI は、個別にデプロイできる RHEL イメージとして、または OpenShift AI を通じてアクセスできるものとして利用できます。
Red Hat は、エンタープライズ製品の配布、24 時間 365 日の生産サポート、および延長ライフサイクル サポートも提供しています。
「AIイノベーションへの参入障壁を真に下げるためには、企業はAIイニシアチブに取り組める人材の名簿を拡大すると同時に、こうしたコストを抑制できなければなりません。Red Hatは、InstructLabアラインメントツール、Graniteモデル、RHEL AIを活用して、自由にアクセス可能で再利用でき、透明性があり、貢献に対してオープンである真のオープンソースプロジェクトの利点をGenAIに適用し、こうした障害を取り除くことを目指しています」と同社は述べた。
Podman AI Lab は、Kubernetes コンテナを構築およびデプロイするためのグラフィカル インターフェイスである Podman Desktop の拡張機能です。
Podman AI Lab を使用すると、開発者は同様のグラフィカル インターフェイスにアクセスして、独自のデバイス上で生成 AI ワークロードを構築および展開できるようになります。
チャットボット、テキスト サマライザー、コード ジェネレーター、オブジェクト検出、音声テキスト変換など、構築できる一般的な生成 AI アプリケーション用のテンプレートを含むサンプル ライブラリが含まれています。
AI ラボには、ユーザーがモデルを操作したり観察したりできるプレイグラウンド環境も含まれています。
「AI の時代が到来しましたが、多くのアプリケーション開発者にとって、インテリジェント アプリケーションの構築は急峻な学習曲線を呈しています。Podman AI Lab は、コストのかかるインフラストラクチャ投資や広範な AI の専門知識を必要とせずに、AI モデルをコードやワークフローに安全かつよりセキュアに適用するための、使い慣れた使いやすいツールとプレイグラウンド環境を提供します」と、Red Hat のアプリケーション開発者ビジネス ユニット担当副社長兼ゼネラル マネージャーである Sarwar Raza 氏は述べています。
Red Hat、Red Hat Lightspeed、Red Hat OpenShift、RHEL
ジェナ・バロンはSDタイムズのエグゼクティブニュース編集者です。
SD Times を購読する準備はできましたか? クリックするだけです!