Red Hat、AWS AIチップで拡張された生成AI推論を提供へ
Red Hatは、Amazon Web Services(AWS)と協力し、AWSのAI専用チップ「Trainium」および「Inferentia」上で強化されたAI推論(inference)を提供すると発表した。この提携により、企業はハイブリッドクラウド環境でも高パフォーマンスで効率的な生成AI(gen AI)ワークロードをスケーラブルに実行できるようになる。Red Hat AI Inference Serverは、vLLMフレームワークを活用し、AWSのAIチップと連携することで、従来のGPUベースのEC2インスタンスと比べて価格性能が30~40%優れているとされる。 また、Red Hat OpenShiftとAWSの統合を進めるため、AWS Neuron用のオペレーターがRed Hat OpenShift OperatorHubに提供され、OpenShift AIやOpenShift Service on AWSでも利用可能になる。これにより、AIワークロードをAWSのアクセラレーターでスムーズに展開できるようになる。さらに、Red HatはAIサービスのオーケストレーションを支援する「amazon.ai Certified Ansible Collection」をリリースし、インフラの自動化を強化している。 両社は、vLLMへのAWS AIチッププラグインの開発を共同で進め、オープンソースコミュニティに貢献。vLLMは、Red Hat OpenShift AI 3で商用サポート付きで提供される「llm-d」の基盤となっており、大規模な推論を実現する。 Red HatのAIビジネスユニット上級副社長ジョー・フェルナデス氏は、「この提携により、企業はハードウェアに依存せず、柔軟かつ効率的なAI推論を実現できる」と強調。AWSのアンナプルナラボス上級副社長コリン・ブレイス氏も、「企業のAI導入を加速するための信頼できるサポート体制を提供」と述べた。 CAEの最高情報責任者ジャン=フランソワ・ガマシュ氏は、Red Hat OpenShift Service on AWSの導入により、開発者がイノベーションに集中でき、AIの統合を迅速に進められると評価。Techaisleのアナリスト、アヌラグ・アグラワル氏も、「AI推論コストの上昇に対応するため、効率性とコストの両立が重要。この提携は『どんなモデルでも、どんなハードウェアでも』の戦略を実現している」と評価している。 Red Hat AI Inference ServerのAWS AIチップ対応は、2026年1月に開発者プレビューとして提供予定。この提携は、企業が生成AIを実際の業務に活用するための基盤を強化する重要な一歩となる。
