NVIDIA DGX Cloud Lepton: Global GPU Network for Seamless AI Development and Scaling
NVIDIA DGX Cloud Lepton: 開発者向け統合AIプラットフォームの登場 AI原生アプリケーション時代が到来しています。開発者は高度なエージェンシーや物理的なAIシステムの構築に取り組んでいますが、世界各地域でのスケーリングやGPUプロバイダー間の整合性を確保することが難題となっています。これを受け、NVIDIAはDGX Cloud Leptonを発表しました。同プラットフォームは、開発者がグローバルネットワーク経由で数万台のGPUにアクセスできるように設計されており、現時点で早期アクセスが可能となっています。 DGX Cloud Leptonは、NVIDIAのコンピュートエコシステム全体にわたるGPU容量とAIサービスへの統合アクセスを提供することで、AI開発者の生産性を加速します。NVIDIAソフトウェアスタック(NVIDIA NIM、NVIDIA NeMoなど)との連携が可能で、今後NVIDIA BlueprintsやNVIDIA Cloud Functions (NVCF)のサポートも予定されています。これにより、開発者はAIアプリケーションを高速かつ大規模に構築、学習、展開することが可能になります。 主要な機能 単一プラットフォームでのGPUリソース発見と割当: 複数のクラウドプロバイダーからGPUリソースを見つけ、割当ることができます。リジョン、コスト、性能に基づいて最適なワークロード配置を決定しながら、お馴染みのAIツールでの標準化を実現しています。 一貫した開発環境: 基盤となるインフラストラクチャに関わらず、標準化された開発環境で作業できます。 多クラウド管理の円滑化: 操作の分断と摩擦を軽減し、複数のクラウドプロバイダー間でのシームレスな管理とスケーリングを可能にします。 マルチリージョンとデータ主権対応: データ居住要件を満たすために特定のリージョンのGPUにアクセスできます。消費者に近いリージョンでのワークロード展開により、パフォーマンス向上と遅延低減が可能です。 内蔵の信頼性とレジリエンシー: GPUdを使用した連続的なGPU健康監視、 inteligent workload scheduling、fault isolation を通じて安定性と予測可能性のあるパフォーマンスを確保します。 コア機能 Dev Pods: Jupyterノートブック、SSH、Visual Studio Codeを通じた対話型AI/ML開発をサポート。プロトタイピング、デバッグ、反復的なモデル実験に理想的です。 バッチジョブ: 大規模な非対話型ワークロード(モデル学習、データ前処理)を複数のノードで実行するのに適しています。CPU、GPU、メモリ要件を指定し、ノードグループを選択し、GPU利用率、メモリ消費量、GPU温度などのリアルタイムメトリクスを監視できます。 推論エンドポイント: ベースモデル、Fine-Tunedモデル、カスタム構築モデルの幅広い管理を行えます。NVIDIA NIMまたはユーザー自身のコンテナを導入できます。需要に応じて自動的にモデルレプリカをスケーリングし、健全性監視とレジリエンシー機能によりダウンタイムを削減します。 監視と観測性 DGX Cloud LeptonはGPUの健全性監視ダッシュボードを提供し、各推論エンドポイントのログを表示することで、詳細な状況とホストレベルの可視性を実現します。 利用開始方法 Web UI、コマンドラインインターフェース、SDKなどの一貫した体験を提供します。オンボーディングが完了すると、各顧客にはワークスペースが割り当てられ、GPUリソースの管理やワークロードの実行が可能になります。管理者はユーザーアクセス制御、シークレット、コンテナレジストリ、使用量クオータなどを設定し、GPUリソースをノードグループに配置します。 Early Accessプログラムへの参加 DGX Cloud Leptonの早期アクセスプログラムに参加して、生成AI開発プロセスの改善を体験しましょう。選ばれた場合は、DGX Cloud Lepton製品チームがあなたのユースケースと計算要件を理解するために協力し、新しい機能を使って革新的なアプリケーションを構築することをご支援します。 関連情報 NVIDIA DGX Cloud Leptonは、Amazon Web Services、Firebird、Fluidstack、Mistral AI、Nebius、Nscale、Scaleway、Together AIといったグローバルクラウドプロバイダーと連携しており、Hugging FaceもそのTraining Cluster as a Serviceに統合予定です。既存パートナーとしてCoreWeave、Crusoe、Firmus、Foxconn、GMI Cloud、Lambda、Yotta Data Servicesも参加しています。詳細についてはドキュメンテーションを参照ください。