HyperAIHyperAI

Command Palette

Search for a command to run...

NVIDIAで無料試用可能に!Kimi K2.5マルチモーダルAIモデルのGPU加速エンドポイント搭載

Kimi K2.5は、Kimiシリーズ最新のオープンソース多モーダル言語モデル(VLM)であり、エージェントワークフロー、チャット、推論、コード生成、数学処理など、幅広い高度なタスクに優れた性能を発揮する。このモデルは、大規模Transformerモデルのトレーニングを効率的に行うためのオープンソースフレームワーク「Megatron-LM」を基盤に構築されており、テンソル並列、データ並列、シーケンス並列の多重並列処理により、GPUリソースを最大限に活用したスケーラビリティを実現している。 Kimi K2.5は384個のエキスパートから構成され、1つの密結合層を持つことで、専門性の高いエキスパートルーティングが可能。1トークンあたりのパラメータ活性化率は3.2%と非常に効率的であり、1兆(1T)の総パラメータ数のうち、実際には328億(32.86B)のパラメータがアクティブに使用される。モデル構造は61層(1層が密結合、60層がMoE)で、64のアテンションヘッドを備え、語彙サイズは約16万4千。視覚処理には独自開発の「MoonViT3d」ビジョンタワーを採用し、画像および動画フレームを高精度の埋め込みに変換。 視覚処理に特化した16万4千語彙には、視覚関連のトークンが豊富に含まれており、多様なメディア理解を強化。NVIDIAの開発者プログラムに登録することで、build.nvidia.com上で無料でGPU加速エンドポイントを活用し、ブラウザ上でKimi K2.5を試用可能。API経由でも無料でアクセス可能で、OpenAI互換のツールコール機能を活用し、チャットに外部ツールを統合できる。 プロダクション環境向けには、NVIDIA NIMマイクロサービスが近日リリース予定。また、vLLMフレームワークによるデプロイや、NVIDIA NeMoフレームワークによるファインチューニングも可能。NeMo AutoModelを用いることで、Hugging Faceのチェックポイントを変換せずに、PyTorch分散学習で高速な微調整が実現。開発者や研究者は、ドメイン特化やエージェントワークフローに最適化したカスタマイズを迅速に実行できる。 Kimi K2.5は、NVIDIA Blackwellデータセンターから、クラウドネイティブなNIMサービスまで、さまざまな環境で展開可能。詳細はHugging FaceのモデルページおよびKimi APIプラットフォームで確認可能。

関連リンク

NVIDIAで無料試用可能に!Kimi K2.5マルチモーダルAIモデルのGPU加速エンドポイント搭載 | 人気の記事 | HyperAI超神経