NVIDIA、RTX PCで加速するオープンソースAIツール群をCES 2026で発表
NVIDIAはCES 2026で、AI PC開発者向けの複数のアップデートを発表した。特に、NVIDIA RTX搭載PC上で小規模言語モデル(SLM)や拡散モデル(diffusion model)の処理速度が大幅に向上。FLUX.2、GPT-OSS-20B、Nemotron 3 Nanoといったモデルの実行効率が改善され、開発者によるローカルAI開発の裾野が広がっている。AI PCフレームワークとして人気のComfyUI、llama.cpp、Ollama、Unslothは過去1年間で利用者が10倍に増加。これらのツールはNVIDIAとオープンソースコミュニティの協力により、GPU性能を最大限に引き出している。 ComfyUIではPyTorch-CUDAを活用し、NVFP4とFP8という低精度形式をサポート。これによりメモリ使用量が最大60%削減され、NVFP4では平均3倍、FP8では2倍の性能向上が実現。モデルのロード時間もRTX GPUで最大15%、DGX Sparkで65%短縮。llama.cppでは、混合専門家モデル(MoE)のトークン生成速度が35%向上。GPUにサンプリング処理を移行し、応答の質と一貫性を高めるほか、並列処理やMMVQカーネル最適化によりGPU利用率を向上。NVIDIA Blackwell GPUではNVFP4のハードウェアレベルサポートにより、プロンプト処理が最大25%高速化。 Ollamaも更新され、RTX PCでの推論性能が30%向上。Nemotron 3 Nanoは320億パラメータのMoEモデルで、36億のアクティブパラメータと100万トークンのコンテキスト窓を備え、コード生成やSTEMタスクで優れた性能を発揮。Ollamaやllama.cppでRTX PCで動作可能。また、Unslothを用いたLoRAファインチューニングが可能で、開発者が自由にカスタマイズできる。 RAG(検索拡張生成)では、IBMが開発しLinux Foundationに寄付されたDoclingが強化。RTX PC上でCPUより最大4倍の処理速度を実現。複数モダリティ対応のVLMベースパイプラインも提供。 さらに、NVIDIAとLightricksが共同開発したLTX-2モデルが公開。4K解像度、50fps、最大20秒の同期音声映像をローカルで生成可能。NVFP8版でメモリ使用量を30%削減。音声・映像効果SDKも強化され、AIリライト機能が3倍高速化、GPU要件がRTX 3060以上に低下。 これらの進展により、開発者はローカルで高品質なエージェントAIやマルチメディアアプリを構築できるようになり、AI開発の民主化が加速している。
