HyperAIHyperAI

Command Palette

Search for a command to run...

Kimi K2.5: Multimodales Modell mit NVIDIA GPU-Unterstützung jetzt verfügbar

Kimi K2.5 ist das neueste Modell der Kimi-Serie und ein offenes Multimodal-Visions-Sprachmodell (VLM), das sich durch hohe Leistungsfähigkeit bei anspruchsvollen Aufgaben wie agenter KI-Workflows, Sprachdialogen, logischem Denken, Programmierung und Mathematik auszeichnet. Es wurde mit dem Open-Source-Framework Megatron-LM trainiert, das durch Tensor-, Datensatz- und Sequenzparallelität eine effiziente Skalierung großer Transformer-Modelle auf GPUs ermöglicht. Das Modell basiert auf einer Mixture-of-Experts-Architektur mit insgesamt 384 Experten, davon nur einem gemeinsamen Experten, wobei pro Token durchschnittlich acht Experten aktiviert werden. Mit einer Gesamtgröße von 1 Billion Parametern und nur 32,86 Milliarden aktiven Parametern pro Token erreicht Kimi K2.5 eine effiziente Aktivierungsrate von 3,2 %, was die Rechenkosten senkt und die Skalierbarkeit erhöht. Die Architektur umfasst 61 Schichten (eine dichte Schicht, 60 MoE-Schichten) und 64 Aufmerksamkeitsköpfe. Der Vokabularumfang beträgt etwa 164.000 Tokens, wovon ein großer Teil speziell für visuelle Daten vorgesehen ist. Für die Bild- und Videoverarbeitung entwickelte Kimi die MoonViT3d-Vision-Tower-Technologie, die Eingabebilder und Videoframes in hochwertige Embeddings umwandelt. Die Eingabekontextlänge erstreckt sich bis zu 262.000 Tokens, was die Bearbeitung langer Dokumente und komplexe multimodale Szenarien ermöglicht. Entwickler können Kimi K2.5 kostenlos über die NVIDIA Developer Program auf build.nvidia.com nutzen, wo sie direkt im Browser mit GPU-beschleunigten Endpoints prototypen können. Die Nutzung von eigenen Daten ist dabei möglich. Für Produktionsumgebungen werden bald NVIDIA NIM-Mikroservices bereitgestellt. Über die NVIDIA-API kann das Modell ebenfalls kostenlos über eine Registrierung genutzt werden, wobei die Integration über standardisierte OpenAI-kompatible Schnittstellen erfolgt. Mit Hilfe von Tool-Calling-Funktionen können Anwendungen dynamisch externe Werkzeuge einbinden. Für effiziente Bereitstellung wird vLLM unterstützt, während die Anpassung an spezifische Anwendungsfälle durch Fine-Tuning mit dem NVIDIA NeMo Framework möglich ist. NeMo AutoModel ermöglicht schnelles, verteiltes Training direkt auf Hugging Face-Checkpoints ohne Umwandlung und unterstützt Methoden wie Supervised Fine-Tuning und parameter-effiziente Anpassungen. Industrieexperten begrüßen Kimi K2.5 als bedeutenden Fortschritt im Bereich effizienter, multimodaler KI, besonders aufgrund der Kombination aus hohem Kontextumfang, geringer Aktivierungsrate und GPU-Optimierung. Die Zusammenarbeit mit NVIDIA unterstreicht die Relevanz für industrielle Anwendungen. Kimi, ein chinesischer KI-Entwickler, positioniert sich mit diesem Modell als ernstzunehmender Akteur im globalen Markt für Open-Source-Modelle. Die Integration in NVIDIA-Ökosysteme wie NIM und NeMo bietet Entwicklern ein umfassendes Toolkit für Skalierung, Anpassung und Produktion – von der Forschung bis zur Unternehmensanwendung.

Verwandte Links