NVIDIA setzt auf kleiner Lerneinheiten für sparsame AI-Agenten.
NVIDIA behauptet, dass kleine Sprachmodelle (SLM) die Zukunft des agenziellen KI sind. Das Unternehmen argumentiert, dass die Verwendung eines großen Sprachmodells (LLM) für alle Aufgaben von KI-Agents nicht mehr sinnvoll ist, da es Kosten, Latenz und Overhead in Kauf nimmt. NVIDIA schlägt stattdessen einen Ansatz vor, bei dem Nutzungsdaten analysiert und nach verfügbaren Tools gruppiert werden. Dies bedeutet, dass spezialisierte, feinjustierte kleine Sprachmodelle für spezifische Aufgaben verwendet werden, was sowohl funktionaler als auch wirtschaftlicher ist. Der gegenwärtige Stand der Technik ist geprägt von der Verwendung sehr großer Sprachmodelle, die AI-Agenten ermöglichen, strategische Entscheidungen zu treffen, den Ablauf von Operationen zu kontrollieren und komplexe Aufgaben in kleinere Teilaufgaben zu zerlegen. Diese Modelle kommunizieren über zentralisierte Cloud-Infrastruktur, die dafür ausgelegt ist, eine große Anzahl von diversen Anfragen mit einem allgemeinen Modell zu bearbeiten. Allerdings führt dies oft dazu, dass Anwendungen optimiert werden, um den Anforderungen der LLM gerecht zu werden, was NVIDIA als ineffizient betrachtet. NVIDIA schlägt vor, Modelle anhand ihrer Unternehmensprozesse auszuwählen und fortlaufend zu verbessern. Die tatsächlichen Nutzungsdaten und Verhaltensmuster sollen genutzt werden, um die kleinen Sprachmodelle zu trainieren. Diese Vorgehensweise ermöglicht es, die Daten aus agenziellen Interaktionen zu sammeln, die wiederum zur Optimierung und Weiterentwicklung der Modelle beitragen. NVIDIA betont, dass die Verwendung von SLMs in vielen Fällen ausreichend leistungsfähig ist und gleichzeitig erheblich günstiger, schneller und ressourcenschonender ist. Kleine Sprachmodelle bieten mehrere Vorteile: Sie haben eine geringere Latenz, benötigen weniger Speicher und Rechenleistung und haben deutlich niedrigere Betriebskosten, während sie gleichzeitig in begrenzten Domänen eine angemessene Aufgabenerfüllung gewährleisten. AI-Agentensysteme dekonstruieren in der Regel komplexe Ziele in modulare Unterprozesse, die von spezialisierten oder feinjustierten SLMs zuverlässig bearbeitet werden können. NVIDIA fragt, warum man nicht von vornherein aufgefallenspezifische Modelle für spezifische Unterprozesse verwenden sollte. So könnten SLMs standardmäßig eingesetzt und LLMs nur gezielt und sparsam aktiviert werden. Moderne Trainings-, Prompting- und agenzielle Erweiterungstechniken zeigen, dass die Fähigkeit, nicht die Anzahl der Parameter, die entscheidende Einschränkung darstellt. NVIDIA glaubt, dass dieser Ansatz die Industrie revolutionieren wird und den agenziellen KI-Bereich erheblich optimieren kann. Industrie-Insider und Analysten begrüßen die Initiative von NVIDIA, da sie den wirtschaftlichen und operativen Aspekten Rechnung trägt. Die Firma hat sich im Laufe der Jahre durch innovative Technologien und visionäre Ansätze einen exzellenten Ruf im Bereich KI und GPU-Entwicklung erarbeitet. Mit diesem Vorschlag positioniert sich NVIDIA als Vorreiter in der Entwicklung effizienter und praxisnaher KI-Systeme. Die Verwendung von SLMs könnte nicht nur die Leistungsfähigkeit von KI-Agenten steigern, sondern auch die Barriere für den Einsatz von KI in verschiedenen Branchen senken.