IBM: Unternehmen verwenden vielfältige KI-Modelle für spezifische Anwendungsfälle
IBM bemerkt, dass Unternehmenskunden bei Künstlicher Intelligenz (KI) alles nutzen, was ihnen zur Verfügung steht. Die Herausforderung besteht darin, das richtige große Sprachmodell (LLM) für den jeweiligen Anwendungsfall zu finden. Am 25. Juni 2025 erläuterte Armand Ruiz, Vice President der AI-Plattform bei IBM, auf der VB Transform-Konferenz, wie IBM generative KI und deren Einsatz durch Unternehmenskunden betrachtet. Ein zentrales Thema war, dass Unternehmen zunehmend von mono-vendor-AI-Strategien abrücken und stattdessen auf mehrere Modelle ausgerichtete Ansätze bevorzugen, die spezifische LLMs für gezielte Anwendungsfälle auswählen. IBM verfügt über eigene Open-Source-AI-Modelle wie die Granite-Familie, setzt diese Technologie jedoch nicht als einzige oder universell passende Option ein. Dieses Verhalten der Unternehmen führt IBM dazu, sich nicht als Wettbewerber für grundlegende Modelle zu positionieren, sondern vielmehr als Kontrollturm für KI-Arbeitslasten. Ruiz erklärte, dass seine Kunden alles nutzen, was sie haben: "Für das Codieren lieben sie Anthropic, für andere Anwendungsfälle wie das Reasoning bevorzugen sie o3, und bei der Anpassung von LLMs mit eigenen Daten und Feinabstimmungen setzen sie entweder auf unsere Granite-Reihe oder Mistral mit ihren kleineren Modellen, oder sogar Llama. Es geht darum, das LLM dem richtigen Anwendungsfall zuzuordnen. Und wir helfen ihnen dabei, Empfehlungen zu geben." Die Strategie des Multi-LLM-Gateways IBM hat auf diesen Marktrealitäten reagiert und ein neues Modell-Gateway veröffentlicht, das Unternehmen eine einzige API bietet, um zwischen verschiedenen LLMs zu wechseln, während gleichzeitig Sichtbarkeit und Governance über alle Bereitstellungen gewährleistet werden. Die technische Architektur ermöglicht es Kunden, für sensible Anwendungsfälle Open-Source-Modelle auf ihrem eigenen Inferenzstack laufen zu lassen, während sie gleichzeitig öffentliche APIs wie AWS Bedrock oder Google Clouds Gemini für weniger kritische Anwendungen nutzen können. "Das Gateway bietet unseren Kunden eine einzelne Schicht mit einer einzigen API, um von einem LLM zum anderen zu wechseln und Sichtbarkeit sowie Governance durchgängig zu gewährleisten," sagte Ruiz. Diese Herangehensweise widerspricht der üblichen Strategie von Anbietern, Kunden in proprietäre Ökosysteme einzubinden. IBM ist nicht der Einzige, der einen multi-vendor-Ansatz bei der Modellauswahl verfolgt. In den letzten Monaten sind mehrere Tools für Modell-Routing erschienen, die darauf abzielen, Workloads an das geeignete Modell zu leiten. Agenten-Orchestrierungs-Protokolle als kritische Infrastruktur Neben der Multi-Modell-Verwaltung arbeitet IBM an der Herausforderung der Agent-zu-Agent-Kommunikation durch offene Protokolle. Das Unternehmen hat das Agent Communication Protocol (ACP) entwickelt und es der Linux Foundation zur Verfügung gestellt. ACP ist ein Wettbewerbsangebot zu Googles Agent2Agent (A2A)-Protokoll, das in derselben Woche ebenfalls der Linux Foundation beigetreten ist. Ruiz betonte, dass beide Protokolle darauf abzielen, die Kommunikation zwischen Agenten zu erleichtern und benutzerdefinierte Entwicklungsaufgaben zu reduzieren. Er erwartet, dass die unterschiedlichen Ansätze letztendlich konvergieren und derzeit die Unterschiede zwischen A2A und ACP hauptsächlich technischer Natur sind. Die Agenten-Orchestrierungs-Protokolle bieten standardisierte Methoden, um KI-Systeme über verschiedene Plattformen und Anbieter hinweg zu vernetzen. Die technische Bedeutung wird deutlich, wenn man den Unternehmensmaßstab berücksichtigt: Einige IBM-Kunden haben bereits über 100 Agenten in Testprogrammen. Ohne standardisierte Kommunikationsprotokolle müsste jede Agent-zu-Agent-Interaktion benutzerdefiniert entwickelt werden, was eine nachhaltige Integrationslast schafft. KI geht über den Umbau von Workflows hinaus Ruiz sieht die Auswirkungen von KI auf Unternehmen heute als weitreichender als nur die Einführung von Chatbots. "Wenn Sie nur Chatbots einsetzen oder KI nur zur Kosteneinsparung nutzen, dann machen Sie keine KI," sagte Ruiz. "Ich denke, KI geht wirklich um die vollständige Transformation von Workflows und der Art, wie gearbeitet wird." Der Unterschied zwischen der Implementierung von KI und der Transformation durch KI liegt darin, wie tiefgreifend die Technologie in bestehende Geschäftsprozesse integriert wird. IBMs internes HR-Beispiel verdeutlicht diesen Wandel: Statt Mitarbeiter, die Chatbots für HR-Informationen zu befragen, übernehmen nun spezialisierte Agenten Routinenanfragen zur Entlohnung, Einstellung und Beförderung, die automatisch mit den entsprechenden internen Systemen vernetzt sind und erst bei Notwendigkeit an Menschen weitergeleitet werden. "Ich habe früher viel Zeit damit verbracht, mich mit meinen HR-Partnern abzustimmen. Jetzt erledige ich den Großteil davon mit einem HR-Agenten," erklärte Ruiz. "Je nach Frage, ob es um Entlohnung, Trennungsmanagement, Einstellung oder Beförderung geht, werden diese Vorgänge mit verschiedenen internen HR-Systemen verbunden, die wie separate Agenten fungieren." Dies stellt einen grundlegenden architektonischen Wandel dar, der vom Muster der Mensch-Computer-Interaktion zu einer computergesteuerten Workflow-Automatisierung führt. Anstatt Mitarbeiter das Arbeiten mit KI-Tools zu lehren, lernt die KI, komplette Geschäftsprozesse von Anfang bis Ende durchzuführen. Strategische Implikationen für KI-Investitionen im Unternehmen IBMs Realwelt-Bereitstellungsdaten deuten mehrere kritische Verschiebungen in der KI-Strategie von Unternehmen an: Chatbot-first-Denken aufgeben: Organisationen sollten komplett Workflows identifizieren, die transformiert werden können, anstatt konversationelle Schnittstellen zu bestehenden Systemen hinzuzufügen. Ziel ist es, menschliche Schritte zu eliminieren, nicht die Mensch-Computer-Interaktion zu verbessern. Auf Flexibilität ausgerichtete Architektur: Anstatt sich auf einzelne KI-Anbieter zu verpflichten, benötigen Unternehmen Integrationsplattformen, die das Wechseln zwischen Modellen basierend auf den Anforderungen des Anwendungsfalls ermöglichen, während Governance-Standards eingehalten werden. Investition in Kommunikationsstandards: Organisationen sollten KI-Tools bevorzugen, die aufkommende Protokolle wie MCP, ACP und A2A unterstützen, anstatt proprietäre Integrationsansätze, die Vendor-Lock-in schaffen. "Es gibt so viel zu bauen, und ich sage immer wieder, dass jeder lernen muss, wie man mit KI umgeht, insbesondere Geschäftsleiter müssen KI-fokussierte Führungskräfte werden und die Konzepte verstehen," sagte Ruiz. Industrieinsider bewerten, dass IBMs Ansatz eine wichtige Rolle bei der Förderung der KI-Adoption in Unternehmen spielt. Durch die Bereitstellung eines flexiblen Gateways und den Fokus auf standardisierte Kommunikationsprotokolle hilft IBM Unternehmen, KI effektiv und skalierbar in ihre Prozesse zu integrieren. IBM, ein etablierter Technologieleiter, zeigt hiermit, dass es sich auf die Bedürfnisse seiner Kunden einstellt und dabei den technologischen Fortschritt fördert.