Multiverse Computing sammelt 215 Mio. Dollar für kompakte AI-Modelle
Das spanische Start-up Multiverse Computing hat am Donnerstag eine riesige Serien-B-Rundfinanzierung in Höhe von 189 Millionen Euro (rund 215 Millionen Dollar) angekündigt. Dieser Erfolg basiert auf einer Technologie namens „CompactifAI“, die es ermöglicht, das Volumen von großen Sprachmodellen (LLMs) um bis zu 95 % zu reduzieren, ohne dabei die Leistung des Modells zu beeinträchtigen. Mit CompactifAI bietet Multiverse Computing besonders kleine Versionen bekannter Open-Source-LLMs an, darunter Llama 4 Scout, Llama 3.3 70B, Llama 3.1 8B und Mistral Small 3.1. Demnächst wird eine Version von DeepSeek R1 sowie weitere Open-Source- und Schließleistungsmodelle veröffentlicht. Es ist jedoch wichtig zu beachten, dass proprietäre Modelle von Unternehmen wie OpenAI nicht unterstützt werden. Diese „slim“-Modelle sind sowohl bei Amazon Web Services (AWS) verfügbar als auch für On-Premises-Lizenzen. Die Firma behauptet, dass ihre Modelle 4 bis 12 Mal schneller als die entsprechenden unkomprimierten Versionen sind, was sich in einer Reduktion der Inferenzkosten um 50 % bis 80 % auswirkt. Zum Beispiel kostet das komprimierte Lama 4 Scout Slim 10 Cent pro Million Tokens auf AWS, im Vergleich zu den 14 Cent des unkomprimierten Lama 4 Scout. Ein weiteres Merkmal der CompactifAI-Technologie ist, dass einige Modelle so klein und energieeffizient gestaltet werden können, dass sie sogar auf PCs, Smartphones, Autos, Drohnen und sogar auf dem beliebten kleinsten DIY-PC, dem Raspberry Pi, laufen können. Diese Möglichkeit eröffnet interessante Anwendungsfelder, wie etwa LLM-gestützte interaktive Weihnachtsbeleuchtungen oder sprechende Nikolausfiguren. Hinter Multiverse Computing steht eine beachtliche technische Expertise. Der CTO Román Orús, Mitgründer des Unternehmens, ist Professor am Donostia International Physics Center in San Sebastián, Spanien. Orús ist bekannt für seine pionierhafte Arbeit an Tensor-Netzwerken, die zwar nicht mit allen AI-bezogenen Dingen namens Tensor bei Google verwechselt werden dürfen, aber ebenfalls zur Kompression von Deep-Learning-Modellen verwendet werden. Der Co-Gründer und CEO, Enrique Lizaso Olmos, besitzt mehrere mathematische Abschlüsse und war früher College-Professor. Seine Karriere verbrachte er hauptsächlich in der Bankenbranche, wobei er vor allem als ehemaliger stellvertretender CEO von Unnim Bank bekannt ist. Die Serien-B-Rundfinanzierung wurde von Bullhound Capital angeführt, das bereits bekannte Unternehmen wie Spotify, Revolut, DeliveryHero, Avito und Discord unterstützt hat. Andere Investoren, die an der Rundfinanzierung teilnahmen, waren HP Tech Ventures, SETT, Forgepoint Capital International, CDP Venture Capital, Santander Climate VC, Toshiba und Capital Riesgo de Euskadi – Grupo SPR. Multiverse Computing verfügt über 160 Patente und zählt rund 100 Kunden weltweit zu seinen Kunden, darunter Iberdrola, Bosch und die Bank von Kanada. Bislang hat das Unternehmen insgesamt etwa 250 Millionen Dollar eingeworfen. Industrieexperten sehen in der CompactifAI-Technologie ein großes Potenzial, insbesondere im Hinblick auf die Reduzierung von Kosten und die Erweiterung der Anwendbarkeit von KI-Modellen. Sie schätzen die Innovation hoch ein, da sie die Entwicklung von energieeffizienteren und leistungsfähigeren Modellen vorantreibt, die auch auf kleinere Geräte passen. Dies könnte die Integration von KI in Alltagsobjekte und den breiten Einsatz von Sprachassistenten beschleunigen, was wiederum die Akzeptanz und Verbreitung von KI-Technologien fördern würde. Das Unternehmen selbst sieht sich als Pionier in der Entwicklung effizienter KI-Technologien und plant, das erhobene Kapital für die Weiterentwicklung seiner Technologie, die Expansion seines Kundenspektrums und die Stärkung seiner globalen Position zu nutzen.