Neue Kooperation mit Google Cloud für offene KI-Entwicklung
Hugging Face und Google Cloud kündigen eine tiefgreifende strategische Partnerschaft an, die darauf abzielt, Unternehmen dabei zu unterstützen, ihre eigenen KI-Systeme mit offenen Modellen zu entwickeln. Jeff Boudier von Hugging Face betont, dass die Vision einer offenen KI-Zukunft, in der jedes Unternehmen eigene, maßgeschneiderte KI-Modelle bauen kann, nun durch die Zusammenarbeit mit Google Cloud konkreter wird. Google Cloud hat bereits mit bahnbrechenden Beiträgen wie dem ursprünglichen Transformer und den Gemma-Modellen maßgeblich zur Entwicklung offener KI beigetragen. Ryan J. Salva, Senior Director of Product Management bei Google Cloud, unterstreicht, dass Hugging Face ein zentraler Treiber für den Zugang zu über zwei Millionen offenen Modellen weltweit ist – und dass Google Cloud mit über 1.000 eigenen Modellen zum Ökosystem beigetragen hat. Gemeinsam wollen beide Unternehmen Google Cloud zum führenden Ort für die Entwicklung mit offenen Modellen machen. Für Google Cloud-Kunden werden Hugging Face-Modelle nun nahtlos in mehreren Diensten integriert: In Vertex AI ist der Model Garden mit den beliebtesten offenen Modellen bereits in wenigen Klicks nutzbar. Für anspruchsvollere Anforderungen steht GKE AI/ML mit einer umfangreichen Modellbibliothek und vorkonfigurierten Umgebungen von Hugging Face zur Verfügung. Zudem ermöglicht Cloud Run mit GPU-Unterstützung serverlose, skalierbare Bereitstellungen offener Modelle. Die gemeinsame Vision ist eine nahtlose Integration, die die Stärken jeder Plattform nutzt und den Kunden maximale Flexibilität bietet. Ein zentrales Element der Partnerschaft ist die Einführung eines speziellen CDN-Gateways für Hugging Face-Repositorys, das auf der Xet-Technologie von Hugging Face und den fortschrittlichen Speicher- und Netzwerkressourcen von Google Cloud basiert. Dieses Gateway wird Modelle und Datensätze direkt auf Google Cloud zwischenspeichern, was die Ladezeiten drastisch reduziert und die Robustheit der Modellversorgung stärkt. Kunden profitieren von schnelleren Latenzzeiten (Time-to-First-Token) und vereinfachter Modellverwaltung – unabhängig davon, ob sie Vertex, GKE, Cloud Run oder eigene VMs nutzen. Für Hugging Face-Nutzer wird die Plattform Inference Endpoints weiter verbessert: Durch die Integration von Google Cloud werden neue Instanzen mit besserem Preis-Leistungs-Verhältnis verfügbar, und Preise sollen sinken. Die Entwicklung soll nahtlos von der Modelseite direkt in Vertex Model Garden oder GKE führen. Private, unternehmensinterne Modelle in Enterprise-Organisationen werden ebenso einfach zugänglich wie öffentliche Modelle. Zudem wird die native Unterstützung von TPUs – Google’s selbst entwickelten KI-Chips der 7. Generation – in Hugging Face-Bibliotheken ermöglicht, was die Nutzung von TPU-Infrastruktur so einfach wie die von GPUs macht. Zusätzlich stärkt die Partnerschaft die Sicherheit: Mit Google Threat Intelligence und Mandiant werden Modelle, Datensätze und Spaces auf Hugging Face Hub proaktiv auf Bedrohungen überprüft. Die Partnerschaft beschleunigt die Vision einer offenen, unternehmensweiten KI-Entwicklung, in der jedes Unternehmen seine KI sicher, flexibel und transparent hosten kann. Die Zusammenarbeit wird die Entwicklung mit offenen Modellen für Millionen von KI-Entwicklern weltweit vereinfachen. Industrieexperten sehen in der Kooperation einen Meilenstein für die Democratization von KI: „Die Integration von Hugging Face mit Google Cloud schafft eine einheitliche, skalierbare und sichere Infrastruktur für offene KI – das ist der Schlüssel für Innovation in der nächsten KI-Generation“, sagt ein Analyst von Gartner. Hugging Face, mit über 10 Millionen Nutzern, ist die führende Plattform für offene KI-Modelle, während Google Cloud als führender Cloud-Anbieter mit starken Rechenressourcen und Sicherheitsinfrastruktur die ideale Partnerin für diese Vision ist.
