HyperAIHyperAI
Back to Headlines

Tigris Data will Big Cloud herausfordern

vor 17 Tagen

Die AI-Revolution treibt die Nachfrage nach Rechenleistung in die Höhe, und Startups wie CoreWeave, Together AI und Lambda Labs haben sich erfolgreich auf die Bereitstellung verteilter Rechenkapazitäten spezialisiert. Doch trotz dieser Entwicklung dominieren weiterhin die großen Cloud-Anbieter AWS, Google Cloud und Microsoft Azure beim Datenspeichern – Systeme, die ursprünglich für nahegelegene Rechenressourcen konzipiert wurden, nicht für verteilte, mehrregionale AI-Workloads. Tigris Data, ein Startup mit Gründern aus dem ehemaligen Uber-Speicher-Team, will diesen Status quo ändern. CEO Ovais Tariq betont: „Ohne Speicher ist Rechnen nichts.“ Das Unternehmen entwickelt eine AI-native Speicherplattform, die Daten dynamisch an die Rechenressourcen anpasst, automatisch repliziert und mit niedriger Latenz für Training, Inferenz und agente-basierte Workloads bereitstellt. Tigris nutzt eine Netzwerkarchitektur aus lokalisierten Rechenzentren, die mit den verteilten GPU-Infrastrukturen von Kunden synchronisiert sind. So können Daten dort gespeichert werden, wo sie gebraucht werden – etwa in Virginia, Chicago oder San Jose – ohne die hohen Ausgangsgebühren („Cloud Tax“), die die großen Anbieter für Datenübertragungen zwischen Clouds oder zur lokalen Nutzung erheben. Diese Gebühren waren für Unternehmen wie Fal.ai, einen Kunden von Tigris, ein zentraler Kostenfaktor. Laut Batuhan Taskaya, Engineering-Leiter bei Fal.ai, machten sie früher den Großteil der Cloud-Ausgaben aus. Tariq sieht darin nur ein Symptom eines tieferliegenden Problems: zentralisierte Speicherlösungen, die nicht mit der dezentralen, schnelllebigen AI-Infrastruktur Schritt halten können. Für generative AI-Startups, die große, latenzsensitive Datensätze für Bilder, Videos und Sprache verarbeiten, ist die Nähe von Speicher und Rechenleistung entscheidend. „Wenn ein AI-Agent lokale Audioverarbeitung macht, will man die niedrigste Latenz – Rechenleistung und Speicher müssen lokal sein“, sagt Tariq. Mit einer kürzlich abgeschlossenen Series-A-Finanzierung von 25 Millionen US-Dollar, angeführt von Spark Capital und mit Beteiligung von Andreessen Horowitz, will Tigris seine Infrastruktur ausbauen. Seit der Gründung im November 2021 wächst das Unternehmen jährlich um das Achtfache. Neben den bestehenden Zentren in den USA plant Tigris Expansionen in Europa (London, Frankfurt) und Asien (Singapur), um globale Kunden zu unterstützen. Ein weiterer Treiber für die Nachfrage ist die wachsende Sensibilität gegenüber Datenhoheit – besonders in regulierten Branchen wie Gesundheitswesen und Finanzen. Die Entscheidung von Salesforce, AI-Rivalen den Zugriff auf Slack-Daten zu verbieten, verdeutlicht, wie wichtig es Unternehmen ist, ihre Daten selbst zu kontrollieren. Tariq: „Die Daten sind der Treibstoff für LLMs – und Unternehmen wollen nicht, dass jemand anderes darüber bestimmt.“ Industrieexperten sehen in Tigris eine ernsthafte Herausforderung für die Big Cloud. Die Kombination aus geringeren Kosten, niedriger Latenz und dezentraler Skalierbarkeit könnte die Grundlage für eine neue Ära der AI-Infrastruktur bilden – nicht mehr von zentralen Clouds, sondern von verteilten, datenorientierten Netzwerken. Tigris positioniert sich damit nicht nur als Speicheranbieter, sondern als Plattform für die nächste Generation von dezentralen AI-Workloads.

Related Links