HyperAI
Back to Headlines

Cerebras Inference Cloud kommt in AWS Marketplace - neue Ära schneller AI-Anwendungen

vor 13 Tagen

Cerebras startet Cerebras Inference Cloud im AWS Marketplace Heute auf der RAISE Summit in Paris, Frankreich, gab Cerebras Systems bekannt, dass die Cerebras Inference Cloud nun im AWS Marketplace verfügbar ist. Dies ermöglicht Unternehmenskunden eine einfache und schnelle Bereitstellung von hochleistungsfähigen KI-Inferenzlösungen, die bislang ungelösbare Probleme angehen können. Chris Grusz, Managing Director für Technologiepartnerschaften bei AWS, sagte: "Kunden können nun über ihre AWS-Konten und -Workflows die ultrschnelle Inferenz von Cerebras leicht erwerben, was es ihnen ermöglicht, Herausforderungen zu meistern, die bisher außer Reichweite waren." Die Verfügbarkeit von Cerebras Inference Cloud im AWS Marketplace vereinfacht den Einkauf und die Verwaltung für AWS-Kunden. Sie können die Cerebras-Inferenzlösungen mit neuestenFrameworks und Entwicklertools kombinieren, um agentenbasierte Anwendungen zu erstellen, die schneller entwickelt, einfacher bereitgestellt und viel reaktiver sind. Alan Chhabra, EVP Worldwide Partnerships bei Cerebras, äußerte sich wie folgt: "Wir freuen uns, die Leistungsfähigkeit der Cerebras-Inferenz Millionen von Entwicklern und Unternehmen im AWS Marketplace zur Verfügung zu stellen. Von Finanzdienstleistungen bis hin zu LLM-gestützten Entwicklertools eröffnet diese Erweiterung die Möglichkeit, die schnellsten und effizientesten KI-Anwendungen jemals bereitzustellen." Babak Pahlavan, Gründer und CEO von NinjaTech AI, ergänzte: "Mit Cerebras im AWS Marketplace steht das schnellste KI-Rechensystem der Welt nun mit der Einfachheit des AWS-Cloud-Buttons zur Verfügung. AWS ist ein langjähriger und bevorzugter Cloud-Partner von NinjaTech AI, und die Verfügbarkeit von Cerebras im AWS Marketplace macht es für uns und andere noch einfacher, unglaublich schnelle KI-Agenten zu bauen." Die Cerebras Inference Cloud wird von dem weltweit größten und schnellsten kommerziell verfügbaren KI-Prozessor, dem Wafer-Scale Engine-3, angetrieben. Das CS-3-System von Cerebras ermöglicht es, Modelle ohne die Komplexität verteilten Rechnens einfach und schnell auf Supercomputern zu platzieren. Cerebras-Inferenz bietet Durchbruchsgeschwindigkeiten in der Inferenz, wodurch Kunden in der Lage sind, fortschrittliche KI-Anwendungen zu schaffen. Führende Unternehmen, Forschungseinrichtungen und Regierungen nutzen Cerebras-Lösungen sowohl für die Entwicklung eigener Modelle als auch für das Trainieren von Open-Source-Modellen, die Millionen von Downloads haben. Zusätzlich zur Cerebras Cloud kann die Cerebras Inference Cloud auch lokal installiert werden, wodurch Kunden Flexibilität in der Nutzung und Bereitstellung von KI-Lösungen genießen. Für weitere Informationen besuchen Sie bitte cerebras.ai oder folgen Sie uns auf LinkedIn, X und/oder Threads. Branchenexperten sehen in der Verfügbarkeit der Cerebras Inference Cloud im AWS Marketplace einen wichtigen Schritt zur Beschleunigung der KI-Entwicklung und -Bereitstellung. Es wird erwartet, dass dieses System die Entwicklung interaktiver und intelligent agenterbasierter KI-Anwendungen revolutioniert und Unternehmen dabei unterstützt, komplexere und anspruchsvollere Aufgaben zu lösen. Cerebras Systems ist bekannt für seine innovativen Ansätze in der KI-Hardwareentwicklung und hat sich als führender Anbieter von leistungsstarken KI-Rechensystemen etabliert.

Related Links