HyperAI
Back to Headlines

Snapchats neue AR-Brillen: Leichter, mit AI und 3D

vor einem Monat

Snapchats neue AR-Brillen übertreffen die Meta Ray-Bans in wichtigen Aspekten Der Erfolg der Meta Ray-Bans hat nachgewiesen, dass es eine Nachfrage nach leichten, alltäglichen Brillen mit zusätzlicher Technologie gibt. Snap greift diesen Trend auf und präsentiert bei der Augmented World Exhibition (AWE) 2025 seine neueste Generation von Specs AR-Brillen, die die größten Schwachstellen ihrer Vorgänger adressieren. Diese neuen Specs sind leichter, verfügen über fortgeschrittene Künstliche Intelligenz (KI) und bieten innovative AR-Erfahrungen. Die fünfte Generation der Spectacles wurde 2024 veröffentlicht, war aber nur für Entwickler verfügbar, die damit neue Erfahrungen erstellen konnten. Der öffentliche Start der neuen Specs ist für 2026 geplant. Bei meiner persönlichen Testphase der fünften Generation war ich sehr beeindruckt von der realistischen AR-Erfahrung und der hervorragenden Anbindung an die dreidimensionale Welt. Das Hauptproblem war jedoch das Gewicht der Brillen, was diese Aktualisierung besonders willkommen macht. Neben den Hardwareverbesserungen erhielt auch die Software, die die Erfahrungen ermöglicht – Snap OS – zahlreiche Upgrades. Im Zeitalter der KI wäre es ohne tiefgreifende Integration von OpenAI und Google Gemini, die Entwicklern die Möglichkeit bieten, multimodale, kI-getriebene Lenses zu erstellen, nicht möglich, nützliche AR-Brillen zu entwickeln. Beispiele für die Nutzung dieser Lenses umfassen Textübersetzung, Währungsumrechnung, Rezeptsuggestion und vieles mehr. Bei Google I/O im letzten Monat zeigte Google seine lang erwarteten Smartglasses, die Gemini-Assistance, In-Lens-Displays, Lautsprecher, Kameras und Mikrofone in einem traditionellen Brillengestell vereinen. Die Kombination aus einem leichten Design, multimodaler KI-Assistance und AR-Lenses der neuen Specs ähnelt den Google-Smartglasses. Snap hat zudem neue APIs eingeführt, um Entwicklern die Erstellung sinnvoller AR-Erfahrungen zu erleichtern. Die Depth Module API ermöglicht bessere räumliche Intelligenz, indem sie 2D-Informationen von großen Sprachmodellen in die dritte Dimension übersetzt. Die Automated Speech Recognition API bietet Echtzeittranskription in über 40 Sprachen mit "hoher Genauigkeit". Schließlich kann die Snap3D API Entwicklern helfen, 3D-Objekte innerhalb von Lenses einfach zu generieren. Zusätzlich wurden Werkzeuge zur Unterstützung von Standortbasierten Erfahrungen vorgestellt. Ein Flottenmanagement-App ermöglicht es Entwicklern, mehrere Specs-Brillen über eine App zu überwachen und zu verwalten. Der "guided mode" lässt sich so programmieren, dass die Specs direkt im Single- oder Multiplayer-Modus gestartet werden können. Guided Navigation erlaubt die Erstellung von AR-gesteuerten Navigationswerkzeugen. In naher Zukunft wird es auch WebXR-Unterstützung im Browser geben, um WebXR-Erfahrungen zu ermöglichen. Entwickler, die daran interessiert sind, vor der öffentlichen Markteinführung an den Specs zu arbeiten, können sich jetzt für das Entwicklerprogramm anmelden. Bewertung durch Branchenkenner und Firmenprofile: Experten sehen in den neuen Snap Specs eine bedeutende Weiterentwicklung des AR-Brille-Marktes. Die Tatsache, dass Snap auf die Bedürfnisse der Benutzer eingegangen ist, insbesondere hinsichtlich des Gewichts und der KI-Integration, zeigt, dass das Unternehmen ernsthaft daran arbeitet, eine benutzerfreundliche und leistungsfähige AR-Lösung zu schaffen. Snap ist bekannt für seine innovativen Produkte und seine Fähigkeit, Trends aufzugreifen und zu nutzen. Die Partnerschaft mit OpenAI und Google Gemini unterstreicht Snaps Bemühen, technologisch an der Spitze zu bleiben und die Entwicklercommunity zu unterstützen.

Related Links