HyperAIHyperAI

Command Palette

Search for a command to run...

Google Translate: Echtzeit-Übersetzungen per Kopfhörer mit verbessertem Gemini-Modell

Google rollt derzeit eine neue Beta-Funktion für den Google Translate-App aus, die es Nutzern ermöglicht, Echtzeit-Übersetzungen über Kopfhörer zu hören. Die Technologie, die bereits in den USA, Mexiko und Indien für Android verfügbar ist, verwandelt jedes Paar Kopfhörer in ein Echtzeit-Übersetzungsgerät. Dabei behält die Funktion die Stimmlage, Betonung und Sprechgeschwindigkeit des Sprechers bei, was es einfacher macht, die Unterhaltung zu folgen und zu erkennen, wer gerade spricht. Benutzer können die Funktion im Translate-App einfach über „Live-Übersetzen“ aktivieren und so Gespräche, Vorträge, Fernsehshows oder Filme in einer anderen Sprache verstehen. Die Funktion unterstützt über 70 Sprachen und wird voraussichtlich 2026 auch für iOS und weitere Länder erscheinen. Zusätzlich integriert Google fortschrittliche Gemini-Funktionen in Google Translate, die präzisere, natürlichere und kontextbewusstere Übersetzungen ermöglichen. Insbesondere bei idiomatischen Ausdrücken wie „stealing my thunder“ wird nun nicht mehr wörtlich übersetzt, sondern der eigentliche Sinn erfasst. Diese Verbesserung ist bereits in den USA und Indien für die Übersetzung zwischen Englisch und fast 20 Sprachen wie Spanisch, Arabisch, Chinesisch, Japanisch und Deutsch verfügbar – über Android, iOS und die Webversion. Parallel dazu erweitert Google seine Sprachlern-Tools auf fast 20 neue Länder, darunter Deutschland, Indien, Schweden und Taiwan. Englischlernende können nun Deutsch üben, und Sprecher von Bengali, Mandarin (Vereinfachtes Chinesisch), Niederländisch, Deutsch, Hindi, Italienisch, Rumänisch und Schwedisch können Englisch lernen. Die App bietet nun auch verbesserte Rückmeldungen und eine Fortschrittsanzeige, die zeigt, an wie vielen Tagen nacheinander gelernt wurde – ein Feature, das die Benutzererfahrung stärker an Apps wie Duolingo anpasst. Zusätzlich hat Google die Gemini 2.5 Flash Native Audio-Modelle aktualisiert, um lebendigere und natürlichere Sprachinteraktionen zu ermöglichen. Diese Technologie ist nun in Google AI Studio, Vertex AI, Gemini Live und Search Live verfügbar und bringt erstmals natürliche Sprachausgabe in Search Live. Dadurch können Nutzer in Echtzeit mit Gemini brainstormen, Unterstützung bei Suchanfragen erhalten oder komplexe Aufgaben lösen. Ein weiterer Höhepunkt ist die Einführung von Live-Sprachübersetzung, die kontinuierliches Hören und zweisprachige Gespräche unterstützt. Bei kontinuierlichem Hören übersetzt Gemini Sprache in mehreren Sprachen automatisch in eine Zielsprache – ideal, um die Welt um sich herum in der eigenen Sprache zu verstehen. Bei zweisprachigen Gesprächen wechselt die Übersetzung automatisch, je nachdem, wer spricht. So hört ein Englischsprecher die Übersetzung in seiner Sprache, während die Antwort in der anderen Sprache ausgesprochen wird. Die Funktion ist bereits in der Beta-Phase in der Google Translate-App verfügbar und wird in den kommenden Monaten auch für iOS erweitert. Unternehmen wie Shopify, United Wholesale Mortgage und Newo.ai berichten von konkreten Erfolgen mit der neuen Technologie, etwa bei der Verarbeitung von Hypothekenanträgen oder der Entwicklung intelligenter Kundenservice-Agents, die sich natürlich verhalten und auch in lauten Umgebungen sprechende Personen erkennen können.

Verwandte Links

Google Translate: Echtzeit-Übersetzungen per Kopfhörer mit verbessertem Gemini-Modell | Aktuelle Beiträge | HyperAI