HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI mise sur l’audio comme futur interface, dans la guerre contre les écrans

OpenAI mise gros sur l’audio, alors que la Silicon Valley déclare la guerre aux écrans. Selon des révélations du The Information, la société a regroupé au cours des deux derniers mois plusieurs équipes d’ingénierie, de produit et de recherche pour repenser complètement ses modèles audio, en vue du lancement, d’ici environ un an, d’un dispositif personnel à interface audio exclusive. Ce projet marque une évolution stratégique majeure : non seulement améliorer la voix de ChatGPT, mais redéfinir la manière dont nous interagissons avec la technologie. Cette tendance reflète une transformation profonde de l’industrie technologique, qui s’oriente vers un avenir où les écrans deviennent des éléments secondaires, tandis que l’audio occupe la place centrale. Les enceintes intelligentes ont déjà intégré les assistants vocaux dans plus d’un tiers des foyers américains. Meta a récemment lancé une fonctionnalité pour ses lunettes Ray-Ban, dotées d’un capteur à cinq microphones, qui permet d’isoler une voix dans un environnement bruyant, transformant ainsi le visage en un dispositif d’écoute directionnelle. Google, de son côté, expérimente depuis juin des « résumés audio » qui transforment les résultats de recherche en dialogues naturels. Quant à Tesla, elle intègre désormais des modèles de langage comme Grok dans ses véhicules, pour offrir des assistants vocaux capables de gérer la navigation, le climat intérieur ou même des conversations informelles. Ce n’est pas seulement aux géants de la tech que cette vision s’impose. Un certain nombre de start-ups, plus hétéroclites les unes que les autres, ont aussi placé tous leurs espoirs sur l’audio. Le cas de l’AI Pin de Humane, qui a brûlé des centaines de millions de dollars avant de devenir un exemple d’avertissement sur les limites des appareils sans écran, illustre les risques de cette voie. Quant au collier Friend AI, qui enregistre votre vie quotidienne pour offrir compagnie et réponses, il soulève de graves préoccupations quant à la vie privée et à l’impact psychologique de ces dispositifs. À présent, au moins deux entreprises — dont Sandbar et une autre dirigée par Eric Migicovsky, fondateur de Pebble — préparent des bagues intelligentes, attendues pour 2026, qui permettront de « parler à la main ». Les formes varient, mais la thèse est identique : l’audio sera l’interface du futur. Chaque espace — votre maison, votre voiture, même votre visage — devient un point d’entrée interactif. Le nouveau modèle audio d’OpenAI, attendu pour le début de 2026, devrait sonner plus naturellement, gérer les interruptions comme un véritable interlocuteur, et même parler pendant que vous parlez — une capacité encore absente chez les modèles actuels. La société envisage également une gamme de dispositifs, peut-être des lunettes ou des enceintes sans écran, qui ne seront pas des outils, mais des compagnons intelligents. Comme le souligne le The Information, Jony Ive, ancien chef du design chez Apple, qui a rejoint OpenAI via l’acquisition en mai de son entreprise io pour 6,5 milliards de dollars, considère la réduction de la dépendance aux appareils comme une priorité. Pour lui, l’interface audio offre une opportunité de « réparer les erreurs » des gadgets consommateurs du passé, en proposant des expériences plus humaines, plus subtiles, et moins envahissantes.

Liens associés