AI a ruiné la maison intelligente en 2025 : pourquoi votre assistant vocal ne fait plus ce qu’il promettait
En 2025, l’ambition d’apporter une intelligence artificielle générative au foyer connecté s’est heurtée à une réalité frustrante : les assistants vocaux, censés simplifier la vie quotidienne, se révèlent moins fiables qu’auparavant. L’expérience d’un utilisateur, qui a mis à jour son éco-système Bosch-Alexa vers Alexa Plus, illustre ce décalage. Alors qu’il demandait simplement de préparer son café, l’assistant a refusé, invoquant des raisons changeantes. Ce n’est pas un cas isolé. Malgré des progrès notables en compréhension du langage naturel, les assistants comme Alexa Plus, Google Gemini pour Home ou Siri, bien qu’incroyablement plus conversationnels, peinent à exécuter des tâches basiques : allumer les lumières, lancer des routines, gérer des automatisations. Leur nouvelle « intelligence » semble parfois s’opposer à la fiabilité. L’origine de ce décalage réside dans une transformation fondamentale du système. Les anciens assistants fonctionnaient comme des « correspondances de modèles » : une commande précise, un mot-clé, et l’action suivait. Ils étaient prévisibles, mais limités. Les nouveaux assistants, basés sur des modèles de langage à grande échelle (LLM), sont conçus pour interpréter le sens, non pas le mot. Leur force est leur capacité à comprendre des phrases complexes, à improviser, à lier des actions. Mais cette flexibilité vient avec une instabilité inhérente : le hasard (stochasticité) des LLMs fait que la même requête peut produire des réponses différentes, voire des erreurs d’interprétation. L’assistant doit maintenant « composer » un appel API correct, une tâche complexe qui exige une mémoire et une précision qu’il n’a pas encore maîtrisées. Des experts comme Mark Riedl (Georgia Tech) et Dhruv Jain (Université du Michigan) expliquent que les LLMs ne sont pas conçus pour le contrôle précis des appareils, mais pour la génération de texte. Leur nature probabiliste, faite d’interprétations multiples, est incompatible avec les exigences de fiabilité du smart home. Les entreprises ont dû abandonner les anciens systèmes, mais n’ont pas encore trouvé le bon équilibre entre agilité et précision. Google et Amazon ont recours à des combinaisons de modèles (Gemini et Gemini Live, ou plusieurs couches d’IA chez Amazon), mais cela crée des incohérences : l’assistant ne sait pas toujours quand être strict ou flexible. Le coût de cette transition est élevé. Les utilisateurs deviennent des testeurs beta involontaires, en payant le prix d’un progrès technologique encore en gestation. Comme le souligne Riedl, « on doit apprendre à marcher avant de courir ». Pourtant, les géants de la tech poursuivent leur course vers l’agenticité : des assistants capables de planifier, d’anticiper, de chaîner des actions complexes. C’est un objectif noble, mais il ne doit pas se faire au détriment de la fonction première d’un assistant : exécuter une tâche simple, fiablement. En somme, 2025 a montré que l’IA générative, malgré son potentiel, n’est pas encore prête à gérer le quotidien domestique. La promesse d’un foyer intelligent, proactif et naturel, reste un horizon lointain. Les entreprises ont choisi d’innover vite, en acceptant des compromis. Le défi désormais est de savoir si les consommateurs sont prêts à attendre, et à quel prix. La confiance dans l’IA domestique, une fois ébranlée, ne se rétablit pas en un claquement de doigts.
