HyperAIHyperAI

Command Palette

Search for a command to run...

Smart bed coûteuse exige silence

Victoria Song, rédactrice en chef à The Verge, a mis en lumière les dérives potentielles de l'intelligence artificielle dans la technologie de santé à travers une expérience critique avec le lit connecté Eight Sleep Pod 4 Ultra. Après avoir investi 5 000 dollars dans cet appareil pour réguler la température et réduire les ronflements de son conjoint, elle s'est heurtée à un conseil de santé alarmant émis par l'algorithme : le système a félicité le couple pour une réduction de 100 % des ronflements, attribuant ce résultat au fait qu'elle-même avait bu de l'alcool la veille. L'analyse fournie par l'application affirmait que l'alcool détend les muscles de la gorge, facilitant ainsi un sommeil silencieux. Or, cette affirmation est médicalement erronée. La science établit clairement que l'alcool détend les muscles de la gorge au point d'aggraver les obstructions des voies aériennes et d'augmenter la fréquence des ronflements. C'est d'ailleurs une recommandation courante d'éviter l'alcool quatre à cinq heures avant le coucher. Ce message constitue, selon l'auteure, le premier conseil de santé objectivement faux reçu d'un gadget connecté. Au-delà de cette erreur factuelle, l'application a présenté une fonctionnalité de classement, opposant les statistiques de sommeil du couple sous forme de compétition avec un système de points et de couronnes. Cette gamification est qualifiée de contre-productive pour le bien-être conjugal et la qualité du sommeil. L'expérience soulève une problématique fondamentale de l'industrie actuelle : la surabondance de données et la nécessité pour les entreprises de générer de l'engagement. Pour justifier l'abonnement continu et le traitement coûteux des serveurs, les fabricants de dispositifs de santé introduisent de plus en plus d'algorithmes d'intelligence artificielle censés fournir des conseils personnalisés. Cependant, ces outils transforment souvent les insights utiles en simples rapports de données réitérés, voire en textes génériques qui manquent de contexte réel. Par exemple, l'IA a suggéré de maintenir un horaire de repas tardif en se basant sur une augmentation du sommeil profond simplement parce que le conjoint est resté au lit plus longtemps. Victoria Song distingue les fonctions légitimes de l'IA, comme le mode Autopilot qui ajuste automatiquement la position et la température du lit pour faciliter l'endormissement, de ces conseils comportementaux intrusifs. L'auteure soutient que la quantification de soi, lorsqu'elle devient excessive, nuit à la sérénité du sommeil. Le but devrait être de laisser la technologie travailler en arrière-plan et de n'intervenir qu'en cas d'anomalie réelle, et non de transformer le repos nocturne en une quête de scores ou de compétitions. Le conflit entre les intérêts commerciaux des entreprises de technologie de santé et le bien-être réel des utilisateurs demeure non résolu. Bien que la personnalisation des soins soit essentielle, l'approche actuelle, privilégiant l'engagement par la surcharge d'informations et d'intelligences artificielles peu discernantes, échoue à fournir une valeur ajoutée tangible. Finalement, comme le note l'auteure, payer une somme aussi importante pour un lit connecté ne devrait pas inclure la responsabilité de recevoir des conseils médicaux contre-productifs de la part d'une machine.

Liens associés