Des applications d’IA analysent votre visage pour prédire votre espérance de vie et vos risques de maladie
Des applications d’intelligence artificielle (IA) utilisant des selfies pour prédire l’espérance de vie et les risques sanitaires sont en plein essor, suscitant à la fois de l’enthousiasme et des inquiétudes éthiques. L’une des plus notables, FaceAge, développée par des chercheurs de l’Université Harvard, analyse les photos de visage pour estimer l’âge biologique d’une personne — une mesure indirecte de sa santé globale. Lors d’un test, l’application a estimé que l’auteur de l’article, âgé de 38 ans, avait un visage correspondant à 27,9 ans dans une photo sombre, et à 38,2 ans dans une autre, selon la lumière et la qualité de l’image. Cette variabilité soulève des questions sur la fiabilité de ces outils. FaceAge se concentre sur des zones clés du visage — les sillons nasolabiaux et les tempes — pour détecter des signes précoces de vieillissement accéléré, souvent liés à des problèmes internes comme le stress, la malnutrition ou des maladies chroniques. Selon le Dr Raymond Mak, radiologue et responsable du projet, un âge biologique supérieur à l’âge chronologique est un mauvais indicateur de santé. L’objectif à long terme est d’utiliser ces données pour personnaliser les traitements, notamment en oncologie, ou anticiper des troubles avant qu’ils ne deviennent graves. Cette technologie s’inscrit dans une tendance plus large : depuis 2022, l’IA appliquée au visage s’est considérablement développée, grâce aux progrès en machine learning et en puissance de calcul. D’autres applications existent déjà : PainChek, utilisée en Australie depuis 2017, détecte la douleur chez les patients atteints de démence ; Face2Gene aide à diagnostiquer des syndromes génétiques à partir des traits faciaux, souvent mieux que les médecins humains. Des outils similaires tentent de repérer le stress post-traumatique chez les enfants ou les signes d’autisme. Cependant, ces avancées soulèvent des préoccupations éthiques majeures. Malihe Alikhani, spécialiste de l’éthique de l’IA à l’université Northeastern, met en garde contre une adoption rapide sans régulation ni compréhension des mécanismes sous-jacents. Elle rappelle que ces systèmes peuvent reproduire des biais historiques, comme la physionomie, une pseudo-science utilisée pour justifier le racisme en associant certains traits du visage à des caractéristiques morales ou sociales. Des projets antérieurs, comme l’« IA de détection de l’orientation sexuelle » de l’université Stanford (2017), ont été fortement critiqués pour leur manque de validité scientifique et leur potentiel discriminatoire. En outre, les émotions et les expressions faciales sont profondément influencées par le contexte culturel, le genre, l’état émotionnel et les conditions d’éclairage. Une photo prise sous un soleil de midi peut donner l’impression d’un visage plus âgé, tandis qu’une lumière douce ou un flou volontaire peut le rajeunir. Ces variations rendent les résultats instables, surtout sur le long terme. En conclusion, si les applications faciales basées sur l’IA offrent un potentiel révolutionnaire pour la médecine prédictive, elles restent des outils expérimentaux aux résultats variables. Leur intégration dans les soins repose sur une vigilance accrue : il est essentiel de garantir leur transparence, leur justesse scientifique, et de placer les patients au cœur du processus décisionnel, plutôt que de laisser l’IA dicter les diagnostics.