Les outils d'IA échouent à prédire le suicide avec fiabilité, selon une étude exhaustive
Une étude publiée le 11 septembre dans le journal PLOS Medicine révèle que les outils d’intelligence artificielle (IA) basés sur l’apprentissage automatique sont actuellement peu fiables pour prédire les comportements suicidaires. Conduite par Matthew Spittal de l’Université de Melbourne, cette recherche constitue une revue systématique et une méta-analyse de 53 études antérieures ayant utilisé des algorithmes d’apprentissage automatique pour prédire le suicide, les tentatives de suicide ou les réadmissions liées à l’autodestruction. Ces études ont analysé plus de 35 millions de dossiers médicaux et près de 250 000 cas de suicide ou d’hospitalisation pour auto-blessure. Les résultats montrent que, bien que ces algorithmes affichent une spécificité élevée – c’est-à-dire qu’ils identifient correctement une grande majorité de personnes qui ne présenteront pas de comportement suicidaire – leur sensibilité est très faible. Autrement dit, ils échouent à détecter plus de la moitié des individus qui finiront par se suicider ou récidiver par une auto-blessure. Parmi les personnes classées comme à haut risque, seulement 6 % sont effectivement décédés par suicide, et moins de 20 % ont réadmisées aux services de santé pour une auto-blessure. Les auteurs soulignent que les performances des algorithmes d’IA ne dépassent pas celles des échelles traditionnelles d’évaluation du risque suicidaire, qui ont longtemps été critiquées pour leur faible précision. De plus, la qualité globale des études analysées est jugée médiocre, avec un risque élevé ou indéterminé de biais dans la majorité des cas. En conséquence, les chercheurs concluent qu’il n’existe pas suffisamment de preuves pour justifier un changement dans les recommandations actuelles des guides cliniques. Plusieurs directives mondiales, notamment celles du Royaume-Uni et des États-Unis, déconseillent déjà d’utiliser les évaluations de risque suicidaire comme base pour attribuer des interventions après-soins, en raison de leur faible fiabilité. Cette étude confirme que les algorithmes d’IA ne surpassent pas ces outils traditionnels, et ne justifient pas une intégration dans la pratique clinique courante. Les auteurs mettent en garde contre l’excès d’enthousiasme autour de l’IA dans ce domaine, rappelant que des taux élevés de faux positifs pourraient entraîner des ressources inutiles et une désinformation des professionnels de santé. Enfin, l’étude appelle à une recherche plus rigoureuse, avec des protocoles standardisés, des échantillons représentatifs et une évaluation prospective des algorithmes, avant toute application clinique. L’IA reste prometteuse, mais son utilisation pour la prédiction du suicide reste, pour l’instant, prématurée et potentiellement risquée.
