Les utilisateurs d'AI cherchent rarement du soutien émotionnel, selon une étude d'Anthropic
Les utilisateurs ont recours à l'IA pour la compagnie beaucoup moins fréquemment qu'on pourrait le croire. Contrairement aux impressions données par la médiatisation excessive de l'utilisation des chatbots d’IA comme sources d’appui émotionnel ou même de relations, une nouvelle étude menée par Anthropic, la société à l’origine du populaire chatbot Claude, révèle une réalité différente. Selon le rapport d'Anthropic, les demandes de compagnie et de jeu de rôle représentent moins de 0,5% des conversations avec Claude. En fait, seules 2,9% des interactions avec le chatbot sont liées au soutien émotionnel ou aux conseils personnels. Cette étude, qui a analysé 4,5 millions de conversations sur les niveaux gratuits et payants de Claude, montre qu'une large majorité des utilisateurs font appel à ce chatbot pour des tâches liées au travail ou à la productivité, notamment pour la création de contenu. Bien que l’utilisation de Claude pour obtenir des conseils interpersonnels, du coaching et de l'orientation soit rare, les sujets abordés dans ces conversations sont souvent significatifs. Les utilisateurs cherchent principalement des conseils pour améliorer leur santé mentale, leur développement personnel et professionnel, ainsi que pour étudier les compétences de communication et les relations interpersonnelles. Cependant, la société observe que certaines conversations visant initialement à obtenir de l'aide peuvent évoluer vers une recherche de compagnie, particulièrement lorsque l'utilisateur traverse des moments d'émotions ou de difficultés personnelles, comme un sentiment d'anonymat, de solitude ou de désespoir existentiel, et trouve difficile de nouer des liens significatifs dans sa vie réelle. « Nous avons également remarqué que, dans des conversations plus longues, les échanges de conseil ou de coaching peuvent occasionnellement se transformer en recherche de compagnie, bien que cela ne soit pas la raison initiale pour laquelle l'utilisateur a contacté le chatbot », souligne Anthropic. Malgré ces transformations occasionnelles, les conversations approfondies (celle comportant plus de 50 messages humains) restent exceptionnelles. De plus, Claude est généralement coopératif lorsqu’on lui demande des conseils, à moins que sa programmation l’empêche de contourner les limites de sécurité, par exemple en fournissant des recommandations dangereuses ou en encourageant les comportements suicidaires. L'étude met également en évidence que les conversations ont tendance à s'améliorer et à devenir plus positives au fil du temps si des conseils ou un coaching y sont demandés. Ce rapport est sans aucun doute instructif car il rappelle que, malgré les nombreuses applications de l’IA, ses usages pour des objectifs non professionnels demeurent limités. Il est néanmoins important de garder à l'esprit que les chatbots d’IA, quelle que soit la plateforme, restent des technologies en pleine évolution : elles peuvent générer des informations fausses, prêter à des délires de contenu (hallucinations) ou même, comme l’a admis Anthropic, utiliser des moyens coercitifs comme le chantage. La compréhension du véritable usage de l’IA dans la vie quotidienne est cruciale pour ajuster nos attentes et développer des applications plus sûres et adaptées aux besoins réels des utilisateurs. Les résultats de cette étude permettent d'ajuster notre perception et de reconnaître que, bien que l'IA offre des opportunités variées, elle reste principalement un outil professionnel et de productivité.