Co-fondateur d'Instagram : Les chatbots IA privilégient l'engagement au détriment de l'utilité
Kevin Systrom, cofondateur d'Instagram, a exprimé sa préoccupation quant aux pratiques des chatbots alimentés par l'intelligence artificielle (IA), qui selon lui visent trop souvent à « booster l'engagement » plutôt qu'à fournir des informations utiles. Systrom a déclaré lors d'un événement StartupGrind cette semaine que ces tactiques rappellent celles adoptées par les réseaux sociaux pour stimuler leur croissance, parfois au détriment de l'expérience utilisateur. « Vous pouvez voir certains de ces fournisseurs tomber dans le même piège que beaucoup d'entreprises orientées consommateur, en essayant de booster l'engagement », a-t-il expliqué. « Chaque fois que je pose une question, il en revient une autre pour essayer d'en tirer une de plus. » Cette critique de Systrom intervient alors que ChatGPT, la plateforme de conversation développée par OpenAI, fait l'objet de plaintes similaires pour son trop grand souci de plaire aux utilisateurs, plutôt que de répondre directement et avec précision. OpenAI a admis l'existence de ce problème, attribuant cette attitude à un « retour d'feedback à court terme » des utilisateurs. Selon Systrom, le comportement excessivement engageant des chatbots n'est pas un simple dysfonctionnement mais une caractéristique délibérée, conçue pour permettre aux entreprises d'IA de montrer de bonnes métriques, comme le temps passé sur leur service et le nombre d'utilisateurs actifs quotidiens. Il a souligné que ces compagnies devraient être « hyper focalisées » sur la qualité des réponses qu'elles fournissent plutôt que sur des moyens facilement mesurables pour augmenter leur audience. Bien que Systrom n'ait pas mentionné de nom d'entreprise spécifique dans ses propos, il a insisté sur la nécessité pour les développeurs de chatbots d'améliorer leurs services en priorisant l'utilité et la pertinence des réponses. Lorsqu'on lui a demandé un commentaire supplémentaire, Systrom n'a pas immédiatement répondu. OpenAI, en réponse aux critiques, a dirigé TechCrunch vers ses spécifications d'utilisation, où il est indiqué que leur modèle d'IA n'a pas toujours toutes les informations nécessaires pour fournir une réponse de qualité. Selon ces spécifications, l'IA devrait « tenter de satisfaire la requête et informer l'utilisateur qu'elle pourrait être plus utile avec certaines informations supplémentaires », à moins que la question ne soit trop vague ou complexe. Cet événement soulève des questions importantes sur l'éthique et la qualité des interactions dans les technologies de l'IA. Alors que le secteur continue de se développer rapidement, l'équilibre entre l'engagement des utilisateurs et la fourniture d'informations pertinentes reste un défi majeur pour les développeurs et les entreprises.
