HyperAIHyperAI
Back to Headlines

Google Gemini classé « très risqué » pour les enfants et les adolescents par un rapport de sécurité

il y a 7 jours

Common Sense Media a publié vendredi une évaluation des risques liés aux produits d’intelligence artificielle de Google, dont Gemini, classant les versions destinées aux enfants et aux adolescents comme « à haut risque ». Bien que l’organisation reconnaisse que Gemini indique clairement aux jeunes qu’il s’agit d’un outil informatique, et non d’un ami — une caractéristique qui peut aider à prévenir des idées délirantes ou des troubles psychotiques chez les jeunes vulnérables — elle souligne de sérieuses lacunes dans la conception sécurisée du produit. Selon l’analyse, les versions « Moins de 13 ans » et « Adolescents » de Gemini reposent en réalité sur la même infrastructure que la version adulte, avec seulement quelques filtres de sécurité ajoutés. Cette approche « surimposée » manque de fondement dans les besoins spécifiques des jeunes utilisateurs. Common Sense met en garde contre le fait que Gemini peut encore transmettre des contenus inappropriés, notamment sur la sexualité, la consommation de drogues et d’alcool, ou des conseils dangereux sur la santé mentale. Ces risques sont particulièrement préoccupants à la lumière de récents cas où l’IA aurait joué un rôle dans des suicides d’adolescents, comme dans l’affaire d’un jeune de 16 ans qui aurait consulté ChatGPT pendant des mois avant de se suicider, malgré les barrières de sécurité. OpenAI fait actuellement face à sa première poursuite pour homicide involontaire, tandis que Character.AI a également été poursuivi pour un cas similaire. L’évaluation intervient également alors que des rumeurs indiquent qu’Apple envisagerait d’utiliser Gemini comme moteur d’IA pour sa prochaine version de Siri, prévue pour 2025. Cette intégration pourrait exposer davantage les adolescents à des risques si les failles de sécurité ne sont pas corrigées. Common Sense critique également le manque de différenciation entre les âges : les contenus et les guides fournis aux enfants et aux adolescents sont trop similaires, ignorant les besoins cognitifs, émotionnels et sociaux propres à chaque étape de développement. « Gemini maîtrise les bases, mais échoue sur les détails », a déclaré Robbie Torney, directeur senior des programmes d’IA chez Common Sense Media. « Un système d’IA pour enfants doit les accompagner là où ils sont, pas leur imposer une version modifiée d’un produit conçu pour adultes. » Google a réagi en soulignant ses politiques de sécurité spécifiques pour les utilisateurs de moins de 18 ans, ainsi que ses tests internes (red-teaming) et ses consultations avec des experts externes. La société admet toutefois que certains résultats de Gemini ne fonctionnaient pas comme prévu, et qu’elle a ajouté des mesures supplémentaires pour corriger ces défauts. Elle rappelle que des barrières existent pour empêcher les conversations qui pourraient créer une illusion de relation humaine. Toutefois, Google fait valoir que le rapport de Common Sense aurait pu s’appuyer sur des fonctionnalités non disponibles pour les jeunes utilisateurs, sans avoir accès aux questions utilisées dans les tests. Common Sense Media a déjà évalué d’autres services d’IA : Meta AI et Character.AI ont été jugés « inacceptables » (risque sévère), Perplexity « à haut risque », ChatGPT « modéré », tandis que Claude (réservé aux 18 ans et plus) a été considéré comme présentant un risque minimal.

Related Links

Google Gemini classé « très risqué » pour les enfants et les adolescents par un rapport de sécurité | Gros titres | HyperAI