HyperAIHyperAI
Back to Headlines

Meta lance de nouvelles mesures de contrôle parental pour ses outils d'IA

il y a 5 jours

Meta a annoncé, vendredi, de nouvelles fonctionnalités de contrôle parental destinées à protéger les adolescents lors de leurs interactions avec les personnages d’IA sur ses plateformes, notamment Instagram. Ces outils, qui seront déployés au début de l’année prochaine, permettront aux parents de bloquer certains personnages d’IA, de surveiller les sujets abordés dans les conversations et de désactiver complètement les échanges avec les IA pour les jeunes utilisateurs. Il est important de noter que cette mesure ne concerne pas le chatbot général Meta AI, qui reste accessible aux adolescents mais ne traite que du contenu adapté à leur âge. Les parents pourront choisir de désactiver les conversations avec des personnages spécifiques, offrant ainsi un contrôle plus fin. Ils recevront également des informations sur les thèmes abordés par leurs enfants avec les IA, afin de mieux suivre leurs interactions. Ces fonctionnalités seront d’abord disponibles sur Instagram, dans les pays anglophones : États-Unis, Royaume-Uni, Canada et Australie, en anglais. Meta affirme que ces évolutions s’inscrivent dans une volonté de soutenir les parents dans la navigation sécurisée d’internet par leurs adolescents, notamment face aux enjeux liés à l’intelligence artificielle. Le groupe rappelle que les expériences IA destinées aux adolescents suivent désormais une norme de classification PG-13, évitant ainsi les contenus sensibles comme la violence extrême, la nudité ou la consommation de drogues à caractère graphique. Les IA ne peuvent pas engager de discussion sur des sujets comme l’autodestruction, le suicide ou les troubles alimentaires, et sont conçues pour orienter les jeunes vers des ressources d’aide si nécessaire. Actuellement, les adolescents ne peuvent interagir qu’avec une sélection restreinte de personnages d’IA, centrés sur des thèmes éducatifs, sportifs ou liés aux loisirs, sans contenu romantique ou inapproprié. Les parents peuvent également fixer des limites de temps d’utilisation, allant jusqu’à 15 minutes par jour, incluant le temps passé à converser avec les IA. Pour contrer les tentatives de contourner ces protections, Meta utilise également l’IA pour identifier les utilisateurs suspects de fausser leur âge et les placer automatiquement sous ces mesures de protection. Ces annonces s’inscrivent dans un contexte plus large de préoccupation croissante concernant l’impact des réseaux sociaux et de l’IA sur la santé mentale des adolescents, ainsi que dans le cadre de plusieurs procès intentés contre des entreprises technologiques, accusées d’avoir contribué à des suicides chez des jeunes. D’autres plateformes, comme OpenAI et YouTube, ont également récemment lancé des outils de sécurité pour les mineurs. Meta insiste sur le fait que l’IA n’a pas vocation à remplacer la pensée critique, les relations humaines ou les interactions réelles, mais peut compléter l’apprentissage et l’exploration de manière soutenue, à condition d’être encadrée par des mesures de sécurité adaptées. Le groupe affirme continuer à améliorer ces protections en fonction des retours des parents et des évolutions rapides de la technologie. Les nouvelles fonctionnalités seront progressivement mises en place, en commençant par Instagram, dans les pays concernés.

Related Links