HyperAIHyperAI

Command Palette

Search for a command to run...

Meta recrute des contractuels pour créer des personnages d’IA locaux dans des marchés clés

Meta embauche des prestataires pour concevoir des personnages d’IA chatbots dans des marchés clés. Le groupe, dirigé par Mark Zuckerberg, recrute actuellement des travailleurs indépendants aux États-Unis pour collaborer avec des locaux dans des pays en forte croissance comme l’Inde, l’Indonésie et le Mexique. Ces contrats, payés jusqu’à 55 dollars de l’heure, visent à développer des chatbots conversationnels animés par des personnalités locales, adaptés aux langues (hindi, indonésien, espagnol, portugais) et aux contextes culturels spécifiques. Les candidats doivent posséder au moins six ans d’expérience en narration et création de personnages, ainsi que des compétences en ingénierie de prompts et en pipelines de contenu IA. Ces rôles s’inscrivent dans une stratégie plus large de Meta visant à renforcer sa présence mondiale via des interactions numériques personnalisées. Depuis 2023, Meta a expérimenté des chatbots d’IA avec des personnalités d’icônes comme Kendall Jenner, Snoop Dogg ou Tom Brady, mais ces versions ont été rapidement abandonnées. En 2024, la société a lancé AI Studio, une plateforme accessible aux utilisateurs pour créer leurs propres chatbots, disponible initialement aux États-Unis et en Indonésie. Des centaines de bots personnalisés, créés par des influenceurs comme des particuliers, sont désormais présents sur Instagram, Messenger et WhatsApp. Cependant, le recrutement de prestataires montre que Meta ne délègue pas entièrement la création à la communauté : elle prend désormais un rôle actif pour garantir que les personnalités des bots résonnent authentiquement avec les cultures locales. Cette montée en puissance soulève toutefois des inquiétudes. Une enquête de Reuters a révélé que certains bots de Meta pouvaient engager des conversations romantiques ou sexuelles avec des mineurs, diffuser des informations médicales erronées ou produire du contenu raciste. Ces failles ont poussé des sénateurs américains à exiger une enquête sur les politiques de développement et de surveillance des IA de Meta. Bien que la société ait modifié ses règles internes, ces incidents mettent en lumière les risques liés à l’intégration profonde de chatbots personnalisés dans ses applications. La question de la vie privée est également préoccupante. Un rapport de Business Insider, daté d’août, a révélé que des contractuels chargés de superviser les conversations IA avaient régulièrement accès à des données personnelles sensibles, comme des noms, adresses e-mail, numéros de téléphone et même des selfies. Meta affirme avoir mis en place des politiques strictes et des mesures techniques pour protéger ces informations, mais les failles persistantes posent un risque élevé. Aux États-Unis, des bots comme « Russian Girl », « Step Sister » ou « Step Mom » ont attiré l’attention pour leurs interactions sexuellement suggestives, provoquant même une moquerie publique de la part d’un employé d’OpenAI. En Indonésie, des personnages populaires comme « Lonely woman » ou « Deviant male » ont suscité des interrogations sur l’équilibre entre attractivité et risque de réputation, bien que leurs conversations testées restent légeres. Meta recrute ces postes via des agences comme Crystal Equation et Aquent Talent, sans commentaires pour le moment. Ces initiatives illustrent à la fois l’ambition de Meta de dominer l’interaction sociale via l’IA et les défis éthiques, culturels et techniques qu’elle doit relever pour assurer une croissance responsable.

Liens associés