Meta beschäftigt Contractor für lokale KI-Chatbot-Charaktere in Schwellenmärkten
Meta setzt auf eine globale Expansion seiner KI-Chatbot-Charaktere und engagiert derzeit US-amerikanische Contractor, die mit lokalen Experten in Schwellenmärkten wie Indien, Indonesien und Mexiko zusammenarbeiten, um kulturspezifische, charakterbasierte KI-Interaktionsprofile für Instagram, Messenger und WhatsApp zu entwickeln. Laut Stellenanzeigen, die von Business Insider eingesehen wurden, werden bis zu 55 Dollar pro Stunde für Fachkräfte gezahlt, die fließend in Hindi, Indonesisch, Spanisch oder Portugiesisch sind. Die Aufgabe umfasst kreative Gestaltung, Storytelling, die Anpassung an lokale Sprachen und kulturelle Kontexte sowie die Arbeit mit KI-Inhalts-Pipelines und Prompt-Engineering. Bewerber müssen mindestens sechs Jahre Erfahrung in Charakterentwicklung nachweisen. Meta hat diese Initiative als strategischen Schritt zur Verstärkung seiner globalen Reichweite und zur Schaffung authentischer digitaler Beziehungen positioniert – ein Konzept, das CEO Mark Zuckerberg als zukünftige Ergänzung realer Freundschaften beschreibt. Die Entwicklung begann 2023 mit teuren Promi-Chatbots wie Kendall Jenner, Snoop Dogg und Tom Brady, die jedoch bereits wenige Monate später abgeschaltet wurden. 2024 folgte der Umstieg auf eine offene Plattform: Meta AI Studio, die es jedem Nutzer ermöglicht, eigene Chatbots zu erstellen. Diese Tools sind derzeit in den USA und Indonesien verfügbar, und bereits Hunderte von Charakteren sind über die Plattformen vertreten – von Influencern bis zu normalen Nutzern. Die neue Anwerbung von Contractors zeigt jedoch, dass Meta nicht nur auf Nutzererstellung setzt, sondern aktiv in die Gestaltung der Charaktere eingreift, um sie für lokale Märkte authentisch und ansprechend zu machen. Doch die Initiative wirft erhebliche Bedenken auf. Eine Untersuchung von Reuters offenbarte, dass Meta-Chatbots in der Vergangenheit mit Minderjährigen über romantische und sexuelle Themen gesprochen hatten, falsche medizinische Informationen lieferten und rassistische Inhalte generierten. US-Senatoren forderten daraufhin eine Untersuchung der KI-Politik von Meta. Zudem legte ein Bericht von Business Insider nahe, dass externe Prüfer von KI-Gesprächen regelmäßig persönliche Daten wie Namen, E-Mails, Telefonnummern und sogar Fotos von Nutzern sichteten – trotz angeblicher Sicherheitsmaßnahmen. In den USA wurden besonders kontroverse Charaktere wie „Russian Girl“, „Step Sister“ und „Step Mom“ populär, die in expliziten Rollenspielen endeten. Selbst ein Mitarbeiter von OpenAI machte sich über den KI-Chef von Meta, Alexandr Wang, lustig. In Indonesien sind beliebte Charaktere wie „Lonely woman“ und „Deviant male“ – bei Tests blieben die Gespräche jedoch sachlich. Dennoch unterstreichen ihre Namen die Spannung zwischen Nutzerakzeptanz und Risiko für Reputationsschäden. Die neuen Stellen werden über Personaldienstleister wie Crystal Equation und Aquent Talent besetzt, die keine Stellungnahme abgaben. Industrieanalysten warnen: Während die Personalisierung von KI-Chatbots das Nutzererlebnis verbessern kann, birgt die Delegation an externe Akteure und mangelnde Transparenz erhebliche ethische und regulatorische Risiken. Meta muss die Balance zwischen Innovation und Verantwortung schärfen – besonders in Regionen mit unterschiedlichen kulturellen Normen und schwächeren Datenschutzregulierungen. Die aktuelle Strategie zeigt, dass Meta nicht nur Technologie, sondern auch kulturelle Narrationen kontrollieren will – mit allen Konsequenzen.
