Meta lance un assistant IA interne pour aider ses employés aux évaluations de performance
Le chef de produit Joseph Spisak, directeur produit au sein de Meta Superintelligence Labs, a révélé lors de la conférence TechEquity AI Summit à Sunnyvale, en Californie, que les employés de Meta s'appuient de plus en plus sur l'assistant d'intelligence artificielle interne de l'entreprise, Metamate, pour préparer leurs évaluations annuelles. Ce système, similaire à ChatGPT, est capable de parcourir les documents personnels des collaborateurs, d’analyser leurs réalisations tout au long de l’année et de produire des résumés synthétiques de leurs performances, ainsi que des retours sur leurs contributions. « Quand vient le moment de faire notre évaluation annuelle, et que je veux résumer mon travail ou ce que j’ai accompli, je demande à Metamate de chercher dans tous mes documents, de résumer ce que j’ai fait au cours de l’année, mes réussites et les retours reçus », a expliqué Spisak sur scène. « Et c’est vraiment utile. » À la suite d’une remarque du modérateur sur la possibilité de « manipuler » le système pour obtenir une meilleure évaluation, Spisak a plaisanté en évoquant une forme de « piratage de récompenses » — soulignant ainsi les risques éthiques potentiels liés à l’utilisation de l’IA dans les processus de gestion des talents. En plus des évaluations de performance, Metamate est utilisé pour diverses tâches internes : création d’applications, génération de contenu ou assistance dans la rédaction. Meta, comme de nombreuses entreprises de la Silicon Valley, intègre progressivement l’intelligence artificielle dans son fonctionnement quotidien, avec des outils comme Devmate, un assistant d’aide au codage, ou des tableaux de bord suivant l’usage de l’IA par les employés. Cependant, un employé anonyme de Meta, qui a choisi de s’exprimer à Business Insider, a noté que les résultats de Metamate restent inégaux. L’IA peine souvent à fournir des résumés pertinents sans un contexte détaillé sur les projets individuels. Malgré cela, certains utilisent l’outil pour générer des retours sur les collègues en s’appuyant sur des modèles prédéfinis, auxquels ils ajoutent des exemples concrets. Ces pratiques soulèvent des questions sur la fiabilité, la transparence et l’équité des évaluations basées sur l’IA, tout en illustrant l’ampleur de l’intégration croissante de l’intelligence artificielle dans les processus internes des grandes entreprises technologiques.
