ChatGPT favorise-t-il les jeunes ? Le biais d’âge et de genre dans les modèles d’IA menace l’équité au travail
Une étude récente révèle que les modèles linguistiques à grande échelle, comme ceux utilisés par ChatGPT, reproduisent et amplifient des biais de genre et d’âge présents dans les données d’entraînement issues d’internet. En analysant des centaines de milliers d’images provenant de sources comme IMDb et Google Image Search, ainsi que de textes en ligne utilisés pour former ces modèles, les chercheurs ont identifié un écart persistant : les femmes sont systématiquement représentées comme plus jeunes que les hommes. Ce biais de perception, ancré dans les contenus numériques, va bien au-delà de la simple image : il influence des processus concrets, notamment la notation des CV par les IA. En effet, les algorithmes d’IA peuvent interpréter les jeunes femmes comme plus « adaptées » à certains rôles, tandis que les hommes plus âgés sont perçus comme plus expérimentés ou compétents, même si leurs qualifications sont similaires. Ce biais peut ainsi exacerber le fossé salarial entre les sexes, en favorisant les candidats masculins plus âgés dans les processus de sélection automatisés. L’effet est particulièrement préoccupant dans un contexte où les entreprises utilisent de plus en plus des outils d’IA pour trier les candidatures, ce qui risque de renforcer les inégalités existantes. Les auteurs de l’étude mettent en garde contre l’idée que les modèles d’IA soient neutres ou objectifs : ils sont des reflets des biais sociaux présents dans les données qu’ils ont absorbées. Sans interventions spécifiques — comme la rééquilibration des données d’entraînement ou des algorithmes de détection de biais — ces systèmes continueront à reproduire des stéréotypes anciens. Des experts du domaine de l’intelligence artificielle soulignent que la solution ne réside pas seulement dans des ajustements techniques, mais aussi dans une réflexion éthique plus large. « Il est essentiel de comprendre que les modèles d’IA ne sont pas des entités neutres, mais des produits culturels », affirme une chercheuse en intelligence artificielle appliquée. « Si nous ne corrigeons pas les biais dès la phase de conception, nous risquons de légitimer des inégalités dans des systèmes qui prétendent être justes. » Des entreprises comme OpenAI, qui développe ChatGPT, reconnaissent ces enjeux et travaillent à intégrer des mécanismes de détection de biais. Toutefois, les experts insistent sur le fait que ces mesures doivent être transparences, auditées par des tiers et accompagnées d’une diversité réelle au sein des équipes de développement. En somme, si une IA comme ChatGPT devait « embaucher » un candidat, elle pourrait, sans intervention, favoriser un homme plus âgé, en raison de biais implicites dans ses données d’entraînement. Ce constat souligne la nécessité urgente d’adopter des pratiques plus équitables dans le développement et l’utilisation de l’intelligence artificielle, afin que ces outils servent à réduire, et non à renforcer, les inégalités sociales.
