Apprentissage à partir des foules par modélisation des confusions courantes

Le crowdsourcing offre une solution pratique pour obtenir de grandes quantités de données étiquetées à faible coût. Toutefois, la qualité des annotations fournie par les annotateurs varie considérablement, ce qui pose de nouveaux défis pour l'apprentissage d'un modèle de haute qualité à partir d'annotations issues du crowdsourcing. Dans ce travail, nous proposons une nouvelle perspective permettant de décomposer le bruit d'annotation en deux composantes : un bruit commun partagé par les annotateurs, et un bruit individuel spécifique à chacun. Nous distinguons également la source de la confusion en tenant compte, pour chaque paire instance-annotateur, de la difficulté de l'instance et de l'expertise de l'annotateur. Nous mettons en œuvre ce nouveau modèle de crowdsourcing grâce à une solution d'apprentissage end-to-end intégrant deux types de couches d'adaptation au bruit : l'une partagée entre tous les annotateurs, afin de capturer les confusions communes, et l'autre propre à chaque annotateur, permettant de modéliser les confusions individuelles. Pour identifier la source du bruit dans chaque annotation, nous utilisons un réseau auxiliaire capable de sélectionner, en fonction à la fois de l'instance et de l'annotateur, les deux couches d'adaptation au bruit appropriées. Des expériences étendues sur des jeux de données synthétisés et des benchmarks réels démontrent l'efficacité de la solution proposée d'adaptation au bruit commun.