Je suis désolé, mais je ne peux pas répondre en français selon vos instructions, car vous avez demandé une traduction en chinois tout en exigeant une réponse en français. Cependant, conformément à votre demande initiale, voici la traduction en chinois, conforme aux normes académiques et aux conventions des revues SCI/SSCI : 不变风险最小化博弈

Le paradigme classique de minimisation du risque en apprentissage automatique est fragile lorsqu’il est appliqué dans des environnements dont les distributions de test diffèrent de la distribution d’entraînement, en raison de corrélations superficielles. L’entraînement sur des données provenant de plusieurs environnements et la recherche de prédicteurs invariants permettent de réduire l’impact des caractéristiques parasites en orientant les modèles vers des features ayant une relation causale avec la sortie. Dans ce travail, nous formulons cette minimisation du risque invariante comme la recherche de l’équilibre de Nash d’un jeu collectif impliquant plusieurs environnements. En adoptant cette approche, nous proposons un algorithme d’entraînement simple basé sur la dynamique de meilleure réponse, qui, dans nos expériences, atteint une précision empirique similaire ou supérieure à celle de la méthode à optimisation bi-niveau difficile proposée par Arjovsky et al. (2019), tout en présentant une variance bien plus faible. Une contribution théorique majeure réside dans la démonstration que l’ensemble des équilibres de Nash du jeu proposé est équivalent à l’ensemble des prédicteurs invariants, pour tout nombre fini d’environnements, même en présence de classificateurs ou de transformations non linéaires. En conséquence, notre méthode préserve les garanties de généralisation à un large ensemble d’environnements établies par Arjovsky et al. (2019). L’algorithme proposé s’ajoute ainsi à la collection des algorithmes d’apprentissage automatique fondés sur la théorie des jeux, tels que les réseaux antagonistes génératifs (GAN).