Nouvelle Avancée en Sécurité des Réseaux Sociaux : Un Cadre Robuste pour Identifier et Réparer les Structures Attaquées par des GNNs Renforcés par des Grands Modèles
Une équipe de recherche de l'Université des Posts et Télécommunications de Pékin (BUPT) et ses collaborateurs ont récemment exploré le potentiel des grands modèles pour améliorer la robustesse des réseaux de neurones graphiques (GNNs) contre les attaques. Ces travaux représentent une innovation majeure, car ils mettent en évidence à quel point les GNNs actuels, bien que combinés à des grands modèles, restent vulnérables face aux attaques adverses. Leur étude est publiée sous le titre « Les grands modèles linguistiques peuvent-ils améliorer la robustesse aux attaques des réseaux de neurones graphiques ? » lors de la conférence internationale ACM SIGKDD 2025 sur la découverte de connaissances par données et le data mining ( sources : arXiv.org, BUPT ). Dans leur article, les chercheurs présentent LLM4RGNN, un cadre de déduction structurale robuste basé sur des grands modèles. LLM4RGNN s'appuie sur ces grands modèles pour renforcer la robustesse des GNNs, faisant ainsi de ce cadre une solution efficace et polyvalente applicable à une variété de grands modèles et de structures GNN. Les expérimentations démontrent que LLM4RGNN améliore de manière constante la robustesse des GNNs face aux attaques topologiques. Même avec un taux de perturbation élevé de 40 %, la précision des GNNs utilisant LLM4RGNN peut surpasser celle des modèles non attaqués. Les chercheurs ont également créé un ensemble de données open source, utilisant GPT-4 pour évaluer et analyser la malveillance de 26 518 arêtes. Ce jeu de données permet d'affiner n'importe quel grand modèle afin qu'il dispose de la capacité robuste de déduction structurelle de GPT-4. L'intérêt de cette recherche provient de la vulnérabilité des GNNs lorsqu'ils sont la cible d'attaques adverses. Depuis quelques années, les GNNs sont de plus en plus utilisés grâce à leurs capacités exceptionnelles d'apprentissage par représentation. Ils trouvent des applications diverses, notamment dans l'analyse des réseaux sociaux, la bio-informatique, les systèmes de recommandation et le contrôle des risques financiers. Cependant, leur dépendance à la structure du graphe rend les GNNs sensibles à des modifications mineures de cette structure (par exemple, l'ajout ou la suppression d'arêtes), ce qui peut considérablement diminuer leur précision de classification et compromettre leur stabilité et généralisation. Les méthodes de défense existantes ne suffisent pas, car elles se concentrent généralement sur la conception de l'architecture du modèle ou sur des règles heuristiques pour corriger la structure du graphe. Ces approches offrent des résultats limités. Parallèlement, l'équipe a constaté que les grands modèles, comme ChatGPT, ont atteint un succès remarquable dans le domaine de l'apprentissage profond, ce qui a incité de nombreux chercheurs à chercher des possibilités d'utiliser ces modèles pour améliorer les GNNs. Bien que les travaux précédents aient principalement visé à améliorer les caractéristiques nodales via les grands modèles, l'équipe de recherche de la BUPT s'est interrogée sur la capacité de ces modèles à augmenter la robustesse des GNNs. Les premiers résultats expérimentaux ont montré que les grands modèles étaient capables d'améliorer légèrement la robustesse des GNNs, mais que la précision moyenne des GNNs diminuait toujours de 23,1 % face aux attaques topologiques. Devant cette constatation, les chercheurs ont approfondi leurs investigations pour trouver des moyens d'étendre le potentiel de résilience des grands modèles dans le contexte des GNNs. La mise au point et la validation expérimentale de LLM4RGNN constituent une réponse significative à cette question, offrant une nouvelle perspective sur le développement de la robustesse des GNNs. D'un point de vue des applications potentielles, LLM4RGNN présente de multiples avantages : Contrôle des risques financiers et détection de la fraude : En manipulant les relations de transactions, des attaquants peuvent essayer de contourner les modèles anti-fraude. LLM4RGNN est capable de restaurer les réseaux de transactions altérés, assurant ainsi le bon fonctionnement des modèles de contrôle des risques financiers sous attaque et réduisant les risques de fraude financière. Sécurité dans les réseaux sociaux : Des attaquants peuvent fausser les recommandations de contenu ou les tendances sur les plateformes de médias sociaux en manipulant les relations d'amitié. LLM4RGNN détecte et corrige ces altérations de la structure des réseaux sociaux, améliorant ainsi la fiabilité des données utilisateur et la sécurité des plateformes. Systèmes de recommandation : Les graphes d'interactions utilisateur-objet sont souvent corrompus par des activités malveillantes, telles que des évaluations mensongères ou le spam par des bots. LLM4RGNN aide les systèmes de recommandation à identifier et à réparer ces relations altérées, prévenant ainsi les manipulations malveillantes et augmentant l'équité et la fiabilité des recommandations. Ces résultats soulignent l'importance de continuer à explorer les possibilités des grands modèles pour renforcer la résilience des GNNs. La polyvalence et l'efficacité de LLM4RGNN ouvrent la voie à de nouvelles applications sécurisées et fiables dans plusieurs domaines critiques, contribuant ainsi à une meilleure protection des systèmes basés sur des graphes contre les menaces adverses.