Réseaux de neurones à graphe dirigé acyclique

Les données structurées en graphe apparaissent de manière ubiquitaire dans les sciences et l'ingénierie. Les réseaux neuronaux de graphe (GNN) sont conçus pour exploiter le biais inductif relationnel présent dans les graphes ; ils ont été montrés comme surpassant d'autres formes de réseaux neuronaux dans des scénarios où les informations structurelles complètent les caractéristiques des nœuds. L'architecture GNN la plus courante agrège des informations à partir des voisinages basés sur le passage de messages. Sa généralité lui a permis une application large. Dans cet article, nous nous concentrons sur un type particulier, mais largement utilisé, de graphes -- les graphes orientés acycliques (DAG) -- et intégrons un biais inductif plus fort -- l'ordre partiel -- dans la conception du réseau neuronal. Nous proposons le \emph{réseau neuronal de graphe orienté acyclique}, DAGNN, une architecture qui traite les informations selon le flux défini par l'ordre partiel. Le DAGNN peut être considéré comme un cadre englobant des travaux antérieurs en tant que cas particuliers (par exemple, des modèles pour les arbres et des modèles mettant à jour les représentations des nœuds de manière récurrente), mais nous identifions plusieurs composants cruciaux que les architectures précédentes manquent. Nous menons des expériences exhaustives, y compris des études d'ablation, sur des ensembles de données représentatifs de DAG (c'est-à-dire du code source, des architectures neuronales et des modèles graphiques probabilistes) et démontrons la supériorité du DAGNN par rapport aux architectures DAG plus simples ainsi qu'aux architectures générales de graphe.