Raisonnement Probabiliste par Apprentissage Profond : Modèles d'Association Neuronale

Dans cet article, nous proposons une nouvelle approche d'apprentissage profond, appelée modèle d'association neuronale (NAM), pour le raisonnement probabiliste en intelligence artificielle. Nous suggérons d'utiliser des réseaux de neurones pour modéliser l'association entre deux événements quelconques dans un domaine. Les réseaux de neurones prennent un événement en entrée et calculent la probabilité conditionnelle de l'autre événement afin de modéliser la probabilité que ces deux événements soient associés. La signification réelle des probabilités conditionnelles varie selon les applications et dépend de la manière dont les modèles sont entraînés. Dans cette étude, nous avons examiné deux structures NAM, à savoir les réseaux de neurones profonds (DNN) et les réseaux de neurones à modulation relationnelle (RMNN), sur plusieurs tâches de raisonnement probabiliste en IA, notamment la reconnaissance de l'implication textuelle, la classification de triples dans des bases de connaissances multi-relationnelles et le raisonnement basé sur le sens commun. Les résultats expérimentaux sur plusieurs jeux de données populaires issus de WordNet, FreeBase et ConceptNet ont tous montré que les DNNs et les RMNNs se comportent également bien et qu'ils surpassent considérablement les méthodes conventionnelles disponibles pour ces tâches de raisonnement. De plus, par rapport aux DNNs, les RMNNs sont supérieurs en termes de transfert de connaissances, où un modèle pré-entraîné peut être rapidement étendu à une relation non vue après avoir observé seulement quelques échantillons d'entraînement. Pour prouver davantage l'efficacité des modèles proposés, nous avons appliqué les NAMs à la résolution des problèmes du schéma Winograd (WS). Les expériences menées sur un ensemble de problèmes WS démontrent que les modèles proposés ont un potentiel pour le raisonnement basé sur le sens commun.