HyperAIHyperAI
il y a 2 mois

Réseaux Neuronaux Convolutifs Auto-Appris pour le Regroupement de Textes Courts

Jiaming Xu; Bo Xu; Peng Wang; Suncong Zheng; Guanhua Tian; Jun Zhao; Bo Xu
Réseaux Neuronaux Convolutifs Auto-Appris pour le Regroupement de Textes Courts
Résumé

Le regroupement de textes courts est un problème difficile en raison de la rareté de leur représentation textuelle. Nous proposons ici un cadre flexible de réseau neuronal convolutif auto-enseignant pour le regroupement de textes courts (appelé STC²), qui peut intégrer de manière flexible et réussie des caractéristiques sémantiques plus utiles et apprendre une représentation textuelle profonde non biaisée de manière non supervisée. Dans notre cadre, les caractéristiques textuelles brutes originales sont d'abord converties en codes binaires compacts à l'aide d'une méthode existante de réduction de dimension non supervisée. Ensuite, les plongements lexicaux (word embeddings) sont explorés et alimentés aux réseaux neuronaux convolutifs pour apprendre des représentations de caractéristiques profondes, tout en utilisant les unités de sortie pour ajuster les codes binaires pré-entraînés lors du processus d'entraînement. Enfin, nous obtenons les clusters optimaux en utilisant K-means pour regrouper les représentations apprises. De nombreux résultats expérimentaux montrent que le cadre proposé est efficace, flexible et surpass plusieurs méthodes populaires de regroupement lorsque testé sur trois jeux de données publics de textes courts.

Réseaux Neuronaux Convolutifs Auto-Appris pour le Regroupement de Textes Courts | Articles de recherche récents | HyperAI