HyperAIHyperAI
vor 11 Tagen

MAGNET: Multi-Label Text Classification mittels attentionbasiertem Graph Neural Network

{Muru Selvakumar and Malaikannan Sankarasubbu, Ankit Pal}
Abstract

Bei der mehrfach-labelbasierten Textklassifikation (Multi-Label Text Classification, MLTC) kann ein einzelnes Beispiel mehreren Klassen zugewiesen werden. Es wird beobachtet, dass bei den meisten MLTC-Aufgaben zwischen den Labels Abhängigkeiten oder Korrelationen bestehen. Bisherige Ansätze neigen dazu, diese Beziehungen zwischen den Labels zu ignorieren. In diesem Paper wird ein Modell basierend auf einem Graphen-Attention-Netzwerk vorgestellt, das die aufmerksamkeitsbasierte Abhängigkeitsstruktur zwischen den Labels erfassen kann. Das Graphen-Attention-Netzwerk nutzt eine Merkmalsmatrix und eine Korrelationsmatrix, um die entscheidenden Beziehungen zwischen den Labels zu erfassen und zu analysieren und um Klassifizierer für die Aufgabe zu generieren. Diese generierten Klassifizierer werden auf Satzmerkmalsvektoren angewendet, die aus dem Textmerkmalsextraktionsnetzwerk (BiLSTM) stammen, um eine end-to-end-Trainingsarchitektur zu ermöglichen. Die Aufmerksamkeit erlaubt es dem System, für jedes Label unterschiedliche Gewichte für benachbarte Knoten zuzuweisen, wodurch die implizite Lernung der Beziehungen zwischen den Labels möglich wird. Die Ergebnisse des vorgeschlagenen Modells werden an fünf realen MLTC-Datensätzen validiert. Das vorgeschlagene Modell erreicht eine ähnliche oder bessere Leistung im Vergleich zu vorherigen state-of-the-art-Modellen.

MAGNET: Multi-Label Text Classification mittels attentionbasiertem Graph Neural Network | Neueste Forschungsarbeiten | HyperAI