BertGCN: Transduktive Textklassifikation durch Kombination von GCN und BERT

In dieser Arbeit stellen wir BertGCN vor, ein Modell, das die große Skalentraining (large-scale pretraining) und transduktives Lernen für die Textklassifikation kombiniert. BertGCN erstellt einen heterogenen Graphen über den Datensatz und stellt Dokumente als Knoten mittels BERT-Repräsentationen dar. Durch die gemeinsame Trainierung der BERT- und GCN-Module innerhalb von BertGCN kann das vorgeschlagene Modell die Vorteile beider Ansätze nutzen: das große Skalentraining, das den Vorteil der großen Menge an Rohdaten nutzt, sowie das transduktive Lernen, das gleichzeitig Repräsentationen sowohl für trainierbare Daten als auch für unlabeled Testdaten durch die Propagation von Label-Einflüssen über Graph-Convolutionen lernt. Experimente zeigen, dass BertGCN state-of-the-art (SOTA) Ergebnisse auf einer Vielzahl von Textklassifikationsdatensätzen erzielt. Der Quellcode ist unter https://github.com/ZeroRin/BertGCN verfügbar.