HyperAIHyperAI

Command Palette

Search for a command to run...

BertGCN: Transduktive Textklassifikation durch Kombination von GCN und BERT

Yuxiao Lin Yuxian Meng Xiaofei Sun Qinghong Han Kun Kuang Jiwei Li Fei Wu

Zusammenfassung

In dieser Arbeit stellen wir BertGCN vor, ein Modell, das die große Skalentraining (large-scale pretraining) und transduktives Lernen für die Textklassifikation kombiniert. BertGCN erstellt einen heterogenen Graphen über den Datensatz und stellt Dokumente als Knoten mittels BERT-Repräsentationen dar. Durch die gemeinsame Trainierung der BERT- und GCN-Module innerhalb von BertGCN kann das vorgeschlagene Modell die Vorteile beider Ansätze nutzen: das große Skalentraining, das den Vorteil der großen Menge an Rohdaten nutzt, sowie das transduktive Lernen, das gleichzeitig Repräsentationen sowohl für trainierbare Daten als auch für unlabeled Testdaten durch die Propagation von Label-Einflüssen über Graph-Convolutionen lernt. Experimente zeigen, dass BertGCN state-of-the-art (SOTA) Ergebnisse auf einer Vielzahl von Textklassifikationsdatensätzen erzielt. Der Quellcode ist unter https://github.com/ZeroRin/BertGCN verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp