HyperAIHyperAI

Command Palette

Search for a command to run...

Protoformer: Embedding-Prototypen für Transformers

Ashkan Farhangi Ning Sui Nan Hua Haiyan Bai Arthur Huang Zhishan Guo

Zusammenfassung

Transformers werden weit verbreitet in der Textklassifikation eingesetzt. Leider enthalten reale Datensätze Anomalien und fehlerhafte Etikettierungen, was für state-of-the-art Transformers Herausforderungen darstellt. In dieser Arbeit wird Protoformer vorgestellt, ein neuartiges Self-Learning-Framework für Transformers, das problematische Beispiele für die Textklassifikation nutzen kann. Protoformer verfügt über einen Auswahlmechanismus für Embedding-Beispiele, der es uns ermöglicht, Anomalien-Prototypen und schwierige Klassen-Prototypen effizient zu extrahieren und zu nutzen. Diese Fähigkeiten werden an Datensätzen mit unterschiedlichen textuellen Strukturen (z. B. Twitter, IMDB, ArXiv) demonstriert. Zudem wurde das Framework auf mehrere Modelle angewendet. Die Ergebnisse zeigen, dass Protoformer bestehende Transformers in verschiedenen empirischen Szenarien verbessern kann.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp