HyperAIHyperAI

Command Palette

Search for a command to run...

InfoBERT: Verbesserung der Robustheit von Sprachmodellen aus einer informationstheoretischen Perspektive

Boxin Wang Shuohang Wang Yu Cheng Zhe Gan Ruoxi Jia Bo Li Jingjing Liu

Zusammenfassung

Großskalige Sprachmodelle wie BERT haben auf einer Vielzahl von NLP-Aufgaben state-of-the-art-Leistungen erzielt. Neuere Studien zeigen jedoch, dass solche auf BERT basierende Modelle anfällig für textbasierte adversarielle Angriffe sind. Wir zielen darauf ab, dieses Problem aus einer informationstheoretischen Perspektive anzugehen und stellen InfoBERT, einen neuartigen Lernframework zur robusteren Feinabstimmung vortrainierter Sprachmodelle, vor. InfoBERT enthält zwei auf der gegenseitigen Information basierende Regularisierer für den Modelltraining: (i) einen Information-Bottleneck-Regularisierer, der geräuschebehaftete gegenseitige Informationen zwischen Eingabe und Merkmalsdarstellung unterdrückt; und (ii) einen Robust-Feature-Regularisierer, der die gegenseitige Information zwischen lokalen robusten Merkmalen und globalen Merkmalen erhöht. Wir bieten eine konsistente theoretische Grundlage, um die Robustheit der Merkmalslernung für Sprachmodelle sowohl im Standard- als auch im adversariellen Training zu analysieren und zu verbessern. Umfangreiche Experimente zeigen, dass InfoBERT auf mehreren adversariellen Datensätzen für Aufgaben im Bereich Natural Language Inference (NLI) und Fragebeantwortung (QA) eine state-of-the-art Robustheitsgenauigkeit erreicht. Unser Code ist unter https://github.com/AI-secure/InfoBERT verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp