HyperAIHyperAI

Command Palette

Search for a command to run...

Erweitern von vortrainierten Sprachmodellen mit Entitätsinformationen für die Relationenklassifizierung

Shanchan Wu; Yifan He

Zusammenfassung

Die Klassifikation von Beziehungen ist eine wichtige Aufgabe im Bereich der natürlichsprachlichen Verarbeitung (NLP), die es ermöglicht, Beziehungen zwischen Entitäten zu extrahieren. Die neuesten Methoden zur Beziehungs klassifikation basieren hauptsächlich auf Faltungs- oder Rekurrenten Neuronalen Netzen. Kürzlich erzielt das vortrainierte BERT-Modell sehr erfolgreiche Ergebnisse in vielen NLP-Klassifikations- und Sequenzbeschriftungsaufgaben. Die Beziehungs klassifikation unterscheidet sich von diesen Aufgaben dadurch, dass sie sowohl auf Informationen des Satzes als auch auf die beiden Zielentitäten angewiesen ist. In dieser Arbeit schlagen wir ein Modell vor, das sowohl das vortrainierte BERT-Sprachmodell nutzt als auch Informationen der Zielentitäten integriert, um die Beziehungs klassifikation zu bewältigen. Wir lokalisieren die Zielentitäten und übertragen die Informationen durch die vortrainierte Architektur und integrieren die entsprechende Kodierung der beiden Entitäten. Auf dem SemEval-2010 Task 8 relationalen Datensatz erreichen wir einen signifikanten Fortschritt gegenüber den bisher besten Methoden.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Erweitern von vortrainierten Sprachmodellen mit Entitätsinformationen für die Relationenklassifizierung | Paper | HyperAI