HyperAIHyperAI

Command Palette

Search for a command to run...

Mehrsprachige Modelle für kompositionale verteilte Semantik

Karl Moritz Hermann Phil Blunsom

Zusammenfassung

Wir präsentieren eine neuartige Technik zum Lernen semantischer Repräsentationen, die die Verteilungshypothese auf mehrsprachige Daten und gemeinsame Raum-Einbettungen erweitert. Unsere Modelle nutzen parallele Daten und lernen, die Einbettungen semantisch äquivalenter Sätze stark zu alignen (ausrichten), während sie gleichzeitig ausreichend großen Abstand zwischen den Einbettungen unähnlicher Sätze wahren. Die Modelle basieren nicht auf Wortalignments oder syntaktischen Informationen und werden erfolgreich auf eine Reihe verschiedener Sprachen angewendet. Wir erweitern unseren Ansatz auch, um semantische Repräsentationen auf Dokumentenebene zu lernen. Diese Modelle werden an zwei kreuzsprachlichen Dokumentklassifikationsaufgaben evaluiert, bei denen sie den bisherigen Stand der Technik übertreffen. Durch qualitative Analyse und die Untersuchung von Pivoting-Effekten zeigen wir, dass unsere Repräsentationen semantisch plausibel sind und semantische Beziehungen zwischen Sprachen ohne parallele Daten erfassen können.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp