HyperAIHyperAI
vor 16 Tagen

DiffCSE: auf Unterschieden basierendes kontrastives Lernen für Satz-Embeddings

Yung-Sung Chuang, Rumen Dangovski, Hongyin Luo, Yang Zhang, Shiyu Chang, Marin Soljačić, Shang-Wen Li, Wen-tau Yih, Yoon Kim, James Glass
DiffCSE: auf Unterschieden basierendes kontrastives Lernen für Satz-Embeddings
Abstract

Wir stellen DiffCSE vor, einen unsupervisierten kontrastiven Lernansatz zur Entwicklung von Satz-Embeddings. DiffCSE lernt Satz-Embeddings, die empfindlich gegenüber Unterschieden zwischen dem ursprünglichen Satz und einem bearbeiteten Satz sind, wobei der bearbeitete Satz durch stochastisches Maskieren des ursprünglichen Satzes und anschließendes Sampling aus einem maskierten Sprachmodell generiert wird. Wir zeigen, dass DiffCSE ein Spezialfall der äquivalenz-invarianten kontrastiven Lernmethode (Dangovski et al., 2021) ist, die den klassischen kontrastiven Lernansatz verallgemeinert und Darstellungen lernt, die unempfindlich gegenüber bestimmten Arten von Daten-Augmentierungen sind, jedoch empfindlich gegenüber anderen, „schädlichen“ Arten von Augmentierungen. Unsere Experimente zeigen, dass DiffCSE unter den unsupervisierten Ansätzen zur Satzrepräsentationslernen die derzeit besten Ergebnisse erzielt und unsupervised SimCSE auf Aufgaben zur semantischen Textähnlichkeit um 2,3 absolute Punkte übertrifft.

DiffCSE: auf Unterschieden basierendes kontrastives Lernen für Satz-Embeddings | Neueste Forschungsarbeiten | HyperAI