HyperAIHyperAI

Command Palette

Search for a command to run...

Kontrastives Lernen kehrt den Daten-Generierungsprozess um

Roland S. Zimmermann Yash Sharma Steffen Schneider Matthias Bethge Wieland Brendel

Zusammenfassung

Kontrastives Lernen hat in jüngster Zeit erheblichen Erfolg im selbstüberwachten Lernen erzielt. Bisher ist jedoch weitgehend unklar, warum die gelernten Darstellungen so effektiv auf eine Vielzahl von nachgeschalteten Aufgaben generalisieren. Hier zeigen wir, dass feedforward-Modelle, die mit Zielfunktionen trainiert werden, die der allgemein verwendeten InfoNCE-Familie angehören, daraufhin lernen, die zugrundeliegende generative Modellierung der beobachteten Daten implizit zu invertieren. Obwohl die Beweise bestimmte statistische Annahmen über das generative Modell erfordern, beobachten wir empirisch, dass unsere Ergebnisse auch dann gültig bleiben, wenn diese Annahmen erheblich verletzt werden. Unsere Theorie legt eine fundamentale Verbindung zwischen kontrastivem Lernen, generativer Modellierung und nichtlinearen unabhängigen Komponentenanalyse offen und trägt damit zu einem tieferen Verständnis der gelernten Darstellungen bei sowie zur Ableitung effektiverer kontrastiver Verlustfunktionen auf theoretischer Grundlage.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp