Representation Learning
Repräsentationslernen ist ein Prozess im maschinellen Lernen, bei dem Algorithmen sinnvolle Muster aus Rohdaten extrahieren, um verständlichere und handhabbarere Datenrepräsentationen zu generieren. Diese Repräsentationen können so gestaltet werden, dass sie interpretierbar sind und verborgene Merkmale offenbaren, oder für das Transfer-Lernen verwendet werden, was für grundlegende Aufgaben wie die Bildklassifizierung und -retrieval von großer Bedeutung ist. Tiefenschichtneuronale Netze dienen als Modelle für das Repräsentationslernen und kodieren in der Regel Informationen, projizieren sie in verschiedene Unterräume und leiten sie anschließend an einen linearen Klassifikator weiter, um das Training durchzuführen. Repräsentationslernen kann in überwachtes Repräsentationslernen und unüberwachtes Repräsentationslernen unterteilt werden. Beim ersteren werden durch beschriftete Daten Repräsentationen gelernt, die anderen Aufgaben helfen, während beim letzteren Repräsentationen durch unbearbeitete Daten gelernt werden, was den Bedarf an beschrifteten Daten bei neuen Aufgaben reduziert. In den letzten Jahren ist das selbstüberwachte Lernen zu einer wichtigen treibenden Kraft hinter dem unüberwachten Repräsentationslernen geworden und findet weitreichende Anwendungen in der Computer Vision und der natürlichen Sprachverarbeitung.