HyperAIHyperAI

Command Palette

Search for a command to run...

Meta-Lernen mit differenzierbarer konvexer Optimierung

Kwonjoon Lee Subhransu Maji Avinash Ravichandran Stefano Soatto

Zusammenfassung

Viele Meta-Lernverfahren für Few-Shot-Lernen basieren auf einfachen Grundlernern wie nächsten-Nachbarn-Klassifizierern. Jedoch können auch im Few-Shot-Regime diskriminativ trainierte lineare Prädiktoren eine bessere Generalisierung bieten. Wir schlagen vor, diese Prädiktoren als Grundlerner zu verwenden, um Repräsentationen für Few-Shot-Lernen zu erlernen, und zeigen, dass sie bessere Kompromisse zwischen Merkmalsgröße und Leistung bei einer Reihe von Few-Shot-Erkennungsbenchmarks bieten. Unser Ziel ist es, Merkmals-Einbettungen zu erlernen, die unter einer linearen Klassifikationsregel gut generalisieren, wenn es um neue Kategorien geht. Um das Ziel effizient zu erreichen, nutzen wir zwei Eigenschaften linearer Klassifizierer: die implizite Differentiation der Optimalitätsbedingungen des konvexen Problems und die duale Formulierung des Optimierungsproblems. Dies ermöglicht es uns, hochdimensionale Einbettungen mit verbessertem Generalisierungsvermögen bei nur geringfügig erhöhtem rechnerischen Aufwand zu verwenden. Unser Ansatz, MetaOptNet genannt, erzielt den aktuellen Stand der Technik in den Few-Shot-Lernbenchmarks miniImageNet, tieredImageNet, CIFAR-FS und FC100. Unser Code ist unter https://github.com/kjunelee/MetaOptNet verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Meta-Lernen mit differenzierbarer konvexer Optimierung | Paper | HyperAI