Search for a command to run...
Reverse Knowledge Distillation: Training eines großen Modells mit einem kleinen Modell für die Retina-Bild-Korrelierung bei begrenzten Daten