HyperAI
HyperAI
Hauptbereich
Startseite
GPU
Konsole
Dokumente
Preise
Pulse
Neuigkeiten
Ressourcen
Fachartikel
Notebooks
Datensätze
Wiki
Benchmarks
SOTA
LLM-Modelle
GPU-Bestenliste
Community
Veranstaltungen
Tools
Suche
Über uns
Nutzungsbedingungen
Datenschutzerklärung
Deutsch
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
Anmelden
HyperAI
Papers
Effiziente Parametrisierung von mehrdomänen-tiefen Neuronalen Netzen
vor 7 Monaten
Multi-Task-Lernen
Faltungsneuronales Netzwerk
Neuronale Netze
Ansatz/Rahmenwerk
Zusammenfassung
Paper
Benchmarks
Ressourcen
SLrepo/residual_adapter
pytorch
lukashedegaard/structured-pruning-adapters
pytorch
srebuffi/residual_adapters
pytorch
HyperAI
HyperAI
Hauptbereich
Startseite
GPU
Konsole
Dokumente
Preise
Pulse
Neuigkeiten
Ressourcen
Fachartikel
Notebooks
Datensätze
Wiki
Benchmarks
SOTA
LLM-Modelle
GPU-Bestenliste
Community
Veranstaltungen
Tools
Suche
Über uns
Nutzungsbedingungen
Datenschutzerklärung
Deutsch
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
Anmelden
HyperAI
Papers
Effiziente Parametrisierung von mehrdomänen-tiefen Neuronalen Netzen
vor 7 Monaten
Multi-Task-Lernen
Faltungsneuronales Netzwerk
Neuronale Netze
Ansatz/Rahmenwerk
Zusammenfassung
Paper
Benchmarks
Ressourcen
SLrepo/residual_adapter
pytorch
lukashedegaard/structured-pruning-adapters
pytorch
srebuffi/residual_adapters
pytorch
Ressourcen - Effiziente Parametrisierung von mehrdomänen-tiefen Neuronalen Netzen | Paper | HyperAI
0
0
19
19
171
171