HyperAIHyperAI

Command Palette

Search for a command to run...

Hypersphärische Variationsautoencoder

Tim R. Davidson; Luca Falorsi; Nicola De Cao; Thomas Kipf; Jakub M. Tomczak

Zusammenfassung

Der Variational Auto-Encoder (VAE) ist eines der am häufigsten verwendeten unüberwachten maschinellen Lernmodelle. Obwohl die Standardwahl einer Gaußverteilung sowohl für die A-priori- als auch für die A-posteriori-Verteilung eine mathematisch günstige Verteilung darstellt, die oft zu wettbewerbsfähigen Ergebnissen führt, zeigen wir, dass diese Parametrisierung versagt, wenn es um Daten mit einer latente hypersphärischen Struktur geht. Um dieses Problem zu lösen, schlagen wir vor, stattdessen eine von Mises-Fisher-(vMF-)Verteilung zu verwenden, was zu einem hypersphärischen latenten Raum führt. Durch eine Reihe von Experimenten demonstrieren wir, wie ein solcher hypersphärischer VAE, oder S\mathcal{S}S-VAE, besser geeignet ist, um Daten mit einer latente hypersphärischen Struktur zu erfassen und dabei einen normalen N\mathcal{N}N-VAE in niedrigen Dimensionen bei anderen Datentypen übertrifft. Quellcode unter http://github.com/nicola-decao/s-vae-tf und https://github.com/nicola-decao/s-vae-pytorch.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Hypersphärische Variationsautoencoder | Paper | HyperAI