HyperAIHyperAI
vor 16 Tagen

Lernen tiefer Kerne für nichtparametrische Zwei-Stichproben-Tests

Feng Liu, Wenkai Xu, Jie Lu, Guangquan Zhang, Arthur Gretton, Danica J. Sutherland
Lernen tiefer Kerne für nichtparametrische Zwei-Stichproben-Tests
Abstract

Wir schlagen eine Klasse von kernelbasierten Zwei-Stichproben-Tests vor, die darauf abzielen, zu bestimmen, ob zwei Stichproben aus derselben Verteilung stammen. Unsere Tests basieren auf Kernen, die durch tiefe neuronale Netze parametrisiert sind und so trainiert werden, dass die Teststärke maximiert wird. Diese Kerne passen sich Variationen der Verteilungsglättung und -form im Raum an und eignen sich insbesondere für hohe Dimensionen und komplexe Daten. Im Gegensatz dazu sind die in vorangegangenen Arbeiten verwendeten einfachen Kerne räumlich homogen und weisen lediglich eine Anpassung an die Längenskala auf. Wir erläutern, wie dieser Ansatz populäre klassifikatorbasierte Zwei-Stichproben-Tests als Spezialfall umfasst, jedoch im Allgemeinen überlegen ist. Wir liefern den ersten Konsistenzbeweis für die vorgeschlagene Anpassungsmethode, der sowohl für Kerne auf tiefen Merkmalen als auch für einfachere Radialbasis-Kerne oder mehrfache Kernel-Lernverfahren gilt. In Experimenten belegen wir die überlegene Leistung unserer tiefen Kerne bei Hypothesentests auf Benchmark- und realen Datensätzen. Der Quellcode unserer auf tiefen Kernen basierenden Zwei-Stichproben-Tests ist unter https://github.com/fengliu90/DK-for-TST verfügbar.

Lernen tiefer Kerne für nichtparametrische Zwei-Stichproben-Tests | Neueste Forschungsarbeiten | HyperAI