HyperAIHyperAI
vor einem Monat

Tiefe Modelle der Interaktionen zwischen Mengen

Jason Hartford; Devon R Graham; Kevin Leyton-Brown; Siamak Ravanbakhsh
Tiefe Modelle der Interaktionen zwischen Mengen
Abstract

Wir nutzen tiefes Lernen, um Interaktionen zwischen zwei oder mehreren Objektmengen zu modellieren, wie zum Beispiel Benutzer-Film-Bewertungen, Protein-Drogen-Bindungen oder ternäre Benutzer-Element-Schlagwort-Interaktionen. Die kanonische Darstellung solcher Interaktionen ist eine Matrix (oder ein hochdimensionaler Tensor) mit einer Austauschbarkeitseigenschaft: die Bedeutung der Kodierung ändert sich nicht durch das Vertauschen von Zeilen oder Spalten. Wir argumentieren, dass Modelle daher permutationsäquivalent (PE) sein sollten: sie sind darauf eingeschränkt, bei solchen Permutationen dieselben Vorhersagen zu treffen. Wir präsentieren ein Parametersharing-Verfahren und beweisen, dass es ohne Verletzung der PE nicht ausdrucksstärker gemacht werden kann. Dieses Verfahren bietet drei Vorteile. Erstens zeigen wir Spitzenleistungen in mehreren Benchmarks zur Matrixvervollständigung. Zweitens benötigen unsere Modelle eine Anzahl von Parametern, die unabhängig von der Anzahl der Objekte ist, und skalieren daher gut auf große Datensätze. Drittens können die Modelle über neue Objekte abgefragt werden, die während des Trainings nicht verfügbar waren, aber seitdem beobachtete Interaktionen haben. In Experimenten erreichten unsere Modelle überraschend gute Generalisierungsleistungen bei dieser Matrixextrapolationsaufgabe, sowohl innerhalb von Domains (z.B. neue Benutzer und neue Filme aus derselben Verteilung wie beim Training) als auch sogar über Domains hinweg (z.B. Musikbewertungen vorhersagen nach dem Training mit Filmen).

Tiefe Modelle der Interaktionen zwischen Mengen | Neueste Forschungsarbeiten | HyperAI