HyperAIHyperAI

Command Palette

Search for a command to run...

Einführung von Self-Attention in zielgerichtete Aufmerksamkeits-Graphneuronale Netze

Sai Mitheran Abhinav Java Surya Kant Sahu Arshad Shaikh

Zusammenfassung

Session-basierte Empfehlungssysteme schlagen Nutzern relevante Artikel vor, indem sie Nutzerverhalten und Präferenzen anhand kurzfristiger, anonymisierter Sitzungen modellieren. Bestehende Ansätze nutzen Graph Neural Networks (GNNs), die Informationen durch lokale Nachrichtenübertragung von benachbarten Knoten propagieren und aggregieren. Solche graphbasierten Architekturen weisen jedoch begrenzte Darstellungsfähigkeiten auf, da ein einzelner Untergraph dazu neigt, die sequenziellen Abhängigkeiten überzufitten, anstatt komplexe Übergänge zwischen Artikeln aus verschiedenen Sitzungen adäquat zu erfassen. Wir stellen eine neue Technik vor, die einen Transformer in Kombination mit einer zielgerichteten, aufmerksamkeitsbasierten GNN nutzt. Dadurch können reichhaltigere Darstellungen gelernt werden, was sich in empirischen Leistungsverbesserungen gegenüber einer herkömmlichen zielgerichteten GNN niederschlägt. Unsere experimentellen Ergebnisse sowie Ablationsstudien zeigen, dass unser vorgeschlagenes Verfahren auf realen Benchmark-Datensätzen mit bestehenden Methoden konkurrieren kann und die herkömmlichen graphbasierten Ansätze übertrifft. Der Quellcode ist unter https://github.com/The-Learning-Machines/SBR verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp