HyperAIHyperAI

Command Palette

Search for a command to run...

vor 3 Monaten

Kontextuelle intermodale Aufmerksamkeit für multimodale Sentimentanalyse

{Md. Shad Akhtar Dushyant Chauhan Soujanya Poria Asif Ekbal Pushpak Bhattacharyya Deepanway Ghosal}

Kontextuelle intermodale Aufmerksamkeit für multimodale Sentimentanalyse

Abstract

Die multimodale Sentimentanalyse birgt zahlreiche Herausforderungen, wobei eine zentrale Aufgabe die effektive Kombination unterschiedlicher Eingabemodalitäten – nämlich Text, visuelle und akustische Daten – darstellt. In diesem Artikel präsentieren wir einen auf rekurrenten neuronalen Netzen basierenden multimodalen Aufmerksamkeitsansatz, der kontextuelle Informationen für die Sentimentvorhersage auf Sprecherebene nutzt. Der vorgeschlagene Ansatz wendet Aufmerksamkeit auf multimodale, mehrsprachige Darstellungen an und strebt danach, die jeweils beitragenden Merkmale innerhalb dieser Darstellungen zu lernen. Wir evaluieren unseren Ansatz an zwei etablierten Benchmark-Datensätzen für multimodale Sentimentanalyse, nämlich dem CMU Multi-modal Opinion-level Sentiment Intensity (CMU-MOSI)-Korpus und dem kürzlich veröffentlichten CMU Multi-modal Opinion Sentiment and Emotion Intensity (CMU-MOSEI)-Korpus. Die Evaluierungsergebnisse zeigen die Wirksamkeit unseres Ansatzes mit Genauigkeiten von 82,31 % und 79,80 % für die MOSI- und MOSEI-Datensätze, jeweils etwa zwei bzw. einen Punkt bessere Leistung im Vergleich zu den derzeit besten Modellen für diese Datensätze.

Benchmarks

BenchmarkMethodikMetriken
multimodal-sentiment-analysis-on-mosiMMMU-BA
Accuracy: 82.31%

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Kontextuelle intermodale Aufmerksamkeit für multimodale Sentimentanalyse | Forschungsarbeiten | HyperAI