HyperAIHyperAI
vor 2 Monaten

MEAformer: Multi-modaler Entitätsausrichtungs-Transformer für Meta-Modal-Hybriden

Zhuo Chen; Jiaoyan Chen; Wen Zhang; Lingbing Guo; Yin Fang; Yufeng Huang; Yichi Zhang; Yuxia Geng; Jeff Z. Pan; Wenting Song; Huajun Chen
MEAformer: Multi-modaler Entitätsausrichtungs-Transformer für Meta-Modal-Hybriden
Abstract

Die mehrmodale Entitätsausrichtung (MMEA) hat das Ziel, identische Entitäten in verschiedenen Wissensgraphen (KGs) zu entdecken, deren Entitäten mit relevanten Bildern verbunden sind. Aktuelle MMEA-Algorithmen basieren jedoch auf KG-basierten Modalitätsfusionsstrategien für die mehrmodale Entitätsrepräsentation, was die Unterschiede in den Modalitätspräferenzen verschiedener Entitäten übersehen lässt und somit die Robustheit gegenüber Rauschen in Modalitäten wie unscharfen Bildern und Beziehungen beeinträchtigt. In dieser Arbeit wird MEAformer vorgestellt, ein Ansatz zur mehrmodalen Entitätsausrichtung mithilfe von Transformer-Techniken für eine Meta-Modalitätshybride. MEAformer prognostiziert dynamisch die gegenseitigen Korrelationskoeffizienten zwischen den Modalitäten, um eine feingranulare Modalfusions- und -ausrichtung auf der Entitätsebene zu ermöglichen. Experimentelle Ergebnisse zeigen nicht nur, dass unser Modell in mehreren Trainingskonstellationen, einschließlich überwachter, unüberwachter, iterativer und ressourcenärmerer Einstellungen, Top-Leistungen erzielt, sondern auch, dass es eine begrenzte Anzahl von Parametern aufweist, effizient läuft und interpretierbar ist. Unser Code ist unter https://github.com/zjukg/MEAformer verfügbar.

MEAformer: Multi-modaler Entitätsausrichtungs-Transformer für Meta-Modal-Hybriden | Neueste Forschungsarbeiten | HyperAI