MEAformer: Multi-modaler Entitätsausrichtungs-Transformer für Meta-Modal-Hybriden

Die mehrmodale Entitätsausrichtung (MMEA) hat das Ziel, identische Entitäten in verschiedenen Wissensgraphen (KGs) zu entdecken, deren Entitäten mit relevanten Bildern verbunden sind. Aktuelle MMEA-Algorithmen basieren jedoch auf KG-basierten Modalitätsfusionsstrategien für die mehrmodale Entitätsrepräsentation, was die Unterschiede in den Modalitätspräferenzen verschiedener Entitäten übersehen lässt und somit die Robustheit gegenüber Rauschen in Modalitäten wie unscharfen Bildern und Beziehungen beeinträchtigt. In dieser Arbeit wird MEAformer vorgestellt, ein Ansatz zur mehrmodalen Entitätsausrichtung mithilfe von Transformer-Techniken für eine Meta-Modalitätshybride. MEAformer prognostiziert dynamisch die gegenseitigen Korrelationskoeffizienten zwischen den Modalitäten, um eine feingranulare Modalfusions- und -ausrichtung auf der Entitätsebene zu ermöglichen. Experimentelle Ergebnisse zeigen nicht nur, dass unser Modell in mehreren Trainingskonstellationen, einschließlich überwachter, unüberwachter, iterativer und ressourcenärmerer Einstellungen, Top-Leistungen erzielt, sondern auch, dass es eine begrenzte Anzahl von Parametern aufweist, effizient läuft und interpretierbar ist. Unser Code ist unter https://github.com/zjukg/MEAformer verfügbar.