HyperAIHyperAI

Command Palette

Search for a command to run...

Bild als Fremdsprache: BEiT-Vorkenntnis für alle visuellen und visuell-sprachlichen Aufgaben

Wenhui Wang∗, Hangbo Bao∗, Li Dong∗, Johan Bjorck, Zhiliang Peng, Qiang Liu, Kriti Aggarwal, Owais Khan Mohammed, Saksham Singhal, Subhojit Som, Furu Wei†

Zusammenfassung

Eine große Konvergenz von Sprache, Vision und multimodalem Vortraining ist im Entstehen. In dieser Arbeit stellen wir ein allgemeines multimodales Grundmodell BEiT-3 vor, das den aktuellen Stand der Technik bei der Transferleistung sowohl in visuellen als auch in visuellsprachlichen Aufgaben erreicht. Insbesondere fördern wir die große Konvergenz in drei Bereichen: Rückgratarchitektur, Vortrainingaufgabe und Modellskalierung. Wir führen Multiway-Transformers für allgemeine Modellierung ein, wobei die modulare Architektur sowohl eine tiefe Fusion als auch eine modalspezifische Kodierung ermöglicht. Basierend auf dem gemeinsamen Rückgrat führen wir maskiertes „Sprach“-Modelling auf Bildern (Imglish), Texten (Englisch) und Bild-Text-Paaren („parallelen Sätzen“) in einheitlicher Weise durch. Experimentelle Ergebnisse zeigen, dass BEiT-3 den aktuellen Stand der Technik in Objekterkennung (COCO), semantischer Segmentierung (ADE20K), Bildklassifikation (ImageNet), visuellem Schließen (NLVR2), visueller Fragebeantwortung (VQAv2), Bildunterschriftenerstellung (COCO) und cross-modalem Retrieval (Flickr30K, COCO) erreicht.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Bild als Fremdsprache: BEiT-Vorkenntnis für alle visuellen und visuell-sprachlichen Aufgaben | Paper | HyperAI