Multimodale Quasi-AutoRegression: Prognose der visuellen Popularität neuer Modeprodukte

Die Schätzung der Präferenzen von Verbrauchern ist für die Modewirtschaft von größter Bedeutung, da die angemessene Nutzung dieser Informationen in Bezug auf Gewinne vorteilhaft sein kann. Die Erkennung von Trends in der Mode ist eine herausfordernde Aufgabe aufgrund des schnellen Wandeltempos in der Modewirtschaft. Darüber hinaus ist die Prognose der visuellen Popularität neuer Kleidungsdesigns noch anspruchsvoller, da es an historischen Daten mangelt. Zu diesem Zweck schlagen wir MuQAR vor, eine multimodale Quasi-AutoRegressive Tiefenlernarchitektur, die zwei Module kombiniert: (1) einen multimodalen Mehrschicht-Perzeptron, der kategoriale, visuelle und textuelle Merkmale des Produkts verarbeitet und (2) ein quasiautoregressives neuronales Netzwerk, das die „zielgerichtete“ Zeitreihe der Produktattribute zusammen mit den „exogenen“ Zeitreihen aller anderen Attribute modelliert. Wir nutzen Computer Vision, Bildklassifizierung und Bildbeschreibung zur automatischen Extraktion visueller Merkmale und textueller Beschreibungen aus den Bildern neuer Produkte. Das Produkt-Design in der Mode wird zunächst visuell dargestellt, und diese Merkmale repräsentieren die einzigartigen Eigenschaften der Produkte ohne den kreativen Prozess ihrer Designer durch zusätzliche Eingaben (z.B. manuell geschriebene Texte) zu beeinträchtigen. Wir verwenden die Zielattribut-Zeitreihe des Produkts als Proxy für zeitliche Popularitätsmuster, um den Mangel an historischen Daten zu mildern, während exogene Zeitreihen helfen, Trends unter miteinander verbundenen Attributen zu erfassen. Wir führen eine umfangreiche Abstraktionsanalyse auf zwei großen Bildmodedatensätzen durch, nämlich Mallzee und SHIFT15m, um die Ausreichendkeit von MuQAR zu bewerten. Zudem nutzen wir den Datensatz Amazon Reviews: Home and Kitchen, um die Übertragbarkeit auf andere Bereiche zu prüfen. Eine vergleichende Studie am VISUELLE-Datensatz zeigt, dass MuQAR imstande ist, das aktuelle Standesmodell des Bereichs sowohl in Bezug auf WAPE als auch MAE um 4,65 % und 4,8 % zu übertreffen.注释:- "VISUELLE" 是一个专有名词,因此保留了原始形式。- "Malls" 和 "SHIFT15m" 作为数据集名称也保留了原始形式。- "WAPE" 和 "MAE" 是常见的评估指标缩写,直接翻译为德语中的相应缩写。如果这些缩写在德语文献中通常使用英文形式,则可以保留英文形式并在首次出现时提供解释。例如:"WAPE (Weighted Absolute Percentage Error)" 和 "MAE (Mean Absolute Error)".