HyperAIHyperAI
vor 7 Tagen

Die Komplementarität einer vielfältigen Reihe tiefer Lernmerkmale, die aus Videoinhalten extrahiert wurden, für die Videempfehlung

Adolfo Almeida, Johan Pieter de Villiers, Allan De Freitas, Mergandran Velayudan
Die Komplementarität einer vielfältigen Reihe tiefer Lernmerkmale, die aus Videoinhalten extrahiert wurden, für die Videempfehlung
Abstract

Nach der Verbreitung von Media-Streaming haben eine Reihe von Video-Streaming-Diensten kontinuierlich neue Videoinhalte erworben, um das darin liegende Gewinnpotenzial auszuschöpfen. Daher ist eine sorgfältige Behandlung der neu hinzugefügten Inhalte erforderlich, um sie gezielt geeigneten Nutzern zu empfehlen. In diesem Paper behandeln wir das Problem der kalten Startphase für neue Items, indem wir das Potenzial verschiedener tiefen Lern-Features zur Videoempfehlung untersuchen. Die untersuchten tiefen Lern-Features umfassen solche, die visuelle Erscheinung, Audio- und Bewegungsinformationen aus Videoinhalten erfassen. Zudem untersuchen wir verschiedene Fusionsmethoden, um zu evaluieren, wie gut diese Merkmalsmodalitäten kombiniert werden können, um die komplementären Informationen optimal auszunutzen. Experimente an einem realen Video-Datensatz für Filmempfehlungen zeigen, dass tiefen Lern-Features handgezeichnete Features übertrumpfen. Insbesondere erzeugen Empfehlungen, die auf tiefen Lern-Audio-Features und handlungsorientierten tiefen Lern-Features basieren, bessere Ergebnisse als MFCC- und State-of-the-Art-iDT-Features. Darüber hinaus führt die Kombination verschiedener tiefen Lern-Features mit handgezeichneten Features und textuellen Metadaten zu einer signifikanten Verbesserung der Empfehlungen im Vergleich zur Kombination allein der tiefen Lern-Features.

Die Komplementarität einer vielfältigen Reihe tiefer Lernmerkmale, die aus Videoinhalten extrahiert wurden, für die Videempfehlung | Neueste Forschungsarbeiten | HyperAI