HyperAIHyperAI
vor 17 Tagen

Rekurrente Video-Entschärfung mit blur-invarianter Bewegungsschätzung und Pixel-Volumina

Hyeongseok Son, Junyong Lee, Jonghyeop Lee, Sunghyun Cho, Seungyong Lee
Rekurrente Video-Entschärfung mit blur-invarianter Bewegungsschätzung und Pixel-Volumina
Abstract

Für den Erfolg der Video-Entunschärfung ist es entscheidend, Informationen aus benachbarten Frames zu nutzen. Die meisten modernsten Ansätze zur Video-Entunschärfung verwenden eine Bewegungskompensation zwischen Video-Frame, um Informationen aus mehreren Frames zu aggregieren, die zur Entunschärfung eines Ziel-Frame beitragen können. Allerdings sind die Bewegungskompensationsmethoden, die in früheren Entunschärfungsmethoden eingesetzt werden, nicht unschärfeninvariant, wodurch ihre Genauigkeit für unscharfe Frames mit unterschiedlichen Unscharfegraden begrenzt ist. Um dieses Problem zu mildern, schlagen wir zwei neue Ansätze zur Entunschärfung von Videos vor, die Informationen aus mehreren Video-Frame effektiv aggregieren. Erstens präsentieren wir ein lernbasiertes, unschärfeninvariantes Bewegungsschätzungskonzept, um die Genauigkeit der Bewegungsschätzung zwischen unscharfen Frames zu verbessern. Zweitens verwenden wir für die Bewegungskompensation anstelle der Frame-Alignment durch Verzerrung mit geschätzten Bewegungen einen Pixelvolumen, der Kandidaten für scharfe Pixel enthält, um Bewegungsschätzfehler zu beheben. Wir kombinieren diese beiden Prozesse, um ein effektives rekurrentes Netzwerk zur Video-Entunschärfung vorzustellen, das die entunschärften vorherigen Frames vollständig ausnutzt. Experimente zeigen, dass unsere Methode sowohl quantitativ als auch qualitativ die bisher beste Leistung im Vergleich zu jüngeren, auf tiefen Lernverfahren basierenden Ansätzen erzielt.