Nvidia optimiert DLSS 4, VRAM-Verbrauch um 20% gesenkt
Nvidia hat mit der neuesten Version seines Deep Learning Super Sampling (DLSS)-SDKs erhebliche Verbesserungen an der VRAM-Verwendung vorgenommen. Die DLSS 4 wurde aus dem Beta-Status entlassen und bringt nun eine deutlich optimierte Speicherverwendung für das Upscaling-Modell, insbesondere für die Transformer-Architektur. Diese Optimierungen reduzieren den VRAM-Verbrauch des Transformer-Modells um 20%, was bedeutet, dass es jetzt nur noch 40% mehr VRAM als das ältere Convolutional Neural Network (CNN)-Modell benötigt. Die spezifischen Verbesserungen wurden von VideoCardz entdeckt und zeigen, dass die neue DLSS 310.3.0-Version bei einer Auflösung von 1080p nur 85,77 MB VRAM verbraucht, im Vergleich zu den 106,9 MB der alten Transformer-Version. Das CNN-Modell verbraucht bei derselben Auflösung 60,83 MB VRAM. Die VRAM-Verbrauchskurve steigt linear mit der Auflösung: Bei 4K steigt der VRAM-Verbrauch des Transformer-Modells um 3,5-fach auf 307,37 MB, was immer noch weniger ist als die 387,21 MB der alten Version. Ein Vergleich der VRAM-Verbrauchsdaten zeigt: 1080p: Neues Transformer-Modell – 85,77 MB; Altes Transformer-Modell – 106,9 MB; CNN-Modell – 60,83 MB 1440p: Neues Transformer-Modell – 143,54 MB; Altes Transformer-Modell – 181,11 MB; CNN-Modell – 97,79 MB 4K: Neues Transformer-Modell – 307,37 MB; Altes Transformer-Modell – 387,21 MB; CNN-Modell – 199,65 MB 8K: Neues Transformer-Modell – 1,2 GB; Altes Transformer-Modell – 1,5 GB; CNN-Modell – 778,3 MB Trotz dieser Vorteile wird der VRAM-Einsparungseffekt in der Praxis wahrscheinlich kaum bemerkt werden. Eine 20%-ige Reduktion des Speicherbedarfs entspricht bei 4K nur etwa 80 MB, was im Vergleich zur VRAM-Kapazität moderner Grafikkarten fast vernachlässigbar ist. Es könnte jedoch bei sehr hohen Auflösungen wie 8K ins Gewicht fallen, wo das Transformer-Modell selbst nach den Optimierungen noch über ein Gigabyte VRAM verbraucht. Das beeindruckendste an diesen Verbesserungen ist, dass sie trotz der erweiterten Fähigkeiten des DLSS 4-Transformer-Modells erreicht wurden. Dieses Modell hat doppelt so viele Parameter wie sein CNN-basierter Vorgänger, was ihm ermöglicht, nahezu natürliche Bildqualität zu erzeugen. Historisch gesehen können wir erwarten, dass zukünftige Updates noch weitere Optimierungen bringen, ähnlich wie es bei DLSS 3.8.10 der Fall war. Die VRAM-Optimierungen gelten jedoch ausschließlich für das Upscaling-Modell und nicht für die Frame-Generierung. Bei der Einführung von DLSS 4 wurden erhebliche Verbesserungen in der Frame-Generierung vorgenommen, die den VRAM-Verbrauch um 30% reduziert haben. Dieser Teil des DLSS-Systems verbraucht deutlich mehr VRAM als das Upscaling. Zum Beispiel verbraucht der Spieltitel "Warhammer 40,000: Darktide" bei 4K mit DLSS 4 Frame-Generierung 400 MB weniger VRAM als mit DLSS 3 Frame-Generierung. Diese Entwicklungen sind wichtig für die Leistung und Effizienz von GPU-intensiven Anwendungen wie Spiel-Engines und grafischen Simulationen. Die Reduktion des VRAM-Verbrauchs ermöglicht es, die Leistung von Grafikkarten besser zu nutzen und gleichzeitig höhere Auflösungen und komplexere Szenarien abzubilden. Insbesondere bei Spielen wie "Warhammer 40,000: Darktide" kann dies zu einem signifikanten Leistungsanstieg führen. Industrieexperten loben diese Optimierungen und sehen sie als wichtigen Schritt zur Weiterentwicklung der DLSS-Technologie. Sie betonen, dass Nvidias kontinuierliche Verbesserungen an der VRAM-Verwendung die Akzeptanz und Leistungsfähigkeit der DLSS-Technologie in der Gaming- und Professional-Graphics-Community weiter erhöhen. Nvidia, ein führender Hersteller von Grafikprozessoren, setzt damit wieder einmal Maßstäbe und zeigt seine Kompetenz in der Entwicklungs- und Optimierung von Machine-Learning-Algorithmen für visuelle Anwendungen.