Deep Learning Super Sampling (DLSS), auch AI super resolution,[1] ist eine von Nvidia entwickelte Echtzeit-Upscaling-Technologie für Computerspiele. Dabei wird das Bild in einer geringeren Auflösung berechnet und anschließend mithilfe von KI-Algorithmen auf die eingestellte Auflösung hochskaliert.[2] Mit dieser Technologie sollen deutlich mehr Bilder pro Sekunde (fps) bei nahezu gleichbleibender Bildqualität erreicht werden.[3] Da DLSS auch ein KI-gestützes Anti-Aliasing-Verfahren anwendet,[4] kann die wahrgenommene Bildqualität bei Verwendung von DLSS je nach Spiel und Qualitätsstufe sogar höher ausfallen als bei nativ gerenderter Auflösung.[5]
DLSS wird seit 2018 von Spielen unterstützt.[1] Eine neue, verbesserte Version namens DLSS 2.0 wurde erstmals 2020 bei einigen Spielen eingeführt.[6] Diese Weiterentwicklung soll für höhere Bildraten sorgen und besser aussehen.[1] Laut Nvidia sei die Bildqualität bei DLSS 2.0 mit der von nativ gerenderten Auflösungen vergleichbar.[6] Ein Deep Neural Network wird dabei mithilfe eines neuronalen Grafik-Frameworks von Nvidia namens NGX mit Spielszenen trainiert, die von einem Supercomputer offline gerendert werden.[6] Die KI greift dann auf diese Daten zurück, um Bilder hochzuskalieren.[6]
Nvidias Konkurrent AMD verkündete, dass ab dem 22. Juni 2021 eine ähnliche KI-basierte Upscaling-Technologie namens FidelityFX Super Resolution (FSR) als GPUOpen-Technologie für Grafikkarten der RX-6000-, RX-5000-, RX-500- und Vega-Serie verfügbar sein soll.[7] Zu Beginn sollen 10 Spiele und Spiel-Engines diese Funktion unterstützen.[7]
Da die Technologie von AMD im Gegensatz zu Nvidias DLSS auf Open Source basiert, ist sie auch mit GeForce-Grafikkarten von Nvidia kompatibel.[8]
Auf dem Architecture Day 2021 kündigte Intel eine ähnliche Anti-Aliasing-Technologie namens Xe Super Sampling, kurz XeSS, an, die ebenso Open-Source-basiert ist, um ihre Verbreitung zu fördern.[9]
2022 stellte Nvidia auf ihrer GPU Technology Conference die nächste Iteration namens DLSS 3 vor, die erstmals KI-gestützte Bewegungsinterpolation unterstützt, welche die fps bis zu vervierfachen soll.[10] Dabei wird mittels des Optical Flow Accelerators (OFA) zwischen zwei nativ gerenderten Bildern jeweils ein KI-generiertes Bild erzeugt.[11] Diese als Frame Generation bezeichnete Funktion in DLSS 3 ist optional. Sie benötigt den überarbeiteten OFA in GPUs mit der Mikroarchitektur Ada Lovelace.
Auf der Gamescom 2023 stellte Nvidia schließlich DLSS 3.5 vor, welches die Funktion Ray Reconstruction unterstützt, die Beleuchtungseffekte mit Raytracing detaillierter aussehen lassen und dabei eine höhere Performance bieten soll.[12] Dabei werden für jeden Frame zunächst Materialien und Geometrie gerendert, danach die Beleuchtung mittels Raytracing berechnet und das daraus entstandene Bild anschließend hochskaliert.[12] Das Feature ist für alle RTX-Grafikkarten von Nvidia verfügbar.[12]
Nutzern stehen bei der Verwendung von DLSS neben der Option, die intern gerenderte, hochzuskallierende Auflösung selbst festzulegen, verschiedene Qualitäts-Voreinstellungen zur Verfügung:[13][14]
Qualitätsstufe | Skalierungsfaktor | Renderskalierung |
---|---|---|
Ultra-Qualität (in Unreal Engine 4 integriert[15]); in Spielen DLAA genannt[16] | 1x | 100% |
Qualität | 1.50x | 66.7% |
Ausgeglichen | 1.72x | 58.0% |
Leistung | 2.00x | 50.0% |
Ultra-Leistung; nur für Auflösungen ab 8K empfohlen[17] | 3.00x | 33.3% |
Automatisch | Gerenderte Auflösung passt sich in Echtzeit dynamisch an, um vom Nutzer festgelegte FPS-Zielwerte (z. B. 144 fps bei 144-Hz-Monitor) zu erreichen.[18] |
Die folgenden Spiele unterstützen DLSS:[19][20][21]
Bei frühen Versionen von DLSS wurde kritisiert, dass die Hochskalierung zu unscharfen Darstellungen führen kann.[22] Dies sei insbesondere bei ohnehin bereits relativ niedrigen Ausgangsauflösungen wie Full HD stark auffällig, da die nativ gerenderte Auflösung dabei je nach ausgewählter Qualitätsstufe weit unter Full HD liegt. Andrew Edelsten, Angestellter bei Nvidias Deep-Learning-Abteilung, nahm deshalb 2019 in einem Blogpost Stellung zur Problematik, versprach, dass man an der Verbesserung der Technologie arbeite, und sprach damals die Empfehlung aus, DLSS ausschließlich bei hohen Auflösungen wie etwa Ultra HD zu verwenden und nur bei weniger als 60 fps, da sonst die Hochskalierung eines Bildes länger dauern kann als dessen eigentliche Berechnung.[22] Dass die Verwendung von DLSS bei niedrigeren Auflösungen zu besonders unscharfen Bildern führt, läge daran, dass dem Algorithmus dabei im Vergleich zu höheren Auflösungen weit weniger Bildinformationen zur Verfügung stehen, um ein angemessenes Bild zu berechnen.[22]
Des Weiteren wurde kritisiert, dass Spielentwickler durch die Implementierung von DLSS in ihre Spiele keinen Anreiz mehr dazu hätten, diese entsprechend zu optimieren, damit sie auch in nativer Auflösung auf aktueller PC-Hardware flüssig laufen.[23] So wird beispielsweise für das Spiel Alan Wake II in Ultra-HD-Auflösung auf höchster Detailstufe mit Raytracing selbst mit aktuellen High-End-Grafikkarten wie der Nvidia GeForce RTX 4080 die Verwendung von DLSS im Performance-Modus empfohlen, um beim Spielen 60 fps zu erreichen.[24]
Darüber hinaus wird bei der Verwendung von Frame Generation kritisiert, dass dies zu Eingabeverzögerungen führen kann, da das KI-berechnete Zwischenbild erst dann generiert werden kann, wenn das darauffolgende Bild bereits gerendert wurde.[25] Außerdem können durch Frame Generation gegebenenfalls vereinzelte visuelle Artefakte auftreten.[26]