Dopo qualche giorno e un po' di prove, correggo (o meglio completo) quanto scritto inizialmente riguardo il DLDSR.
C'era una ulteriore incomprensione generale, in cui ero cascato anch'io, causata dall'esempio ridicolo che hanno usato quelli di Nvidia nel materiale PR.
In sostanza, far girare un gioco in risoluzione nativa 2880x1620, farlo girare con vecchio DSR 2.25x o farlo girare con il nuovo DLDSR 2.25x non ha
nessuna differenza in termini di performance.
L'obiettivo del deep learning in questo caso è migliorare il downscaling da un punto di vista solamente estetico: il vecchio DSR utilizzava l'algoritmo nearest neighbor per fare il downscaling, che è il più leggero e il più brutto (e va bene soltanto in caso di pixel art e solo usando multipli o sottomultipli interi), tanto che avevano aggiunto anche il settaggio "smoothing" per abbellire un po' il risultato.
Il nuovo DSR invece usa il deep learning per fare un downscaling dell'immagine più bello, tutto qua.
Il motivo per cui l'hanno pubblicizzato come "più efficiente" è solamente che questo downscaling più bello fa sì che il risultato finale a 2.25x somigli molto al vecchio DSR settato a 4.00x. Grazie al cazzo che in questo caso consuma meno risorse, stiamo paragonando lo stesso gioco che gira da una parte a 2880x1620 e dall'altra a 3840x2160 (4K pieno).
Inoltre, l'esempio di Prey che hanno usato è ancora più ridicolo: dato che
Prey è lockato a 144fps, hanno "falsificato" l'esempio facendo sembrare che il gioco a 1080p nativo giri esattamente uguale al DLDSR 2.25x, quando è inequivocabilmente falso. Se non ci fosse stato il lock, la prima vignetta avrebbe avuto un framerate molto più alto, rendendo chiarissimo che 1080p > DLDSR 2.25x > DSR 4.00x (di nuovo, grazie al cazzo, stiamo semplicemente paragonando lo stesso gioco a tre risoluzione diverse).
Alla luce di questo comunque, correggo quanto ho detto l'altro giorno riguardo il DLSS, che è consigliatissimo da usare insieme al DSR e non fa nessun pastrocchio, anzi, sono performance gratis