il discorso è ben più complesso dei singoli numeri, che poi anche questi vanno contestualizzati dato che tra una 2080ti stock e una 2080ti OC e portata al 125% di powerlimit c'è una differenza non da poco (benchmark di HZD, 3840x1600 stessi settings con tutto maxato tranne le nubi e ombre su alto: 2080ti stock 76-77fps medi, 2080ti OC: 81-82fps medi).
Il mio discorso si basa su 2 punti: prendendo come punto di riferimento cyberpunk che è il gioco più "ragionevolmente"* pesante; da possessore di una 2080ti overclockata cosa me ne faccio di una 3090 da 1500€? per avere 3-4fps in più con l'RTX attivato ma per stare sempre e cmq sotto i 60fps?


magari anche con il dlss in modalità performance?
Ecco perchè io non ci vedo tutto questo salto di qualità generazionale tra top di gamma 20xx e top di gamma 30xx, di certo nulla che giustifichi una tale spesa.
Secondo punto, un buon 60% del problema non risiede nella potenza hardware, ma nella deficienza di chi sviluppa il software... HZD dato in outsourcing aveva prestazioni claudicanti all'uscita, ci mettono mano i guerrilla successivamente e il gioco migliora tantissimo con gli aggiornamenti. Al contrario i giochi ubisoft continuano ad essere dei porting fatti in fretta e furia e manco una 3080 ti salva da certi cali di frame sistematici dovuti ad una cattiva ottimizzazione. Perciò di cosa parliamo a fare di teraflops e altre magagne tecniche se buona parte degli sviluppatori non è nemmeno in grado di programmare come si deve? In questi giorni sto giocando a fallout4 e quando sto a boston il gioco cala pure sotto i 40 nonostante il vuoto siderale
*per ragionevolmente intendo un gioco pesante cmq ben ottimizzato, insomma non un flying simulator o un crysis remastered.