Inizialmente infatti questa serie 3000 mi ha incuriosito non poco, perchè prometteva un notevole salto in avanti con dei buoni prezzi. Adesso mi sto rendendo conto però che una 3060 fatica con i giochi 1080p60 (tipo Cyberpunk), proprio come faticava la 2060 con i titoli di quel tempo e la 1060 ancora prima. Diciamo che i prezzi sono rimasti gli stessi (un po’ più accessibili, ma quando ci saranno effettivamente le schede disponibili), le risoluzioni e frame rate pure, cambiano solo giochi che essendo più pesanti girano esattamente come prima. Poi è ovvio che se si usa come benchmark The Witcher 3 (comunque un gioco pesante dell’epoca) si ottengono risultati migliori.e allora come avevo intuito è quello il problema più grande... ti manca proprio l'aver vissuto il grosso salto in avanti da una generazione che puntava a maxare il 1440p a 60fps per i titoli più pesanti e si affacciava timidamente al 4k nel migliore dei casi ad una che di fatto ha imposto il 4k/60fps come target raggiungibile, ecco perchè il salto di qualità da 20xx a 30xx per me non è paragonabile a quello precedente. La 30xx migliora quel che si era visto nelle 20xx ma grossomodo si porta dietro gli stessi limiti (non tutti imputabili all'hardware) perchè nvidia ha adoperato precise scelte di mercato... tu mi parli di +20-30% etc... ma all'atto pratico dove li collochi? su un WDL che in 4k su una 2080ti crolla a 42fps e su una 3080 a fatica sta a 50fps? o su un qualsiasi AAA pesante che con la 2080ti in 4k stava a >60 e con la 3080 a >70? per ottenere quale plus di preciso? dato che sono cmq prestazioni lontane a dover giustificare l'acquisto di un costoso monitor 4k da 100hz o in su.
Aspettiamo quest'anno o forse l'anno prossimo per vedere se uscirà un gioco che fungerà da "control" della 3080/3080ti o 30xx in generale