[IN MEMORIAM] L'Università del Pcista: Topic sulla Grafica always next-gen

Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
- 1080p 60 fps dettagli medio/bassi- 1080p 40/45 fps dettagli medio/alti

- 1080p lock 30 fps dettagli alti
Io punterei nei 60fps sempre e comunque, dovresti comunque ottenere una grafica paragonabile a quella di PS4, smanettando con le opzioni.

Evita sempre i dettagli "ultra" nei giochi post 2015, creati solo per chi ha schede video sopra i 500€.

 
è strano considerando che io e te abbiamo visto centinaia di film a 24fps che era/è uno standard cinematografico ma non ci sembrava che sfarfallassero ;p
l'occhio umano è in grado di percepire la sequenza, per sovrapposizione, di 24 fotogrammi al secondo, e fin qui ci siamo.

questo però non vuol dire che non si accorge della maggiore fluidità data dalla sovrapposizione di un numero maggiore di fotogrammi.

l'esempio dei film (e video in generale) poi non sta proprio in piedi, perchè non consideri il frame time che in un video è perfetto, nei giochi è tutt'altro discorso...

 
Ma scienza cosa? E' solo un compromesso, sotto i 24 fps si vede chiaramente a scatti, sopra si inizia a sentire la fluidità, ma sempre poco.Il cervello sa distinguere i 60fps dai 120fps, figurati.

"scienza"

Per la tua "scienza" stanno iniziando a uscire film a 48 immagini al secondo, come Hobbit //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif
se è per questo sono usciti film anche a 120fps ma visto che sei andato a informarti su wikipedia (altissima fonte di saggezza scritta per buona parte da persone come me e te) posso consigliarti anche altre letture sul cinema/fotografia :rickds: 60millisecondi circa è il tempo che impiega un immafine ad essere impressa sulla retina di un occhio sono circa 13Hz...e non è che lo dico io eh :rickds:

- - - Aggiornato - - -

l'occhio umano è in grado di percepire la sequenza, per sovrapposizione, di 24 fotogrammi al secondo, e fin qui ci siamo.questo però non vuol dire che non si accorge della maggiore fluidità data dalla sovrapposizione di un numero maggiore di fotogrammi.

l'esempio dei film (e video in generale) poi non sta proprio in piedi, perchè non consideri il frame time che in un video è perfetto, nei giochi è tutt'altro discorso...
se fermi un film su un fotogramma vedi il movimento già nel fotogramma....in un videogioco no questo lo so...per questo mica ti ho detto che bastano 13 Hz ma ho quasi moltiplicato x2 //content.invisioncic.com/a283374/emoticons/smile.png

 
se è per questo sono usciti film anche a 120fps ma visto che sei andato a informarti su wikipedia (altissima fonte di saggezza scritta per buona parte da persone come me e te) posso consigliarti anche altre letture sul cinema/fotografia :rickds: 60millisecondi circa è il tempo che impiega un immafine ad essere impressa sulla retina di un occhio sono circa 13Hz...e non è che lo dico io eh :rickds:
Quando Dying Light negli interni mi va a 144 fps rispetto ai 60 me ne accorgo, il tuo discorso non tiene conto delle tecnologie del PC Gaming. Ergo meglio che ti fermi qua.

 
Quando Dying Light negli interni mi va a 144 fps rispetto ai 60 me ne accorgo, il tuo discorso non tiene conto delle tecnologie del PC Gaming. Ergo meglio che ti fermi qua.
se non sei lockato e sbalzi da 60 a 140 te ne accorgi si :rickds: io parlo di frame-rate lockati mica di lasciarlo libero :rickds: che poi ancora devo capire perchè qualcuno di voi lo fa con tutti gli strumenti che ci sono per il lock attualmente :morris82:

- - - Aggiornato - - -

e poi mica ho mai detto che 20fps è meglio di 60 :rickds: ho detto che basterebbero per avere fluidità e senso di movimento...se poi a quel frame-rate vedete sfarfallamenti è colpa del ritardo di imput quindi dovuto al frame-rate del vostro monitor //content.invisioncic.com/a283374/emoticons/sisi.gif han creato robe come il g-sync per ovviare a questi problemi appunto //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

 
se fermi un film su un fotogramma vedi il movimento già nel fotogramma....in un videogioco no questo lo so...per questo mica ti ho detto che bastano 13 Hz ma ho quasi moltiplicato x2 //content.invisioncic.com/a283374/emoticons/smile.png
la prima parte non ho capito cosa c'entri, per la seconda stai facendo confusione tra il numero di fotogrammi al secondo e il refresh rate.

il secondo va sempre tenuto al massimo disponibile perchè oltre a lockare gli fps (se la vsync è attiva), introduce ritardi nelle periferiche di input.

il tutto si traduce in input lag eccessivo per un'esperienza di gioco soffisfacente e te ne puoi accorgere giocando un qualsiasi gioco action impostando il pannello a 1080p 24Hz.

è anche per questo che mi facevano ridere le presentazioni di nvidia per pubblicizzare il 4K con tv LG (o samsung), in cui c'erano pc con sli di schede top su una tv limitata a 30Hz........

per quanto riguarda i film su cui insisti, mettici pure che un film non lo guardi con l'attenzione con cui giochi nè hai una telecamera in soggettiva e/o fissa dietro al personaggio.

e magari non lo guardi nemmeno dalla distanza dal monitor che usi per giocare al pc.

tutti fattori che fanno la differenza.

 
la prima parte non ho capito cosa c'entri, per la seconda stai facendo confusione tra il numero di fotogrammi al secondo e il refresh rate.il secondo va sempre tenuto al massimo disponibile perchè oltre a lockare gli fps (se la vsync è attiva), introduce ritardi nelle periferiche di input.

il tutto si traduce in input lag eccessivo per un'esperienza di gioco soffisfacente e te ne puoi accorgere giocando un qualsiasi gioco action impostando il pannello a 1080p 24Hz.

è anche per questo che mi facevano ridere le presentazioni di nvidia per pubblicizzare il 4K con tv LG (o samsung), in cui c'erano pc con sli di schede top su una tv limitata a 30Hz........

per quanto riguarda i film su cui insisti, mettici pure che un film non lo guardi con l'attenzione con cui giochi nè hai una telecamera in soggettiva e/o fissa dietro al personaggio.

e magari non lo guardi nemmeno dalla distanza dal monitor che usi per giocare al pc.

tutti fattori che fanno la differenza.
ti scrivo in chat ^^

 
Ci sono da considerare anche due cose

- l'input lag. Il cinema è un'esperienza passiva, i videogames no. Il ritardo nella risposta ai comandi (nell'ordine dei millisecondi) è maggiore con framerate bassi.

C'è un motivo se la gente "pro" gioca negli sparatutto con framerate altissimi a costo di giocare a Battlefield con una grafica alla Minecraft, ad esempio.

- Poi ricordo un articolo di DF in cui si spiegava perché i 24 fps cinematografici risultano più fluidi dei 24 fps videoludici. C'entrava il fatto che nel cinema ci sono molti fotogrammi "di transizione" e sfocati che complessivamente danno la sensazione di movimento, mentre i 24 fotogrammi videoludici sono tutti slegati tra loro. Ecco perché si cerca di simulare l'effetto cinema e l'effetto movimento aggiungendo il motion blur. Si cerca di riprodurre proprio quella sfocatura. E guarda caso, ne fanno un uso eccessivo proprio i giochi console a 30 fps.

L'ho detta in maniera spicciola, dovrei ripescare il link per approfondire la questione.

 
Ultima modifica da un moderatore:
ti scrivo in chat ^^
mi ha minacciato in chat e mi ha passato il link ad un video gay esplicito, qualcuno lo banni... //content.invisioncic.com/a283374/emoticons/smile2.png

Ci sono da considerare anche due cose
- l'input lag. Il cinema è un'esperienza passiva, i videogames no. Il ritardo nella risposta ai comandi (nell'ordine dei millisecondi) è maggiore con framerate bassi.

C'è un motivo se la gente "pro" gioca negli sparatutto con framerate altissimi a costo di giocare a Battlefield con una grafica alla Minecraft, ad esempio.

- Poi ricordo un articolo di DF in cui si spiegava perché i 24 fps cinematografici risultano più fluidi dei 24 fps videoludici. C'entrava il fatto che nel cinema ci sono molti fotogrammi "di transizione" e sfocati che complessivamente danno la sensazione di movimento, mentre i 24 fotogrammi videoludici sono tutti slegati tra loro. Ecco perché si cerca di simulare l'effetto cinema e l'effetto movimento aggiungendo il motion blur. Si cerca di riprodurre proprio quella sfocatura. E guarda caso, ne fanno un uso eccessivo proprio i giochi console a 30 fps.

L'ho detta in maniera spicciola, dovrei ripescare il link per approfondire la questione.
ecco, forse il secondo punto di marlowe è quello che cercava di dire prima flo e che non avevo capito //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

 
Ci sono da considerare anche due cose
- l'input lag. Il cinema è un'esperienza passiva, i videogames no. Il ritardo nella risposta ai comandi (nell'ordine dei millisecondi) è maggiore con framerate bassi.

C'è un motivo se la gente "pro" gioca negli sparatutto con framerate altissimi a costo di giocare a Battlefield con una grafica alla Minecraft, ad esempio.

- Poi ricordo un articolo di DF in cui si spiegava perché i 24 fps cinematografici risultano più fluidi dei 24 fps videoludici. C'entrava il fatto che nel cinema ci sono molti fotogrammi "di transizione" e sfocati che complessivamente danno la sensazione di movimento, mentre i 24 fotogrammi videoludici sono tutti slegati tra loro. Ecco perché si cerca di simulare l'effetto cinema e l'effetto movimento aggiungendo il motion blur. Si cerca di riprodurre proprio quella sfocatura. E guarda caso, ne fanno un uso eccessivo proprio i giochi console a 30 fps.

L'ho detta in maniera spicciola, dovrei ripescare il link per approfondire la questione.

io parlavo di resa di fluidità visiva non dei comandi //content.invisioncic.com/a283374/emoticons/smile.png ci sarebeb anche l'imput-lag del monitor da tenere in considerazione per quello...se passa un oggetto su schermo in un film e metti pausa vedrai l'oggetto sfuocato nella direzione in cui passa...in un videogioco se metti pausa è immobile...nel fotogramma non c'è senso di movimento ed è per questo che bnon ho detto che bastano 12/13Hz come nel cinema ma il doppio :rickds: ma in ogni caso almeno te hai capito cosa intendo :rickds: sul funzionamento FISICO del motion blur in realtà non sono molto ferrato e sinceramente ora non ho voglia di cercare //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

 
Grazie per i consigli ragazzi, non volevo alzare un dibattito ma tant'è //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif, quindi le situazioni sono all'incirca queste:
- 1080p 60 fps dettagli medio/bassi

- 1080p 40/45 fps dettagli medio/alti

- 1080p lock 30 fps dettagli alti

Sbaglio qualcosa? Ho preso all'incirca le situazioni probabili con la mia scheda (amd r7 370 2 gb gaming), per quali di queste tre scelte propendereste voi? Lo chiedo giusto per capire come godermi un gioco al meglio essendo da pochi mesi nel mondo del pc gaming, grazie ancora //content.invisioncic.com/a283374/emoticons/winks.gif

PS: Ovviamente capisco che non si può fare un discorso generico per tutti i giochi, ma almeno capire come comportarmi nella maggior parte dei casi //content.invisioncic.com/a283374/emoticons/sisi.gif
stessa scheda,e io faccio così:

fps e multiplayer: 60fps,se serve tolgo anche le ombre :rickds: cazzomene,voglio la fluidità a bomba per quelli

single player(in base al titolo)ti metto come esempio un action tps : sopra i 40/45fps(si ha la sensazione di fluidità che non si ha a 30 e si gioca con dettagli accettabili)

poi ovvio va da gioco a gioco,certo batman ak non lo potremo certo giocare così con questa gpu :rickds:

per dire,rise of the tomb raider l'ho giocato a 45fps a dettagli medio alti,più alti,(purehair off,lo attivavo solo a volte,tanto per),mentre mad max lockato a 60fps a dettagli alti(non ultra),e che goduria...

mass effect mi va a 60,battlefield e battlefront a dettagli alti vanno a 60fps,varia in base al gioco,troverai da te il giusto compromesso //content.invisioncic.com/a283374/emoticons/sisi.gif giocare a 30 però,mai più,almeno per me,fosse anche dovessi mettere tutto su basso,almeno i 45 li voglio

 
Grazie a tutti ragazzi, ho un quadro molto più chiaro //content.invisioncic.com/a283374/emoticons/smile.png

 
stessa scheda,e io faccio così:fps e multiplayer: 60fps,se serve tolgo anche le ombre :rickds: cazzomene,voglio la fluidità a bomba per quelli

single player(in base al titolo)ti metto come esempio un action tps : sopra i 40/45fps(si ha la sensazione di fluidità che non si ha a 30 e si gioca con dettagli accettabili)

poi ovvio va da gioco a gioco,certo batman ak non lo potremo certo giocare così con questa gpu :rickds:

per dire,rise of the tomb raider l'ho giocato a 45fps a dettagli medio alti,più alti,(purehair off,lo attivavo solo a volte,tanto per),mentre mad max lockato a 60fps a dettagli alti(non ultra),e che goduria...

mass effect mi va a 60,battlefield e battlefront a dettagli alti vanno a 60fps,varia in base al gioco,troverai da te il giusto compromesso //content.invisioncic.com/a283374/emoticons/sisi.gif giocare a 30 però,mai più,almeno per me,fosse anche dovessi mettere tutto su basso,almeno i 45 li voglio
e comunque spesso è meglio un lock a 30con v-sync che uno a 45 o lasciare libero se va a 45 ...il v-sync lega l'aggiornamento del display a quello del gioco e lo fa bene a 60 o a 30 che è la sua metà...per 40/45 no //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

magari prova //content.invisioncic.com/a283374/emoticons/sisi.gif

 
e comunque spesso è meglio un lock a 30con v-sync che uno a 45 o lasciare libero se va a 45 ...il v-sync lega l'aggiornamento del display a quello del gioco e lo fa bene a 60 o a 30 che è la sua metà...per 40/45 no //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif
magari prova //content.invisioncic.com/a283374/emoticons/sisi.gif
Bhe dipende, ormai nessuno più usa il vsync che dici tu. Ora si usano adaptive-sync di nvidia e il vsync con triplo buffering che lockano il framerate a 60 ma nel caso scendesse tipo a 55 non avresti il drop pesante a 30 //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

 
Su Mordor devo abbassare la risoluzione massima (in sostanza se metto 1920x1080 escono ogni tanto delle macchie nere in alto) ma per il resto va tutto alla perfezione a settaggi anche alti. Ho una 7870 se non sbaglio, è normale non poter mettere quella risoluzione, è strano o può essere derivato dalla TV un pò così così a cui è attaccato il PC?

EDIT: Provato su altro TV collegato, stesso problema a quella risoluzione, quindi o ho qualche settaggio sballato che mi da questo errore grafico o la mia scheda in generale non supporta per questo gioco quella risoluzione massima.

 
Ultima modifica da un moderatore:
Praticamente se muovo la visuale velocemente in alto a sinistra si vedono dei quadrati neri completamente a caso. Questo solo se metto quella risoluzione. No, non è overcloccata.

 
Ragazzi per vedere solo film e roba su YouTube tube ho preso un intel i5 con una scheda 4600 hd...ma non ha la uscita hd ma solo vga adattata hd ...posso collegare allo schermo 4k o full hd e cambiare la risoluzione per vedere questi video in tale risoluzione?altrimenti disdico p acquisto. ..premetto mi serve solo per video e cazzeggio ma in full hd

 
Ragazzi per vedere solo film e roba su YouTube tube ho preso un intel i5 con una scheda 4600 hd...ma non ha la uscita hd ma solo vga adattata hd ...posso collegare allo schermo 4k o full hd e cambiare la risoluzione per vedere questi video in tale risoluzione?altrimenti disdico p acquisto. ..premetto mi serve solo per video e cazzeggio ma in full hd
Dicci il modello preciso del processore.

Scommetto che come molti altri, la risoluzione massima in VGA è 1920x1200@60Hz. Perciò per uscire in 4K devi uscire in HDMI, e magari anche in quel caso saresti limitato a 4K@30Hz. Se ci linki il modello preciso possiamo controllare con più sicurezza.

Inoltre fare gli sboroni col 4K per poi uscire in analogico non è furbissimo.

 
scusate, ma il programma MSI Afterburn in termini di temperature, è affidabile? quando gioco la temperatura varia dai 65° a 70°. è un bene o un male?

 
Ultima modifica da un moderatore:
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top