[Archivio] ATI vs Nvidia: ogni anno la sfida si rinnova! - 2004-2007

  • Autore discussione Autore discussione ICON of SIN
  • Data d'inizio Data d'inizio
Pubblicità
Infatti e' molto strano... :hmmm:

Questi sono invece i primi bench rilasciati da ATI.

crossfire1.jpg


crossfire2.jpg


 
Originally posted by Teschio@Jun 1 2005, 09:06 AMInfatti e' molto strano... :hmmm:

 


Questi sono invece i primi bench rilasciati da ATI.
Concordo! Sicuramente dipende dalla versione beta.

Oggi al Computex il Crossfire è stato testato con Doom 3:

X850XT Crossfire

Normal

1024x768 – 85.4

1280x1024 – 83.1

4xAA 8xAF

1024x768 – 69.6

1280x1024 – 52.2

GeForce 6800 Ultra SLI

Normal

1024x768 – 83.8

1280x1024 – 82.5

4xAA 8xAF

1024x768 – 67.8

1280x1024 – 53.4

Sempre coi driver verione BETA! E' probabile a questo punto, che coi driver finali e ottimizzati si possa ottenre anche qualcosa in più! ^_^

ATi CrossFire vs nVIDIA SLI: Doom 3 Test!

:ciao:

 
Ho una domanda: se io mi prendo una skeda madre ke supporta lo Sli nvidia e c monto sopra una x800xl,in futuro posso optare per una soluzione crossfire senza cambiare skeda madre????

 
Originally posted by The Best@Jun 2 2005, 04:21 PMHo una domanda: se io mi prendo una skeda madre ke supporta lo Sli nvidia e c monto sopra una x800xl,in futuro posso optare per una soluzione crossfire senza cambiare skeda madre????







Credo proprio di no, dobbiamo aspettare schede madri con il chipset ATI.

 
Sì, purtroppo servirà una MB dedicata per il Crossfire. Il "controller" SLI può solo gestire due GPU Nvidia.

Al momento Nvidia sta progettando il sistema SLI 2 affinchè le schede in SLI, possano usare La porta PCI-E 16x, a 16x effettivi invece che a 8x, evitandò così che si dimezzi la velocità di comunicazione rispetto ad una scheda singola.

Per Don Toretto: sono proprio due schede 6800 Ultra in SLI.

Altra News:

Oggi è stato battuto il record di 14623 punti col 3dMark 05!

Macci, uno dei migliori overclocker del mondo, ha totalizzato 15498 usando un Athlon Fx 55 e due X850 PE in Crossfire.

The 3DMark05 world records shattered

 
Originally posted by Teschio@Jun 4 2005, 07:23 PMChe ne dite di questa ???

 


Doppia GPU e un giga di ram video !!! :o


 


msi.jpg








Bellissima la soluzione di MSI! Due Geforce 6800 Ultra con 512 Mb in una singola piastra di silicio.

Però il fatto che la MSI la spacci per una GPU da 1 giga di ram è poco corretto.

Anche se fisicamente sono presenti due banchi da 512 mb in realtà si hanno sempre due GPU da 512 mb. E' come avere un computer con due P4 a 4 Ghz e dire che si ha un pc con un 8 Ghz.

Comunque grazie a questa soluzione si risparmierà un bel po' nella configurazione dello SLI! ^_^

 
Con un annuncio dell’ultima ora, Ati ha dichiarato che non presenterà l’R520 Al Computex di Taipei. Presentazione che scivola così, verso la fine di luglio, esattamente un mese dopo la presentazione della G70. Questo perché in qualche reply che ho lasciato precedentemente, avevo detto che entro il giorno 6 di questo mese, ultimo giorno del Computerx, l’R520 sarebbe stato svelato. La smentita non ha tardato a presentarsi! :/

Cambiando discorso, Ati ha svelato il principio di funzionamento del sistema Crossfire!

Soluzione molto particolare quella della casa canadese: le differenze con lo SLI sono sottili come un capello ma grandi come il mondo. Il principio di funzionamento di base è lo stesso: due GPU in link per raddoppiare (più o meno) le prestazioni, ma mentre lo SLI usa due schede identiche, il Crossfire sfrutta la presenza di una scheda “Master” e un’altra “Slave” messa in coppia.

Le schede Nvidia per lo SLI devono essere obbligatoriamente dello stesso modello e con la stessa BIOS. Le due schede ATI possono essere tranquillamente di modelli differenti e con bios differenti.

Ati ha dichiarato che il sistema funziona esclusivamente con le schede madri dotati di chipset Ati. Anche se in teoria sarebbe possibile usare una qualsiasi motherboard dotata di doppio slot PCI-E 16x in quanto la comunicazione viene stabilita grazie ad un cavetto DVI esterno che unisce le due schede. Il chipset che gestisce il Crossfire si trova sulla GPU master e la motherboard di per sè, non ha un chipset dedicato alla gestione del “dual GPU”. Cosa che invece accade con lo SLI, dove le due GPU non sono in grado di comunicare tra loro e devono usare un chipset esterno che funga da “mediatore” per entrambe.

La soluzione di Ati è geniale ma ha anche i suoi lati negativi (come tutte le configurazioni dual GPU).

Se la scheda Slave può essere un qualsiasi modello della serie X800 o X850 già in commercio, la scheda Master è in realtà un modello X800 PE o X850 PE con l’aggiunta del chipset per il Crossfire già incorporato. Questi due modelli di GPU Crossfire sono dei modelli “Platinum Edition” a tutti gli effetti e l’aggiunta del chipset Crossfire non fa altro che aumentarne ancora di più il prezzo.

Se con Nvidia era possibile unire due Geforce 6600 GT, con il Crossfire è obbligatorio comprare una scheda X800 o X850, (della fascia alta, in pratica!) è unirla ad una qualsiasi scheda X800 o X850 anche di fascia bassa.

La scheda Slave si appoggia direttamente alla Master, ma cosa succede quando la Slave è inferiore come prestazioni rispetto alla Master?

Al di là delle prestazioni, entrano in gioco diversi fattori, come il numero delle pipelines in questione. Se la scheda master è dotata di 16 pipes mentre la slave solo di 12, allora la GPU master potrà usare, solo 12 pipelines. In pratica una X850 PE Master perde gran parte delle sue potenzialità per adattarsi alla scheda più lenta.

Ovviamente chi possiede una X800 di fascia bassa e vuole raddoppiare le sue prestazioni col Crossfire, è costretto a spendere 600€ per una X800 o X850 Crossfire e ottenere una Dual GPU con prestazioni inferiori rispetto alla singola scheda Crossfire appena acquistata. In pratica è più conveniente montare come Slave, una scheda X800 o X850 di fascia alta.

Anche i metodi di renderizzazione dell’immagine sono diversi rispetto allo SLI.

Il sistema di Nvidia divide orizzontalmente ogni schermata in 2 parti ed ogni scheda renderizza la sua frazione di schermo con divisione equa del carico di lavoro.

Il Crossifre ha 4 diverse modalità di funzionamento nel renderizzare l’immagine in coppia, ognuna coi suoi pro e i suoi contro:

Modalità SuperTiling:

Ogni schermata viene divisa in tanti quadrati, come in una scacchiera, ed ogni scheda renderizza la sua “parte” di quadratini. Questo sistema funziona con tutti i giochi e con tutte le applicazioni Direct 3D, ma il carico del lavoro viene ottimizzato solo dal lato pixel.

Questo sistema purtroppo non funziona con le operazioni OpenGL e l’aumento di prestazioni è solo dell’1,1 in quanto tutt’è due le schede devono renderizzare l’intera immagine.

Modalità Scissor:

In parole povere il sistema dello SLI, l’immagine viene divisa orizzontalmente in due parti ed ogni scheda “pensa” alla sua.

Il sistema lavora con tutti i giochi che già supportano lo SLI, ma le schede devono elaborare sempre l’intera geometria della scena.

Modalità AFR (Alternate Frame Rendering):

Con questo metodo ogni scheda renderizza tutta la schermata di gioco, ma vengono distribuiti equamente i frame elaborati. Una scheda renderizza i frame pari e l’altra i frame dispari.

E’ la modalità più performante del Crossfire in quanto consente di (quasi) raddoppiare il numero di fps rispetto alla singola GPU, ma non funziona con le applicazioni che usano la funzione “Render to Texture” ovvero quelle che sfruttano la fusione delle luci e delle ombre o altri effetti, in un'unica texture.

Modalità Super AA:

Questo sistema non incrementa le prestazioni bensì la qualità dell’immagine.

L’antialias consente di eliminare l’effetto “scaletta” che si può notare quando i vettori dell’immagine non sono perfettamente orizzontali o verticali. Il vettore in questione viene “ammorbidito” mostrando una linea retta invece che i singoli pixel che lo compongono. Applicando l’antialias la scheda crea vicino alla scalettatura dell’oggetto, una sfumatura graduale tra i colori dell’oggetto e quelli dello sfondo. Maggiore sarà il moltiplicatore dell’Antialias 2x, 4x, 8x, maggiore sarà la graduazione della sfumatura e il carico di lavoro della GPU. Il sistema Crossfire in modalità super AA, fa sì che ogni scheda renderizzi tutta l’immagine del gioco, e che ogni pixel, sia sfumato per metà da una scheda e per metà dall’altra. Il pixel viene così diviso in due parti uguali diagonalmente. Ogni scheda applica l’AA solo alla sua metà per ogni pixel

In pratica selezionando l’antialias a 8x, il Crossfire fa sì che ogni scheda usi l’AA a 4x. E’ possibile ottenere così, antialias a 12x e 14x, ovvero 1ox o 12x di antialias Multi-Sampling + 2x SS, antilias Super-Sample. L’antilias Super-Sample è in grado di ammorbidire tutta la scena, mentre il Multi-Sample lavora solo sul bordo della superficie. Ovviamente con Super AA non si possono avere aumenti di prestazioni.

Per quanto riguarda le prestazioni, nei giorni passati abbiamo visto i benefici. Anche se i driver definitivi non sono ancora stati rilasciati.

Valgono tutti i discorsi sul fattore costo/prestazione fatti per lo SLI di Nvidia: anche il Crossfire come deve affrontare il problema di un costo elevato che non giustifica l’aumento di prestazioni ottenuto. Le difficoltà di gestione non mancheranno anche per Ati e molte volte la soluzione migliore per praticità e stabilità, è in una scheda singola dalle alte prestazioni.

ATI Radeon CrossFire video graphics cards review

 
Originally posted by afullo@Jun 9 2005, 10:15 PMnewsed x2 :rspecial1:







Avevo anche postato delle immagini prese dal sito in quanto non avevevano nessun logo d'appartenenza. Dopo 24 ore le hanno sostituite con la scritta "stolen" :hmmm: e ho dovuto toglierle. Capisco che la proprietà è la proprietà, ma vedere concorrenza dove c'è solo la diffusione di una informazione, mi sembra paranoia! :non_loso:

 
scusate, io ora sto giocando ad half life 2 con il mio nuovo picio, dire che me lo sbrano il motore grafico è dir poco //content.invisioncic.com/a283374/emoticons/tongue.png ,la mia configurazione è :

-p4 3.2 ghz

-abit aa8xe fatal1ty

-hd raptor

-2ghz ram ddr2 533mhz

-powercolor x800xl 256mb gddr3 (posso farla diventare una x800xt overcloccandola ?)

ce la faccio a fare girare doom3 al top ultra quality ?

quanti frames al secondo farò + o - ?

se mi scatta anche ha un motore grafico di m....., non può un motore grafico essere così ingordo di risorse !!

 
Originally posted by Gia_81@Jun 23 2005, 11:36 PMscusate, io ora sto giocando ad half life 2 con il mio nuovo picio, dire che me lo sbrano il motore grafico è dir poco //content.invisioncic.com/a283374/emoticons/tongue.png ,la mia configurazione è :

 


-p4 3.2 ghz



-abit aa8xe fatal1ty



-hd raptor



-2ghz ram ddr2 533mhz



-powercolor x800xl 256mb gddr3 (posso farla diventare una x800xt overcloccandola ?)


 


ce la faccio a fare girare doom3 al top ultra quality ?



quanti frames al secondo farò + o - ?


 


se mi scatta anche ha un motore grafico di m....., non può un motore grafico essere così ingordo di risorse !!








Per l'ultra quality ti manca la ram sulla scheda video. Ne devi avere 512MB, comunque il motore grafico e' spettacolare e la richiesta di risorse, va di pari passo con la qualità grafica offerta. //content.invisioncic.com/a283374/emoticons/sisi.gif

...E pensa, Doom 3 non lo sfrutta neanche a dovere il motore grafico e il suo potenziale, lo vedremo con i giochi di futura uscita.

 
Originally posted by Gia_81@Jun 24 2005, 02:19 PMma visivamente è meglio di half life 2 ?? non parlo di fisica, parlo di impatto visivo....







Difficile stabilire a priori quale sia graficamente migliore. Sono tutti e due degli ottimi motori sviluppati per ottenere due tipi di impatti grafici. Entrambi i giochi usano due metodi diversi per emulare il realismo di una scena. Half Life 2 vince sia per il livello poligonale che per texture, qualitativamente migliori da sembrare fotografie. Doom 3 dal lato suo, sfrutta luci e ombre dinamiche per rendere il gioco molto realistico.

Valve e Id hanno giocato la loro partita su campi diversi. Ciò non consente di stabilire quale sia il più innovativo o il più bello (da un punto di vista grafico, ovviamente).

Tutti i pareri sono espressioni di una preferenza puramente soggettiva: chi preferisce vedere texture ad alto livello o espressioni facciali realistiche, preferirà HL2. Chi invece vede l'innovazione legata al calcolo in tempo reale di luci e ombre che per complessità di renderizzazione, superano i modelli 3d che le generano, preferirà D3.

 
NVIDIA 7800 GTX

Mi dispiace aver postato la news sulla nuova scheda di Nvidia con una settimana di ritardo, ma in questi giorni gli esami universitari mi stanno lasciando pochissimo tempo.

Anche Ati sembra avere problemi legati al tempo; di natura diversa ovviamente, ma la maledizione del processo produttivo a 90nm non sembra voler abbandonare l’R520.

Scivola a tempo indeterminato quindi, la presentazione della nuova GPU di Ati. La dichiarazione del 28 giugno purtroppo è ufficiale, e i dirigenti di Nvidia si staranno facendo delle belle risate da 48 ore a questa parte.

Visto anche che il mercato è una competizione crudele, specialmente verso chi non riesce a stare al passo coi tempi, Ati è costretta a vedere una migrazione di massa dei produttori di GPU verso Nvidia.

Vero che Ati sta preparando un prodotto rivoluzionario (al meno da quello che si sa!) ed è meglio aspettare di più, che non ritrovarsi con una scheda dotata di un dissipatore da 4 chili. Ad ogni modo per un bel po’ di tempo Nvidia correrà da sola nella corsa per la migliore GPU.

Successo meritato quello della 7800 GTX che si presenta come un prodotto dalle alte prestazioni ma con consumi energetici ridottissimi.

L’anno scorso e con l’uscita a gennaio dell’X850, abbiamo visto l’avanzamento tecnologico delle GPU andare di pari passo con l’aumento del consumo energetico: la X850 PE richiede un alimentatore da 200 Watt solo per lei, due 6800 Ultra ne vogliono invece uno da 300 Watt. Si aggiunga tutto il resto e dobbiamo parlare di un consumo che si aggira ai 400 - 500 Watt.

Nvidia ha dimostrato di poter ottenere alte prestazioni da una GPU, consumando complessivamente 260 Watt e 340 in modalità SLI.

La scheda ha un core che lavora alla velocità di 430 Mhz e ben 1,2 Ghz per la memoria (256 MB).

110 MHz in meno rispetto alla X850, ma 24 pipeline consento di ottenere prestazioni migliori di quest’ultima e una dispersione di calore dentro al case minore.

Potenza pura per Nvidia che a testa alta, ha rilasciato la tech demo “LUNA” per mostrare le potenzialità della nuova Geforce 7800.

Ogni effetto applicato richiede più di 300 istruzioni per pixel, il tutto con una profondità di colore a 64 bit.

I filmati della tech demo possono essere scaricati al seguente link:

NVIDIA Demo Luna - Full-Throttle Graphics: Introducing the GeForce 7800 GTX

Per i risultati di benchmarks abbiamo i seguenti valori:

3dmark05: 1024x760 - no AA/AF

Ge 7800: 7788

Ge 6800: 5688

X850: 6400

Ge7800 SLI: 9919

3dmark05: 1600x1200 - 4x AA/8x AF

Ge7800: 4695

Ge 6800: 2969

X850: 3387

Ge7800 SLI: 5069

Doom 3: 1024x760 - no AA/AF

Ge 7800: 117

Ge 6800: 110

X850: 108

Doom 3: 1600x1200 - 4x AA/8x AF

Ge 7800: 53

Ge 6800: 43

X850: 40

Half life 2: 1024x760 - no AA/AF

Ge 7800: 72

Ge 6800: 69

X850: 73

Half life 2: 1600x1200 - 4x AA/8x AF

Ge 7800: 69

Ge 6800: 51

X850: 65

Far Cry: 1024x760 - no AA/AF

Ge 7800: 139

Ge 6800: 109

X850: 115

Far Cry 1600x1200 - 4x AA/8x AF

Ge 7800: 52

Ge 6800: 35

X850: 36

I drivers di questi test non sono del tutto ottimizzati (e presentano anche qualche errore di rendering). Si aspettano quindi prestazioni migliori rispetto a quelli riportati. Altri benchmarks sono presenti al link presente a fine post.

C’ è stato pure chi, non soddisfatto, ha già provato ad overcloccare la scheda aumentando il core fino a 700 Mhz ottenendo così 11.000 punti col 3dmark05 e stabilendo un nuovo record mondiale.

A livello tecnologico abbiamo sempre lo shader 3.0 (niente 3.5 per questa volta!), ma 24 unità pixel shader e 8 vertex shader. In più le modalità antialiasing transparent supersampling e multisampling.

Il tasto dolente è per l’ennesima volta il costo: si parla sempre di 550 €, anche se orami questo non ci stupisce più.

Questa è la nuova proposta di Nvidia. Ati adesso dovrebbe rispondere con la sua R520, sempre che la sorte glielo consenta.

Finora le voci di corridoio hanno parlato di 700 mhz come frequenza di lavoro e 32 pipeline. Dopo aver visto la tech demo della Geforce 7800, se sono questi i dati effettivi della prossima scheda di Ati, vedremo qualcosa si sbalorditivo.

:ciao:

NVIDIA 7800 GTX: 24 Pipeline di Potenza!

 
Qualche giorno fa ho trovato questa interessante prova -->QUI<--, dove vengono valutate le schede video top di gamma e i giochi con grafica migliore, portati ad altissime risoluzioni video (2048x1536)

Dato che si parla anche di Doom3, forse a qualcuno può interessare... //content.invisioncic.com/a283374/emoticons/smile.png

Sono rimasto sopratutto shockato, dinanzi la bellezza di questo screen shot, fatto alla risoluzione di 2048x1536, hight quality, con AA 4X, ANISO 8X. Grazie ad una singola 7800GTX possiamo godere di questa meraviglia grafica...

-->Doom3 - 2048x1536<--

Comunque, la cosa più interessante e' l'effettiva possibilità di sfruttare le altissime risoluzioni, traendone un giovamento notevole in termini di qualità video, pur non pesando eccessivamente sulle GPU di nuova generazione.

Direi che questo e' il futuro!!! Un monito CRT 19" 2048x1536 a 85Hz, costa sui 250€, quindi alla portata di un vastissimo numero di giocatori e quando anche i nuovi accelleratori grafici entreranno nella fascia media di prezzo (7800 e R520), giocare ad altissime risoluzioni, non sarà più una rarità.

In virtù di questo, il mio prossimo acquisto sarà un bel monitor CRT da 19" o 21", in attesa che l'R520 sia disponibile nei negozi. :thomasbz:

:bye:

 
Pubblicità
Pubblicità
Indietro
Top