Cosa c'è di nuovo?

[Archivio] ATI vs Nvidia: ogni anno la sfida si rinnova! - 2004-2007

  • Autore discussione ICON of SIN
  • Data d'inizio
I

ICON of SIN

non intendevo il modello di ram (ddr1 o gddr2, ecc..) ma se la velocità era effettiva o double data rate (che manda 8 bit per ogni fronte di salita e discesa del clock, 900MHz in ddr sono 1800Mhz) //content.invisioncic.com/a283374/emoticons/winks.gif
le gddr3 supportano fin 2ghz se non ricordo male, passare alle gddr4 ha solo un cambio economico //content.invisioncic.com/a283374/emoticons/sisi.gif
Ah scusa! Con "ddr?" pensavo volessi sapere il modello della ram. La velocità effettiva (intesa dalle voci ovviamente) sarà di 1.800 Mhz. Se erano 900 Mhz effettivi, avrebbe dovuto avere un ciclo di clock da 450 Mhz; più basso persino dell ram della X850!.

Per quanto riguarda le GDDR4, personalmente non penso che si tratti solo di una questione economica. La tensione richiesta per le GDDR3 è di 1,8 - 2,0V, per le GDRR4 parliamo di 1,5V nominali e 1,9V se overcloccati. Meno tensione implica anche meno dissipazione.

In più abbiamo una lunghezza di blocco dati di 8 bit contro i 4 delle GDDR3. Il chè consente, a parità di frequenza, di ottenere un bandwidth più elevato.

Al momento la X1950 monta le GDRR4 più lente disponibili in mercato, ma già con l'R600 avremo velocità più elevate. Per questo mi sembra strano che Nvidia rinunci a questo tipo di ram. :none:

 
G

Gyppi

beh, attendiamo e vediamo quali saranno le specifiche reali //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

comunque complimenti, sei un esperto di queste cose //content.invisioncic.com/a283374/emoticons/laugh.png

 
I

ICON of SIN

beh, attendiamo e vediamo quali saranno le specifiche reali //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif
comunque complimenti, sei un esperto di queste cose //content.invisioncic.com/a283374/emoticons/laugh.png
Grazie! Ma complimenti anche a te! ^_^

E' bello poter scambiare idee e opinioni sull'hardware! //content.invisioncic.com/a283374/emoticons/laugh.png

 

Duke Nume

LV
0
 
Iscritto dal
16 Ago 2006
Messaggi
1,179
Reazioni
0
ben tornato! :festa:

comunque so che ati sta facendo grossi passi avanti...

ah già,non ci conosciamo:sono duke nume,moderatore della zona di editing (in prova) ed ho notato che ci sai fare con l' hardware!!!

ps:stavo visitando il tuo spazio web ed dice che c'e l hai disconesso,perche (volevo scaricare le mappe multiplayer di afullo...)

 
G

Gyppi

duke, di quale sito parli?

---------------

nuova indiscrezione sulla G80, sembra che integni il motore fisico havok //content.invisioncic.com/a283374/emoticons/azz.gif

Stando alla notizia, ovviamente ancora non ufficiale, presentata da Dailytech La nuova GPU di Nvidia basata sul G80 sarà disponibile in due versioni: la GTX per la fascia high end e la GTS, che non si piazza proprio come entry level ma come versione più economica della sua sorella maggiore.Questa versione del G80, implementerà anch’essa l’architettura con shader unificati (ormai sembra quasi certo che non si tratti più di un sistema ibrido) ma in quantitativo minore: 96 contro i 128 della GTX.

La frequenza del core subirà una riduzione passando dai 575 Mhz della Geforce 8800 GTX ai 500 della versione GTS; così come il bus della memoria che scenderà da 384 bit con 768 MB di ram, a 320 bit con 640 MB sempre GDDR3.

Il consumo energetico della Versione GTX e GTS dovrebbe essere rispettivamente di 450 e 400 Watt, quindi il consumo totale di un sistema SLI basato su queste schede dovrebbe richiedere più di 800W! Ovviamene questi dati sui consumi sono soli indicativi visto che le schede non sono state ancora provate su alimentatori retail che godono di una maggiore efficienza, ma il doppio connettore a 6 pin per l’alimentazione delle schede ci fa capire che i consumi non saranno troppo diversi dai valori comparsi fino ad ora.

Più consumi indicano anche un dissipatore più performante, quindi come dalle foto già comparse in rete, potremmo vedere il ritorno del dissipatore a doppio slot, ma probabilmente sarà possibile trovare anche un nuovo tipo di dissipatore ibrido basato su un sistema “gas-liquido”.

Per migliorare la qualità dell’immagine, il nuovo filtro anisotropico consente di ottenere una antialias pari a 16x, valore ottenuto fino ad ora solo nei sistemi multi-GPU.

Un'altra novità invece, sarà la presenza di un sistema chiamato “Quantum Physics” sviluppato in seguito alla collaborazione con l’Havok Game Dynamics che consentirà di poter gestire la fisica nei giochi al pari o meglio di uno SLI-Physic.

Futuro sempre più incerto per le PhysX di Ageia.
fonte: hwupgrade.it

 
I

ICON of SIN

ben tornato! :festa:comunque so che ati sta facendo grossi passi avanti...

ah già,non ci conosciamo:sono duke nume,moderatore della zona di editing (in prova) ed ho notato che ci sai fare con l' hardware!!!

ps:stavo visitando il tuo spazio web ed dice che c'e l hai disconesso,perche (volevo scaricare le mappe multiplayer di afullo...)
Ciao!

Grazie per il ben tornato e per il complimento! ^_^

Per il download purtroppo c'è un problema dal sito Xoom che a volte mi blocca tutti i download. In raltà il progetto originale era di creare un sito per un team per il multiplayer di Doom 3. Poi il team si è sciolto ed ho abbandonato il proggetto. Comunque lo spazio web è attivo e i download dovrebbero funzionare (almeno l'ultima volta che ho uppato un file funzionava). Comunque ora vedo di creare una pagina web provvisoria con una lista dei download disponibili. Ti avviso non appena è pronta!

nuova indiscrezione sulla G80, sembra che integni il motore fisico havok
Lascia pensare che Nvidia abbia abbandonato il proggetto SLI Physic..........

D'altra parte sarebbe stato assurdo dover comprare due GPU dal costo proibitivo e usarne una solo per la fisica.

 
G

Gyppi

Lascia pensare che Nvidia abbia abbandonato il proggetto SLI Physic..........
sinceramente non ne sarei tanto triste, anzi //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

 
I

ICON of SIN

sinceramente non ne sarei tanto triste, anzi //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif
Concordo!

Mi ritengo un anti-SLI-Crossfire per natura! ^_^

 
G

Gyppi

Concordo!Mi ritengo un anti-SLI-Crossfire per natura! ^_^
io sarei a favore di sli (ho la scheda madre che suporta lo sli 32x ma solo una scheda video //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif ) ma non per la fisica!

 

-SolidSnake-

HARDCORE GAMER
LV
0
 
Iscritto dal
2 Gen 2005
Messaggi
172
Reazioni
0
800 Watt per uno SLI?? Considerando che devono essere alimentati anche altri componenti oltre alle VGA ci vorrebbe un alimentatore da tipo 1000 Watt, esiste? Quanto costa? (poi ora che ci penso su 3000 Watt che è il contratto standard con l'ENEL non possiamo mica succhiarne sui 1000 per il PC //content.invisioncic.com/a283374/emoticons/pazzo.gif voglio dire mia madre poveretta come fa a lavare i panni? Devo spegnare il computer per non superare i 3 KW //content.invisioncic.com/a283374/emoticons/pazzo.gif )

 
G

Gyppi

beh, teoricamente gli 800w dovrebbero essere solo a pieno carico, se stai sul desktop di windows dovresti restare molto più sotto;) , comunque si esistono gli alimentatori da 1000w ma non ti so dire i costi, mai cercati, io ne ho un da 535 e mi basta //content.invisioncic.com/a283374/emoticons/sisi.gif:pffs:

 

-SolidSnake-

HARDCORE GAMER
LV
0
 
Iscritto dal
2 Gen 2005
Messaggi
172
Reazioni
0
beh, teoricamente gli 800w dovrebbero essere solo a pieno carico, se stai sul desktop di windows dovresti restare molto più sotto;) , comunque si esistono gli alimentatori da 1000w ma non ti so dire i costi, mai cercati, io ne ho un da 535 e mi basta //content.invisioncic.com/a283374/emoticons/sisi.gif:pffs:
Io invece stò pensando a mia madre che dovrà pagare delle belle bollette quando farò un bel high end PC //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

 
I

ICON of SIN

Quando furono riliasciate le caratteristiche dell'R600, Nvidia criticò molto Ati per i suoi elevati consumi. Adesso la maledizione del consumo elevato ha colpito Nvidia!

Probabile che alla fine i consumi verranno ridotti; anche se la doppia presa per l'alimentazione delle GPU non lascia presagire niente di buono! :(

 

-SolidSnake-

HARDCORE GAMER
LV
0
 
Iscritto dal
2 Gen 2005
Messaggi
172
Reazioni
0
Quando furono riliasciate le caratteristiche dell'R600, Nvidia criticò molto Ati per i suoi elevati consumi. Adesso la maledizione del consumo elevato ha colpito Nvidia!Probabile che alla fine i consumi verranno ridotti; anche se la doppia presa per l'alimentazione delle GPU non lascia presagire niente di buono! :(
Ma non riescono proprio a contenere i consumi? Cavolo stanno incominciando a consumare davvero troppo le schede video //content.invisioncic.com/a283374/emoticons/pazzo.gif

 
G

Gyppi

più transistor, più consumi, l'unica è quella di ridurre il processo produttivo (attualmente 90nm per le 7900gtx).

 

-SolidSnake-

HARDCORE GAMER
LV
0
 
Iscritto dal
2 Gen 2005
Messaggi
172
Reazioni
0
più transistor, più consumi, l'unica è quella di ridurre il processo produttivo (attualmente 90nm per le 7900gtx).
Passare ai 65 nm di quanto potrebbe ridurre i consumi? 10%,20%?

 
G

Gyppi

questo non te lo sò dire, bisogna anche vedere quanti transistor hanno aggiunto, da quel che si mormora sono un bel po'

 

-SolidSnake-

HARDCORE GAMER
LV
0
 
Iscritto dal
2 Gen 2005
Messaggi
172
Reazioni
0
questo non te lo sò dire, bisogna anche vedere quanti transistor hanno aggiunto, da quel che si mormora sono un bel po'
681 milioni se non erro //content.invisioncic.com/a283374/emoticons/pazzo.gif

 
I

ICON of SIN

Perchè AMD ha acquistato ATI? La risposta in tre punti.

L’acquisizione di Ati da parte di AMD è stata una mossa commerciale che ha suscitato non poche voci. Di sicuro quelle che si sono fatte più sentire in rete, sono state le teorie dell’acquisizione per chiusura di battenti o per limitare l’uscita delle GPU a livello di schede per portatili o soluzioni desktop da ufficio.

In realtà (e per fortuna!) il motivo non era ne l’uno, ne l’altro. Al CES 2007 il sito The Inquirer ha intervistato Mario Rivas, vice presidente esecutivo di AMD. La risposta è stata divisa in tre punti:

Intanto Rivas rassicura che AMD non vuole far fallire nessuna azienda! Era da molto tempo che AMD pensava di acquistare uno dei due colossi della grafica: Nvidia o Ati. E’ un mercato che interessa molto la casa produttrice di chip, non solo dal punto di vista dei giochi, ma anche per la grafica in genrale. Dopo aver visto il potenziale di calcolo delle GPGPU, all’idea di vedere in futuro, un scheda video - processore che lavorano in parallelo, AMD ha preferito correre ai ripari assicurandosi la collaborazione di uno dei produttori di GPU.

In secondo luogo il business di Ati sui dispositivi portatili, multimediali o di acquisizione video, ha contribuito alla decisione. Una fetta troppo grande affinché AMD non si fosse interessata.

Il terzo punto invece, è rivolto al futuro, più precisamente al progetto “Fusion” ovvero di una GPU integrata in una CPU, prevista verso la fine del 2008/09.

I tempi nono sono ancora maturi per rendere tale progetto tangibile, in quanto non esiste CPU che abbia una potenza di calcolo paragonabile ai processori grafici. Bisognerà aspettare che la tecnologia si sviluppi per ridurre tale dislivello.

Parole incoraggianti quelle del vice presidente esecutivo di AMD. Se questa è la versa situazione, Ati continuerà il lavoro di sempre e non porterà sul mercato prodotti scadenti.

L’acquisizione diventa invece quasi naturale se dobbiamo parlare di GPU integrate nelle CPU. Una soluzione simile consentirebbe ai due dispositivi di comunicare tra loro senza che i dati passino attraverso la scheda madre. Ne segue tempi di trasmissione ridotti, oltre ad avere un processore potente quanto una scheda video.

Dunque sembrerebbe che AMD abbia acquisito Ati, anche per assicurarsi una collaboratrice per questo progetto futuro. Che la prossima mossa sia una fusione tra Intel e Nvidia?

Tolto lo sguardo al futuro remoto, parliamo invece di ciò che dovremmo vedere tra due mesi circa:

l’R600 è ormai completato è pronto ad essere testato su “strada”. Purtroppo non si hanno ancora voci certe sulle caratteristiche del processore, ma sembrerebbe che Ati abbia abbandonato il progetto “dissipatore ad acqua” per tornare a quello “classico”, sempre doppio slot. Questo significa che la produzione di calore da parte del processore, dovrebbe essere drasticamente calata. Ne segue anche una diminuzione del consumo energetico.

La scheda dovrebbe essere presentata verso il 23 marzo, ma senza neanche avere il tempo di uscire, ha già degli avversari potenti. Il G80 è stato un vero e proprio successo che sta a sottolineare che anche il G81 non sarà da meno.

Sicuramente l’R600 sarà al di sopra del G80, ma ormai non è un segreto che non sarà questo l’avversario del chip di Ati.

:ciao:

 
Top