Eccomi qua, dopo un intensa giornata di studio (dalle 9.00 alle 22.00) non potevo mancare...

Oggi è stato il gran giorno, dopo una lunga attesa NVIDIA ha rilasciato la sua nuova nata...

Ho letto tutte le recensioni dei più noti siti italiani e 8 recensioni estere, con tutti i commenti degli utenti...

Che dire?

C'è chi afferma che questa nuova nata, tanto nuova poi non sia, altri dicono che è rivoluzionaria e che ha confermato le aspettative, altri l'hanno definita semplicemente come "FLOP as 5800"...

Ora vi darò la mia opinione...

Nella storia siamo sempre stati abituati ad avere due grandi aziende, NVIDIA e ATi, che a colpi di vga si sono fatte concorrenza, creando una sorta di sali e scendi, in cui a grandi flop di una corrispondevano grandi vga dell'avversaria...

Tutti ricordiamo i tempi della tanto famosa quanto disastrosa GeForce FX5800 Ultra, una scheda preannunciata e decantata in tutto il web, che poi si rivelò essere non solo meno prestante della controparte ATi (ed NVIDIA stessa), ma consumava di piu', era più rumorosa, oltre al problema di gestione delle dx9...insomma un completo disastro...

Con la serie 6 e 7 le cose sono tornate circa alla normalità, con le due aziende che continuarono a farsi lotta, con nuove vga e prezzi sempre più competitivi...

Arriviamo a novembre 2006, NVIDIA dopo aver presentato il suo primo modello di GX2 (7950GX2), con stupore da parte di tutti, presentò una nuova scheda fuori dagli attuali canoni, dx10 e shader unificati, dimensioni fuori dal comune, consumo, rumorosità, dimensione della gpu, quantitativo di ram...

In relatà sotto sotto si sapeva da circa 5 anni della collaborazione tra NVIDIA e Microsoft per lo studio di questa gpu e delle dx10...

La cosa sconcertante fu che il g80, era superiore anche alla 7950GX2, nonostante la prima fosse dotata di due gpu e i driver acerbi della serie 8, oltre ad essere nettamente superiore a tutte le altre vga in commercio, sia in configurazione singola che multi-gpu...

Sicuri del traguardo raggiunto e avvantaggiati dai problemi di AMD/ATi dopo l'acquisizione e quindi privi di concorrenza, gli ingegneri della NVIDIA hanno avuto circa 2 anni per sviluppare una degna erede al trono...

Dopo aggiornamenti e revisioni del g80 con g92, g92b e altri, rinominati in mille maniere ma le cui radici erano le medesime, siamo giunti al 16/06/2008...

Premetto che, se IO fossi a capo di un azienda quale la NVIDIA, saprei che la prima impressione, quindi la lettura della prima recensione, è quella che resterà marchiata più a lungo nella mente dei fan e non, quindi cercherei di ridurre il numero di problemi a 0, in modo che il mio prodotto risulti più brillante possibile.

Detto questo, non sto qui a fare troppi riassunti per indicare in quali bench è superiore, in quale inferiore ecc ecc, ma gia da queste parole si può capire che qualcosa non va...

Al tempo del g80, non si parlava di bench in cui quest'ultimo era superiore o inferiore, in quanto era superiore a tutto in tutto.

Questo fatto, marchiato nella mente di tutti, ha fatto sì che tutti si aspettassero (giustamente) dopo due anni di attesa, una rivale che non solo fosse superiore in TUTTO, ma anche con vere novità.

Vorrei ricordare che la Intel ha pagato caro a suo tempo i tentativi di aggiungere forza bruta a cpu la cui architettura di base era ormai agli sgoccioli (Prescott)...ma forse alla NVIDIA se ne sono dimenticati.

=========================================================

CONSIDERAZIONI :

Io da consumatore, pago e pretendo, anzi, pretendo anche troppo.

  • Hanno avuto due anni per questa gpu, non gli permetto scusanti quali "driver acerbi". Loro devono vendere, e se vogliono vendere devono mettersi nelle condizioni per cui il loro prodotto renda il meglio possibile.

  • Dx10, nessuna innovazione architetturale, su una delle recensioni è stato ben indicato come alla NVIDIA abbiano solo pensato a "raddoppiare" il numero delle singole parti interne alla gpu.

  • GDDR3, che per quanto selezionate e per quanto prestanti, più di quello non vanno.

Io avrei preferito Dx10.1, che si sa, non cambia nulla rispetto alle Dx10, ma gia il fatto di saperle compatibili, per gli utenti, è un problema in meno.

GDDR4, tutti dicono che siano un flop come memorie, è vero, ma sono sicuramente superiori alle GDDR3, a parità di consumo permettono margini di frequenze superiori, anche se non ai limiliti che ci si aspettava, e da quel che ho letto, i costi non sono neanche così superiori (8$ in più al chip). Il solo costo per NVIDIA di un singolo GT200 dicono che sia di circa 100$ presso TMSC, cosa che mi pare impossibile visto che la scheda completa costa 565euro e si sa che la cosa più costosa in una vga è la gpu, quindi considerando il cambio 100$ = 100euro segue che :

565-100 = 495, ora spiegatemi dove li mettono 495 in un pcb.

Per me questa gpu è un mezzo flop, me la aspettavo come minimo superiore in tutti i bench a tutte le altre vga in commercio (per essere degna erede del g80), con buone % di vantaggio, invece da tutte le recensioni lette si nota come questi margini di vantaggio siano netti se paragonata alla 9800gtx, mentre a confronto con una 9800gx2 in certi bench risulta addirittura inferiore (cosa che con il g80 non accadde).

Sono soddisfatto dei consumi, minori e contenuti nonostante le dimensioni della gpu (650mmq ca), anche se mi sarebbe piaciuto qualcosa di veramente innovativo al posto di abbassare semplicemente le frequenze di core, sp e ram quando si è in ambiente 2D. Mi avrebbe fatto piacere leggere che al posto di abbassare le frequenze, certi blocchi della gpu si spegnevano (un po come nel prototipo di Intel a 80core).

La rumorosità è un fattore facoltativo e ai test fatti non ci credo, ci sono troppe variabili da considerare e come test non li ritengo affidabili.

Ho visto i margini di overclock, che direi essere ottimi grazie ai 65nm (Zotac propone la versione Amp! a 700mhz sul core al posto dei 602 reference) ma è evidente che i margini delle memorie siano molto limitati...

Hanno sbagliato ad adottare ora i 65nm per poi passare a fine estate ai 55nm, oltre a creare dissenso tra gli utenti in quanto non sanno se è meglio comprare ora o aspettare, si sono dimostrati indietro rispetto ad ATi (forte dell'esperienza AMD), e dico che optando direttamente per i 55nm avrebbero risparmiato quei $ sul core per magari spenderli in GDDR4; molti dicono che non sono pronti per i 55nm, ma non sono di certo due mesi che permettono un processo produttivo rispetto ad un altro : alla domanda "E te che ne sai?" rispondo che ci sono gia i sample a 55nm

Dopotutto dovevamo aspettarcelo...

Il salto prestazionale brutale con il g80, è dovuto al fatto che era una gpu completamente diversa dalle precenti, mentre questo gt200 è si "nuovo", ma le redici sono vecchie, solamente raddoppiate.

L'abbiamo visto anche con Intel, i C2D con la loro nuova rchitettura hanno permesso a Intel di tornare in vetta da due anni ormai...e ora, dopo aver capito che spingere troppo sulla stessa architettura non porta a nulla, hanno optato per passare a Nehalem...

ATi la prossima settimana presenterà la serie 4800 e NVIDIA presenterà i driver con le implementazioni CUDA...staremo a vedere...

Una cosa è certa : le prestazioni delle 4800 non saranno di molto inferiori, quindi entrambe faranno lotta sui prezzi, tutto a vantaggio di noi consumatori...

...finchè una delle due non presenterà un qualcosa di completamente nuovo, come al tempo del g80...

E' un ciclo, chi vivrà vedrà...










[PS : Vi state chiedendo cosa farò io? Spesi 670euro per il g80, fui criticato come tanti da molti, ora posso dire che li spesi bene e ne vado fiero, nella storia è stato l'unica gpu in vetta per due anni.

Questo GT200 non li merita ora 565euro, aspetto l'uscita della controparte ATi e la stabilizzazione dei prezzi, vale a dire fine luglio, e poi...

...ovviamente comprerò questa GeForce GTX280^^ (NVIDIA FOREVER)]



[VisioN]