E infine eccomi qua...

Dopo settimane di nauseanti commenti sul "Fermi che c'è ma non esce" mi sono reso conto che in realtà si sapeva già tutto, a parte i numeri sui grafici, ma il popolino è troppo stanco per farsi una cultura leggendo il whitepaper sull'architettura Fermi che NVIDIA ha reso disponibile da mesi.:conf

Andrea per prima cosa scusa se ti ho rotto tanto le palle mentre benchavi con le nuove NVIDIA, ma sai bene come l'ho vissuta. Seconda cosa, lo ammetto, da sempre prima di leggere le recensioni di nuove architetture video, facevo una carrellata sui siti "più accreditati" del settore, e poi approdavo qui a leggere le tue recensioni, convinto di avere così una visione più completa della situazione.

Oggi ho deciso di cambiare, e non so il perchè. Mi ero gia studiato mesi fa il whitepaper che come sai, so quasi a memoria, ma leggendo la tua recensione mi sono reso conto che non ho il minimo bisogno di andare su un altro portale a leggere altre cose, hai già detto tutto quello che c'era da dire, e l'analisi dell'architettura l'hai fatta davvero bene, quindi complimenti, ti stimo amico mio.

Ora arrivano le mie tanto criticate sentenze...

Se avessi la possibilità di bannare, dopo queste 6 pagine di commenti, almeno 3 account sarebbero già saltati, a voi indovinare chi...

Come si è accorto qualcuno, il GF100 non è un flop e sarebbe totalmente sbagliato paragonarlo alla vecchia FX5800, bensì è un architettura incompresa come l'R600 di ATI, serve solo del tempo. Il progetto Fermi è estremamente ambizioso, permetterà ad NVIDIA di lottare ad armi pari con Intel evitando la burocrazia ed i problemi legali dovuti alle licenze.

Faccio notare a chi tra noi va oltre i miseri grafici, che AMD ha la possibilità di realizzare una propria piattaforma completa (CPU+GPU), Intel fa letteralmente paura, potendosi addirittura permettere di annullare come se niente fosse il lancio di un progetto (il 90% delle aziende su questo mercato fallirebbero con un progetto che salta), mentre NVIDIA è l'unica che può sviluppare solamente GPU, ritrovandosi di fatto con metà mercato rispetto alle rivali e con molti più rischi futuri.

Tempo fa, molti speravano che NVIDIA acquisisse VIA Tech. per poter sviluppare proprie architetture x86, così da poter offrire come le concorrenti una propria piattaforma completa. Ma ragionate un attimo, guardate le cose con un senso più logico, se NVIDIA non potesse o non volesse acquisire VIA, ma magari volesse realizzare da se un architettura x86, credete davvero che possa essere competitiva con la prima generazione di prodotto? Ovviamente no, e quasi sicuramente nemmeno con la seconda e neanche con la terza generazione.

Quindi se le ipotetiche CPU NVIDIA non andranno forte, perchè non far pesare meno le CPU e sgravarle spostando sempre più cose sulla GPU? Aziende come NVIDIA non falliscono dall'oggi al domani, o per una generazione-flop di prodotto, queste aziende sanno bene come muoversi, se questi sono i risultati NVIDIA continuerà a sfornare chip monolitici a lungo, vanno solo ottimizzati un po'.

Signori, quei 3 miliardi di transistor se lo meritano tutto il nome di quel grande mito italiano che fu Fermi: Fermi è il futuro di NVIDIA. La più potente CPU prodotta da Intel quanti transistor ha? In totale quanti trasistor ha la Radeon HD5970 con due GPU?

Il solo fatto che questa architettura supporti l'ECC dovrebbe farvi capire che testarla con i vostri amati giochini del cavolo e con le applicazioni attuali scritte col culo, è totalmente inutile. Tempo pochi mesi di rodaggio, e potrete accelerare i vostri applicativi in C++ direttamente sulla GPU, vi sembra poco?

La demo in Ray-Tracing è incredibile, sapete in quanti desideravano un prodotto del genere? L'industria cinematografica si prenderà buona parte dei primi 10000 esemplari, in campo medico dove ogni bit errato è una bestemmia, queste schede nelle versioni Tesla andranno a ruba. Case automobilistiche come Audi, BMW, Mercedes, Ferrari, avranno la macchina tanto vera quanto nella realtà ancora prima di averla prodotta, e senza perdere ore in calcoli.

Fatevene una ragione, ma di voi giocatori che vi lamentate dei 300W di consumo e dei 93° in full NVIDIA se ne sbatterà sempre di più il cazzo, perchè con Fermi NVIDIA farà più soldi di prima, ma tanti di più, sfortunatamente il suo sarà un monopolio in settore specializzati in cui ATI è inesistente e troppo poco competitiva.

I test sui giochi come mi immaginavo sono totalmente inutili su un architettura nata troppo in anticipo, è come far volare un Euro Fighter con un motore ad elica o una mongolfiera. In molti hanno scritto che le prestazioni sono spesso troppo vicine alla Radeon HD5870 per giustificare il salto di prezzo, ma ricordare una cosa, questa GTX480 è una toppa, c'è uno Streaming Multiprocessor (32 CUDA Core) su 16 spento (15/16) per aumentare la resa produttiva, se fosse attivo, e considerando che le prestazioni non aumentano linearmente, credo che la prossima GTX485 andrà mediamente un 15% in più di una Radeon HD5870 costando cmq di più, ma offrendo in generale molto molto di più.

Come sottilineato da Andrea, Fermi da il meglio quando si usano pesantemente le DX11 e la tasselation, questo è il dato più importante, la GPU di ultima generazione divora bene il software di ultima generazione, mentre l'RV870 arranca un po' (andando cmq alla grande) perchè troppo derivato dai progetti passati e poco realmente innovativo, ecco quindi uno dei motivi per cui è stato presentato così presto.

Leggendo il whitepaper, e non lavorando in NVIDIA, dico che secondo me la limitazione più grande di questa architettura sia l'impossibilità di utlizzare la tecnologia Dual Warp Scheduler in doppia precisione, sarebbe stato un balzo in avanti immenso, soprattutto in ambito medico.

Per quanto riguarda le altre tecnologie, come ho già avuto modo di dire altre volte, dal mio punto di vista la moda del multi monitor è una cazzata mondiale, ma tutti se ne riempiono la bocca. Secondo voi, da quando ATI ha introdotto Eyefinity (che cmq obbiettivamente è una gran figata), in Italia quanti hanno comprato il secondo monitor per poter giocare? Secondo me non più di 5 persone.

Passando a consumi e temperature. Se uno compra una VGA di fascia alta come la Raden HD5870/5970 o una GTX480, sapendo di avere un case di plastica da 30€ pieno di polvere e unto, a priori è coglione, e si merita che gli prenda fuoco l'intero PC. Io se penso di comprare una VGA di fascia alta includo sempre l'acquisto di un dissipatore più efficiente, perchè quelli custom di ATI e NVIDIA, su schede di questa fascia, sono sempre rumorosi e poco efficienti. Per quanto riguarda i consumi invece sono davvero deluso, non tanto per i consumi in full (3 miliardi di transistor e ci lamentiamo? Ma sapete quanti cavolo sono? Se penso al PD32 che sviluppavamo a Ingegneria mi sento una nullità...), quanto piuttosto per una non curanza dei consumi in idle, ATI con i suoi 19W ha fatto davvero un gran lavoro.

Infine concludo dicendo questo...il G80 ha marchiato a fuoco la storia, non solo perchè è stata un architettura rivoluzionaria, ma perchè è stata l'architettura giusta al momento giusto. Le DX10 hanno rappresentato una svolta drastica rispetto al passato, quindi le architetture compatibili con tali librerie non potevano che essere rivoluzionarie (R600 incluso, gente col manico ci ha fatto record mondiali).

Scordatevi d'ora in avanti un boost prestazionale del 50-70% in più da una generazione all'altra di VGA, almeno fino a quando anche il software non subirà delle rivoluzioni drastiche. Le DX11 potevano essere benissimo delle DX10.5, la tasselation e le poche altre novità non sono così rivoluzionarie, ma si sa, il marketing conta più di tutto.

Ero convinto di comprare la nuova GTX480 fino a poco prima di sapere che avrebbero bruciato uno SM, e io odio le toppe e le cose castrate, quindi aspetto giugno per prendermi la GTX485, voi fate quel che volete...