il dissipatore si puo anche cambiare se necesario ma non è da tutti e poi come dice beta la garanzia decade...
Ho capito perfettamente che stai cercando di dire, il fatto e' che come ho gia' detto questo sono schede video se vogliamo giudicarle come tali quello che hai detto non sta in piedi...
Io non mi sono mai espresso e anzi ne pensavo molto meglio prima di "vederlo" in azione... Cmq possiamo direi che l'idea Fermi è buona la realizzazione lascia abbastanza a desiderare (almeno per ora)
Ma io che devo comprare non ho l'onere di dover anche comprendere io voglio pagare e ricevere per quanto ho pagato... E' ridicolo dire: " Fermi è una bomba va circa il 10-15% più di ATI e ha 3 miliardi di transistor è normale che scaldi tanto..." è normale sto paio di OO, che se lo tengano... Ti pare che quando uno ti vende una macchina con 600 cavalli ti dica è normale che se la tiri si brucia il motore???
Non e' solo una questione di prezzo, è perdonami ma non trovo che sia una bomba... Quello che io classifico come bomba e' il rapporto che c'e' tra le "vecchie" GTX e le nuove non certo tra 5870 e 480. Ma il punto e' sempre legato all'efficienza in ogni salsa, quindi rapporto prestazioni/prezzo, prestazioni/calore, prestazioni/consumo.
Apparte che ho dei dubbi su quanto dici, ho sbagliato ad esprimermi dicendo che attualmente ati è la più utilizzata, infatti è la più comprata dall'uscita di 4870 e 4850... Quanto mancherà prima che diventi la più utilizzata in assoluto??
Anche qui si parla di efficienza, quanto senso puo' avere un impianto a liquido con l'acqua ad 80°?? Ti conviene rimettere tutto ad aria che alla fine almeno la cpu puoi ancora cloccarla...
Tirando le somme come possiamo riassumere?
Fermi è un progetto ambizioso purtroppo condizionato da gravi problemi realizzativi, ergo processo produttivo e resa produttiva... TSMC ha incontrato e tutt'ora le cose non sono cambiate (vedi il bassisimo numero di prodotti al primo lancio) enormi difficolta nel realizzare Fermi, questo perche' (ati c'e' gia' passata) realizzare una gpu cosi' complessa non è affatto facile. Al cebit circolavano voci su quante reali gpu si potevano realizzare da un wafer da 300mm e quanto costava ogni gpu funzionante ad nvidia, sono dati confidenziali che non possiamo rivelare, ma le cifre erano da fallimento...
Ati con R600 e il famoso ringbus a suo tempo ebbe gli stessi problemi, e tra le altre cose quelle che funzionavano non andavano nemmeno meglio di nvidia quindi se vogliamo abbiamo di che sperare per le future GPU Fermi... Il problema è che dubito fortmente ATI se ne starà buona buona a guardare...
Ciao!
Da questo punto il chip Nvidia è ancora meno espansivo, a parte il fatto che necessita 2 schede video per il supporto al Surround Vision. Anche in singola scheda per pilotare il DAC di due monitor sia la scheda Nvidia sia la soluzione ATi devono funzionare con una frequenza più alta in IDLE. Quindi si passa con ATi da 150-300MHz (GPU memorie) a 400-1200 MHz con un consumo in IDLE che cresce dal canonico 20watt fino a 60Watt. Nvidia da questo punto è ancora più esosa perché passa dai 50-60watt in stato Idle a 120-140watt!! :dho (50-67MHZ GPU-Mem in IDLE, 405-920MHZ con 2 LCD in IDLE) pensate il consumo per il 3D Vision con un'altra scheda aggiuntiva :LOLgoku;.
Più che un "3D Vision" lo chiamerei "3D Delirio" :mrgreen:
Un saluto
è pur sempre una vga sola... se in un v3 ci ho messo 2 x 295 vuoi dire che una 480 non ci stia?? adesso non dico in un v2 perchè forse ci starebbe strettina ma in un V3 ci naviga..
penso sia più importante avere un circuito con un pò di liquido in più.. in modo che possa lavorare da "ammortizzatore" per le temperature..
NVIDIA non ti dice che se ci giochi ti si brucia la scheda, e state tanto parlando di catastrofi quando ancora non ci sta un RMA (lo che manco è in vendita:smt082).
In ogni caso quando ti vendono una macchina da 600 cavalli non ti dicono che fotti il motore se la tiri, ma dovresti saperlo che non ci puoi fare il giro del mondo, e cmq ti dicono (e dovresti ben sapere) che beve come una zoccola.
Quindi punto e a capo. Per me resta cmq un impresa quella che han fatto, 3 miliardi di transistor e 270W di consumo, per le temperature invece ne vorrei una in casa solo per provare a vedere a quanto arriva la temperatura dell'intero impianto.
Attenzione se ti rileggi quanto scritto da me non ho mai detto che sia impossibile usarla a liquido o che se ne romperanno tante, ho semplicemente detto che ha gravi problemi di temperature e che sarà molto difficile da gestire... Il bruci era riferito al motore, cmq dirmi che quando raggiunge i 105° si spegne da sola e sapendo che siamo a 93° attualmente non mi fa ben sperare sulla reale utilizzabilità futura, soprattutto se cominciamo a pensare realisticamente che il 95% dei possibili acquirenti non sa e nn ha alcun interesse a sapere (giustamente agguingerei) che serve un case molto ben areato, che bisogna pulira regolarmente, che fa un macello del demonio...
Con le macchine attuali ci fa 3/4 volte il giro del mondo anche se hai 600cv e lo fai comodamente seduto sul tuo bel sedile in pelle con tanto di tv e comodità varie (vedi collegamento con vga che va bene nei giochi e fa anche molto di piu')... Ah (ho preso questo argomento perche' sapevo di indurti in fallo) esiste una macchina molto interessante che potrebbe cadere perfetta come esempio... Dai un occhio qui: Porsche 918 Spyder Concept - Salone di Ginevra 2010
questo è quello che io chiamo prodotto innovativo e prestazionalmente una bomba...
So che parlare di macchine è totalmente OT ma ti fa capire come studiando bene si puo' incrementare l'efficienza e non semplicemente puntare sulla potenza bruta letteralmente fottendosene di consumi e temperature... Fortunatamente nel mondo dell'automobile, vuoi o non vuoi la componente consumo sta rivestendo un ruolo sempre più determinante...
Ciao!
Purtroppo GF100 è una rchitettura troppo avanti per il processo produttivo, però ovviamnete le prestazioni sono innegabili anche con progetto castrato e a frequenze inferiori alle prospettive iniziali.
Io vedo questo Fermi una cannonata di architettura, incredibilmente più efficiente come sfruttabilità della ptoenza di calcolo del chip e estremamente facile da programmare tanto che è considerato la più grande rivoluzione in campo GPU computing in assoluto che monopolizzerà totalmente quel mercato, e gestire, il problema è che adesso lo vedo più come un uscita obbligata di un prodotto non ancora finito.
Probabilmente con un refresh del prodotto o con il prossimo fermi 2 i numeri ci saranno eccome e ritornerà davanti senza troppi problemi, anche perchè sicneramente non mi preoccuperei molto di NI, Nvidia riuscirà sicuramente a forzare lo sviluppo con i capitali che si ritrova.