Salve a tutti,

come si dice in gergo : "meglio tardi che mai".

Per molti mesi s'è parlato dell'overvolt relativo alla serie Geforce3 pubblicato da Xbitlabs. Fin oggi si è sempre sostenuto che tale overvolt sia stato una enorme bufala e che Xbitlabs stesso fosse sceso di tono ingannando gli utenti e quindi perdendo molto di credibilità.
Dopo quasi 4 mesi ho reputato inutile continuare a "spingere" la mia "Asus 8200 pure" (ci sono affezionato ) vista la grande evoluzione tecnologiche degli acceleratori grafici ma , leggendo ancora in giro nel web critiche in relazione a quella storia li, ho ripetuto l'intero esperimento come si sarebbe dovuto fare (varie modifiche hardware, supporto fastwrite in hardware, quadro , overvolt vari flash di bios ecc..) ottenendo una grossa sorpresa !!



Questo è lo screen del Vgaprobe di asus dove vengono monitorate temperature e voltaggi attinenti sia al chipset che alla ram, le impostazioni sono tutte in default, l'unica modifica "attiva" è quella della RAM stessa che "gira" a 3.26/.3.30Volt. Da notare che il vcore della gpu è pari ad 1.5volt circa.





Questo invece è il secondo screen con i valori del vcore della GPU notevolmente variati. Per eseguire questo test ho utilizzato il solito trimmer multigiri da 50K settato in partenza sugli 800ohm discendendo sotto i 700ohm per innalzare il voltaggio. il risultato è sempre UGUALE. Perfettamente.
Come si può vedere lampantemente il voltaggio è cambiato aumentando fino ad 1,9volt circa! Questo, si sa, avrebbe dovuto influenzare notevolmente il margine di overclock della GPU ma ciò non è avvenuto. La gpu in questione è raffreddata a liquido sia sulla parte superiore che posteriore (ricordate il test che feci più di 2 anni fa con il lunasino ? Beh, funziona ancora ed è sempre sulla "testa" di ogni mia modifica od overclock sugli acceleratori grafici).

Quindi, come volevasi dimostrare, XBITLABS non ha pubblicato una bufala ma una modifica realmente funzionante. Se il "risultato" è stato molto scarso, credo che principalmente lo si debba ad nVidia , la famosa "piastrina" sulla GPU non mi ha mai convinto, nulla toglie che possa limitare l'overclock o che possa esserci un qualche "limitatore" che controlla il flusso dati in relazione ad AGP/GPU/RAM.

Paolo Chiocchio