Consumi nuove Geffo 8800GTX e GTS + Info specifiche

Pagina 1 di 10 1 2 3 4 5 6 7 8 9 10 ultimo
Visualizzazione dei risultati da 1 a 10 su 94
  1. #1
    pebibyte L'avatar di Figus
    Registrato
    Sep 2000
    Località
    Fagnano Olona (VA)
    Età
    41
    Messaggi
    5,328

    Predefinito Consumi nuove Geffo 8800GTX e GTS + Info specifiche

    Fonte: dailytech.com

    DailyTech received its first looks at a GeForce 8800 production sample today, and by the looks of it, the card is a monster: at least with regard to size and power requirements.

    The GeForce 8800 comes in two flavors, which we will get into more detail about over the course of the next few days. Both cards are dual-slot PCIe cards measuring a little less than nine inches in length. The first card, the GeForce 8800GTX, is the full blown G80 experience. The GeForce 8800GTS is a cut down version of the first.

    The marketing material included with the card claims NVIDIA requires at least a 450W power supply for a single GeForce 8800GTX, and 400W for the 8800GTS. Top tier vendors in Taiwan have already confirmed with DailyTech that GeForce 8800 cards in SLI mode will likely carry a power supply "recommendation" of 800W. NVIDIA's GeForce 7950GX2, currently the company's top performing video card, carries a recommendation of 400W to run the card in single-card mode.

    NVIDIA is slated to launch both versions of the GeForce 8800 in November of this year. More details on the GeForce 8800 will be available later today on DailyTech.

    Quindi per un bel sistema SLI servono 800-900W.... impressionante....


    NVIDIA’s GeForce 8800GTX will be the flagship product. The core clock will be factory clocked at 575 MHz. All GeForce 8800GTX cards will be equipped with 768MB of GDDR3 memory, to be clocked at 900 MHz. The GeForce 8800GTX will also have a 384-bit memory interface and deliver 86GB/second of memory bandwidth. GeForce 8800GTX graphics cards are equipped with 128 unified shaders clocked at 1350 MHz. The theoretical texture fill-rate is around 38.4 billion pixels per second.

    anche questo è impressionante.... ma se invece di fare schede sempre più potenti ottimizzassero il sw... non sarebbe meglio? o forse non lo fanno xchè vogliono stra guadagnare sui poveri utenti che vogliono giocare?

  2. #2
    Super Moderatore L'avatar di frakka
    Registrato
    May 2001
    Località
    Casalecchio di Reno (Bo)
    Età
    38
    Messaggi
    22,073
    configurazione

    Predefinito

    La seconda, direi!!!


    Questa è la storia di 4 persone chiamate Ognuno, Qualcuno, Ciascuno e Nessuno. C'era un lavoro importante da fare e Ognuno era sicuro che Qualcuno lo avrebbe fatto. Ciascuno poteva farlo, ma Nessuno lo fece, Qualcuno si arrabbiò perché era il lavoro di Ognuno. Ognuno pensò che Ciascuno potesse farlo, ma Nessuno capì che Ognuno l'avrebbe fatto. Finì che Ognuno incolpò Qualcuno perché Nessuno fece ciò che Ciascuno avrebbe potuto fare.

  3. #3
    Nexthardware Staff L'avatar di Chicco85
    Registrato
    Oct 2005
    Località
    Verona
    Età
    34
    Messaggi
    7,546
    configurazione

    Predefinito

    Purtroppo l'ottimizzazione sw spinta la puoi fare solo con un hardware univoco.

    Inoltre, se le caratteristiche sono confermate, si parla di 128 shader (probabilmente scalari, che corrispondono a 32 vettoriali) + un'integrazione di un motore fisico dedicato.

    Data l'enorme efficienza che dovrebbe avere nei confronti di G7x (in virtù dell'approccio dx10), il rapporto performance/watt potrebbe anche essere più che accettabile e forse superiore a quello della precedente generazione.

    Certo che 800W per una configurazione sli (che hai fini videoludici è praticamente inutile) sono una mostruosità.

  4. #4
    pebibyte L'avatar di Figus
    Registrato
    Sep 2000
    Località
    Fagnano Olona (VA)
    Età
    41
    Messaggi
    5,328

    Predefinito

    Originariamente inviato da Chicco85
    Purtroppo l'ottimizzazione sw spinta la puoi fare solo con un hardware univoco.

    Inoltre, se le caratteristiche sono confermate, si parla di 128 shader (probabilmente scalari, che corrispondono a 32 vettoriali) + un'integrazione di un motore fisico dedicato.

    Data l'enorme efficienza che dovrebbe avere nei confronti di G7x (in virtù dell'approccio dx10), il rapporto performance/watt potrebbe anche essere più che accettabile e forse superiore a quello della precedente generazione.

    Certo che 800W per una configurazione sli (che hai fini videoludici è praticamente inutile) sono una mostruosità.
    non serve neanche che sia spinta l'ottimizzazione sw... ci sono casi palesi di motori con un impatto visivo simile e prestazioni molto diverse... quella è ottimizzazione, generica ma è ottimizzazione... non so entrare nei dettagli, ma è un po' come fare una query su un db.. con un approccio ci metti 10minuti ad avere il risultato, ottimizzandola riesci a mettercene 7... l'idea è la stessa... eppure è sempre la stessa query per lo stesso risultato.... il concetto è questo...
    per quanto riguarda il rapporto performance/watt può essere, fatto sta che se metto uno sli da 800w (900 con le gtx!!) non basta neppure un alimentatore da 1000W! è quella la cosa blasfema... se accendo il pc e sta andando il forno mi salta il contatore... roba da matti....

  5. #5
    Nexthardware Staff L'avatar di Chicco85
    Registrato
    Oct 2005
    Località
    Verona
    Età
    34
    Messaggi
    7,546
    configurazione

    Predefinito

    I casi palesi sono dei programmatori che non hanno voglia di lavorare...

    Il milgior motore grafico che io abbia mai visto come scalabilità è quello di hl2. Un lavoro migliore di quello è difficilmente attuabile IMHO. Forse ora, con la nuova concezione della programmazione indotta dalle dx10, l'ottimizzazione sarà migliore.

    Riaguardo al consumo sono d'accordissimo con te, inoltre aborro per principio le configurazioni dual vga (già una top attuale è difficile metterla in crisi alle risoluzioni del 99% dei monitor in circolazione, figuriamoci 2)

  6. #6
    Amministratore L'avatar di giampa
    Registrato
    May 2002
    Località
    Pisa
    Età
    54
    Messaggi
    22,925

    Predefinito

    d' accordo con tutti...
    forza bruta al posto di un' architettura efficiente...
    questa sarà una scheda di transizione, o forse non uscirà mai....
    il limite della decenza è stato ormai superato....


    "Scusate, ma se quest'anno in Texas ci avete spedito questo deficiente, vuol dire che c'è speranza per tutti?"

  7. #7
    pebibyte L'avatar di Figus
    Registrato
    Sep 2000
    Località
    Fagnano Olona (VA)
    Età
    41
    Messaggi
    5,328

    Predefinito

    Originariamente inviato da Chicco85
    I casi palesi sono dei programmatori che non hanno voglia di lavorare...

    Il milgior motore grafico che io abbia mai visto come scalabilità è quello di hl2. Un lavoro migliore di quello è difficilmente attuabile IMHO.
    D'accordissimo... purtroppo però stanno diventando la maggior parte i motori fatti male... e la cosa assurda è che servono ormai schede video di fascia medio alta anche per giochi che teoricamente potrebbero girare con una scheda integrata per quello che devono muovere... esempio lampante Caesar IV, ha 3 poligoni sullo schermo e a 1280 su una x1300 è ingiocabile!! idem Heroes V, ed altre decine....
    D'accordissimo anche per il motore di HL2, il source engine è meraviglioso, fluidissimo e sempre bello da vedere...

  8. #8
    kibibyte L'avatar di TheNamelessOne
    Registrato
    Feb 2006
    Località
    Monza
    Messaggi
    230

    Predefinito

    speriamo questi dati non siano veritieri...anche perchè se dovessimo dar retta alle voci le previsioni su ati sarebbero pure peggio...vabe al limite se proprio è necessario mettu su l'enermex 535 oltre al truecontrol e sono coperto....poi nel cassetto ho un altro migliaio di W pronti se necessario

    a parte gli scherzi se consumeranno uno sproposito mi rifiuto categoricamente di comprarle

  9. #9
    Nexthardware Staff L'avatar di Chicco85
    Registrato
    Oct 2005
    Località
    Verona
    Età
    34
    Messaggi
    7,546
    configurazione

    Predefinito

    Nuove info... alcune buone, altre un pò meno:

    ASUS 8800GTX/GTS & G80 problems

  10. #10
    Nexthardware Staff L'avatar di Chicco85
    Registrato
    Oct 2005
    Località
    Verona
    Età
    34
    Messaggi
    7,546
    configurazione

    Predefinito

    Altra curiosità:

    Nvidia bans overclocking for its G80

    Sostanzialmente nVidia inviterebbe i produttori ad evitare oc di fabbrica, per far si che non si ripeta la situazione creata dalla 7900GT.

Pagina 1 di 10 1 2 3 4 5 6 7 8 9 10 ultimo

Informazioni Thread

Users Browsing this Thread

Ci sono attualmente 1 utenti che stanno visualizzando questa discussione. (0 utenti e 1 ospiti)

Discussioni simili

  1. Prg Overclock 8800gtx/gts
    By lore85bg in forum NVIDIA: drivers , utility and tweaking
    Risposte: 23
    Ultimo messaggio: 26-05-2009, 20:25
  2. GeForce 8800 GTS 512 G92 foto & specifiche
    By italian soldier in forum -= Schede video e acceleratori =-
    Risposte: 1
    Ultimo messaggio: 20-11-2007, 14:32
  3. Dimensioni geffo 8800GTX
    By fvbarc in forum -= Schede video e acceleratori =-
    Risposte: 16
    Ultimo messaggio: 05-12-2006, 08:55
  4. DRIVER 97.02 per Nvidia 8800GTX/GTS
    By lore85bg in forum -= Schede video e acceleratori =-
    Risposte: 0
    Ultimo messaggio: 09-11-2006, 11:47
  5. Geffo 2 GTS...
    By Magic in forum -= Acquisti : Hardware - Software =-
    Risposte: 13
    Ultimo messaggio: 15-09-2001, 02:14

Tags

Regole d'invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
nexthardware.com - © 2002-2018

Search Engine Optimization by vBSEO 3.6.1