Rispondete qui =)
Rispondete qui =)
Hai ragione Moreno, solo che sorge un piccolo problema, visto che oramai ogni 6 mesi nasce una nuova generazione di processori grafici, inesorabilmente quelli vecchi si svalutano di brutto, nel mio caso mi conviene vendere il mio hardware gudagnando l'80 o cmq il 70% della spesa iniziale così che posso comprarmi le ultime novità....
E' vero i programmatori non riescono a stare dietro all'hardware l'ho visto quando ho provato ad aggiornare il bios e i driver detonator nel mio vecchio tnt, sono rimasto stupito dalle migliorie riuscivo a giocare a quake III a 800X600 con un K6-2 300 Mhz di certo non con i dettagli al massimo però era fluido, da non credere con i vecchi driver non riuscivo manco a giocare a 640X480 tanto era scattoso...
Io capisco le difficoltà dei programmatori a sviluppare un soft adeguato, se forse le case produttrici investissero di più nel soft che nell' hard... una speranza sta nel power vr della Kryo....
E' uscito da poco un bell'articolo su Tom (il miglior sito della rete) in cui spiega i limiti delle schede video e come interpretare i dati alle varie risoluzioni.
La promessa del futuro è "riusciranno le schede video T and L a sganciarci dalla CPU?"
Ovvero avremo gli stessi frame su un Atlhon 500 che ad un Atlhon 1.5 Giga?
Io penso che ognuno dovrebbe valutare l'upgrade su quello che gli serve e non lasciarsi prendere la mano. Quando un programma inizia ad essere frustramente lento allora è tempo di metter mano al portafoglio
La mia GeForce la terrò ancora per molto, molto, molto.
"riusciranno le schede video T and L a sganciarci dalla CPU?"
No. La risposta è NO. Te lo garantisco... non saremmo mai completamente sganciati dalla cpu. Te lo assicuro, il cpu time utilizzato per i calcoli di un engine (collisioni, fisica del gioco, trasformazioni vettoriali & matriciali, etc) sono piuttosto pesanti e non vedremo MAI un Athlon 500 andare come uno a 1,5 Gigahertz. Ma il mio discorso non voleva essere un'analisi come quella di tom sui limiti cpu/fillrate, ma una riflessione su quello che sta diventando il mondo dei videogiochi per PC. Io sono programmatore, e prima o poi verrà alla luce il videogiochi a cui sto lavorando col mio gruppo, e vi assicuro che sarà giocabile anche su sistemi di modesta potenza.
Hai ragione Moreno
Però il vantaggio di avere una scheda video ottima (Geforce2 vs Tnt2) è maggiore di quella di avere qualche centinaio di Mhz in +
La mia speranza è che il TL riuscirà ad aumentare effettivamente il numero di poligoni senza che il sistema debba avere un processore particolarmente oneroso.
Quello che ci ha promesso la Geforce è una migliore qualità visiva (+ poligoni + prestazioni alle alte risoluzioni)
Stara poi ai programmatori saper utilizzare al meglio la Cpu
Se si sfruttasse adeguatamente il T&L del GeForce (e nessun gioco lo sfrutta), si avrebbero giochi fluidissimi al massimo del dettaglio anche con una cpu a 300 Mhz... ve lo garantisco!!! Ma sfruttare il T&L non è ancora il target degli attuali programmatori. Dovremo aspettare che La Signora 3dfx, insieme ad altri colossi, si decida... e forse non parleremo più di cpu...
Di che gioco si tratta, Moreno?
Ciao zelos, a cosa ti riferisci quando dici"una speranza sta nel power vr della Kryo..."? ciao grazie
Ciao Carlton,la power vr è una nuova scheda video della kryo tech, che ha un interessante elaborazione grafica, praticamente dicendola sciapa sciapa elabora solo i poligoni e i pixel che si vedono, invece di elaborare tutto lo scenario come fanno le schede video attuali,questo comporta un notevole calo dei calcoli da effettuare, la scheda power vr costerà pochissimo perchè incorpora sdram normali e un chip dalle scarse prestazioni confrontandolo con le schede video di punta che utilizzano clock altissimi, il suo segreto sta nel software,e nell'elaborazione grafica, grazie a ciò raggiunge dei frame alti non di certo al livello della geforce 2 gts ma cmq in quake!!! raggiunge i 72 fps a 1024X768 a 32 bit, e se costerà sulle 250 carte voi che dite ne vale la pena?
Ci sono attualmente 1 utenti che stanno visualizzando questa discussione. (0 utenti e 1 ospiti)