Bene, diciamo che tra oggi e domani finisco gli ordini, spero di riuscire a assemblare il tutto entro il 10 novembre.
Aprirò un tread x mettere foto/screen/ ecc
Grazie mille a tutti!!!
tatone
Bene, diciamo che tra oggi e domani finisco gli ordini, spero di riuscire a assemblare il tutto entro il 10 novembre.
Aprirò un tread x mettere foto/screen/ ecc
Grazie mille a tutti!!!
tatone
dai adesso non esageriamo...(e comunque solo tu ti lamenti,se tatone ha da dire mi scuso subito)
2000€?
si se prendi ssd ultracostosi tipo intel(a 1000€ comunque ti prenderesti il fusion-io ma è una soluzione limite),io intendevo i masterdrive ox o in assenza di essi gli ocz core.
I masterdrive ox danno come specifiche 170/120 a 0.1ms;su atto sono in realta 120/60 a 0.3(minimi) e per la soluzione a 32gb si trova sui 100€.
Facendo i conti un veloci costa 175€ medio;calcolando per abbondanza mi prenderei un ssd(da 120/60 0.3ms)e un disco da 250-500gb contro un veloci da oltre 4ms(e se non si fanno operazioni particolari è meglio la latenza rispetto ai mbs).
Contro un raid di 2 veloci che costerebbe 175x2=350€,qui ci starebbero 3 ssd tranuqillissimamente per un totale di 32*3=96gb con 360/180mbs con una latenza di diciamo 0,4ms(a causa del raid0 su ich10).
Non so voi ma io preferisco avere un disco che non scaldi,non faccia casino e che abbia latenze basse,il fatto della grandezza è una cosa secondaria:winxp ci sta in 5gb(inclusi drivers),vista in 10-20(perchè si porta dietro le sue cavolate)e se si installano i giochi/apps e dati in dischi secondari piu lenti ma piu grossi il problema delle dimensioni viene eliminato.
Secondo me gli hard disk stanno per finire la loro vita(almeno come dischi principali) ed è inutile spendere una fortuna per prendere soluzioni ultraperformanti(se non si è convinti degli ssd odierni si puo sempre aspettare);se non la pensi come me ok ma sai avendo sentito quanto casino fanno 4 scsi da 15k ho preferito evitare di salire di rpm(anche se i veloci sono comunque i migliori hard disk sata in commercio anche come silenziosita rispetto agli rpm).
ovvio mi dimentico sempre delle recensioni di nexthhardware xke le considero come implicite!
P.S.:se il tempo di accesso è totalmente irrilevante aveva ragione lui a prendere un raid di dischi da 7200rpm
I AM MAD SCIENTIST!
@Plokko:
Mi ero preparato una risposta esaustiva per evitare che queste tue teorie "fantasiose" influenzassero gli utenti. Pero' poi ci siamo scritti su MSN e ho spiegato direttamente a te l'errore di fondo che c'e' nella tua valutazione.
Riassumo in poche righe: tutti gli SSD basati su chip MLC attualmente in produzione sono destinati a scendere di prezzo velocemente, ma le prestazioni reali e costanti NON sono assolutamente quelle che leggete in bella mostra nei siti dei produttori. Se il vostro portafoglio lo permette la scelta da fare nel campo SSD riguarda i dischi SLC ma a quel punto come gia' detto in precedenza il costo aumenta in maniera esagerata.
Poi lol Plokko, scrivi che se nn si fanno operazioni particolari meglio la latenza del transferrate...
Posso sapere perchè?
Poi scrivi che xp ci sta in 5gb e vista in 10gb.... E quindi la tua teoria sostiene che le installazioni il file di paging e quant'altro va sparpagliato su gli altri dischi del sistema che sono piu' lenti e con disco magnetico? Insomma perdonami se nn ho capito, ma uno si compra gli SSD a bassa latenza e il paging lo mette da un'altra parte? E poi installa anche i giochi su altri HD perche' l'SSD deve starci nel pc ma solo per bellezza?
Ah giusto un'ultima curiosità c'e' un gioco (Age Of Conan) che richiede circa 30gb di spazio libero per l'installazione... Dove lo mettiamo??
Verissimo i dischi SSD consumano poco, sono praticamente insensibili agli urti, non scaldano, anche i pen Drive USB hanno queste caratteristiche... Perche' nn installare il SO direttamente la dentro???
Detto questo spero che Tatone nn sia andato a comprare degli SSD in preda all'entusiasmo, nel caso sai chi ringraziare...
Ciao!
no, non ho ancora comprato nulla!!!
Non so se all'inizio non mi sono spiegato bene io ma in questo pc, intendo solo giocarcie quindi non ho bisogno di grande spazio.....
Già mi basterebbero al max 100 gb.
Alla fine il mio budget si aggira sui 350 euro e quindi posso comprare sia i 2 velociraptor da 150 (avendo 300gb a disposizione) oppure 3 supertalent masterdrive da 32 avendo circa 100 gb.
Il discorso è che vorrei fare la scelta migliore per quanto riguarda:
- avvio s.o
- installazione programmi/giochi
- velocità nell'avvio programmi e durante il caricamento dei livelli.
![]()
Ho gia' detto, ridetto e ridetto che i dischi MLC nn sono ancora adatti allo scopo...
Se vuoi prestazioni senza compromessi devi prendere SLC senno' il raptor, ahimè, e' la migliore alternativa.
Io nel 2008 ti ho gia' detto cosa farei...
Ciao!
P.s. questo e' il mio ultimo intervento in questo thread...
Ecco le mie prove con 2 velociraptor 150 gb pagati 350 euro
sono in raid 0 sulla rampage extreme stripe 64k e partizionati in 2: 1 da 200 gb con Vista x giocare e una con Xp x fare qualche test a liquido
confrontati ai 3 raptor da 74 gb direi che questi sono davvero delle bombe avvicinandosi come prestazioni
il bello è il tempo di accesso che è sceso dai 8,5 dei 74 gb a 6,9 - 7 di questi
ecco screen
Azz Luca pecche' nn mi hai fatto la prova con lo Slice... allora si che si rideva...
Puoi fare un test con il metodo illustrato qualche post fa?
Ti ringrazio anticipatamente!
Ciao!
se la metti qui la spiegazione viene utile anche a me!!! grazie
il discorso che mi ha spiegato the_bis(che io avevo sottovalutato) è complesso,in poche parole DOPO che riempi una volta totalmente il disco le prestazioni diminuiscono(ad esempio con iometer 4k).
Direi quindi di considerare come prestazioni (che sarebbero le peggiori ottenibili)solo quelle dopo un test con iometer(tanto per risistemare bisogna fare un format lowlevel,non è immediato)
Questo dovrebbe essere un test di un ocz core v1 dopo un test di iometer quindi dovrebbe essere affidabile
Sui masterdrive aspetta ancora come ti ho detto,non ci sono ancora test dettagliati.
Benche sia un difetto degli ssd non dico di scartarli a prescindere,possono comunque fare ottimi bench anche dopo che sono stati "castrati" da iometer.
Dato che il tuo sistema dischi comunque è gia ottimo io ti consiglierei in definitiva di aspettare come dice the_bis un pochetto.
Allego l'email della intel che mi ha passato the_bis,è veramente esplicativa e mi ha fatto capire quello che su hwupgrade mi lasciava perplesso
SSDs all have what is known as an “Indirection System” – aka an LBA allocation table (similar to an OS file allocation table). LBAs are not typically stored in the same physical location each time they are written. If you write LBA 0, it may go to physical location 0, but if you write it again later, it may go to physical location 50, or 8.567 million, or wherever. Because of this, all SSDs performance will vary over time and settle to some steady state value. Our SSD dynamically adjusts to the incoming workload to get the optimum performance for the workload. This takes time. Other lower performing SSDs take less time as they have less complicated systems. HDDs take no time at all because their systems are fixed logical to physical systems, so their performance is immediately deterministic for any workload IOMeter throws at them.
The Intel ® Performance MLC SSD is architected to provide the optimal user experience for client PC applications, however, the performance SSD will adapt and optimize the SSD’s data location tables to obtain the best performance for any specific workload. This is done to provide the ultimate in a user experience, however provides occasional challenges in obtaining consistent benchmark testing results when changing from one specific benchmark to another, or in benchmark tests not running with sufficient time to allow stabilization. If any benchmark is run for sufficient time, the benchmark scores will eventually approach a steady state value, however, the time to reach such a steady state is heavily dependant on the previous usage case. Specifically, highly random heavy write workloads or periodic hot spot heavy write workloads (which appear random to the SSD) will condition the SSD into a state which is uncharacteristic of a client PC usage, and require longer usages in characteristic workloads before adapting to provide the expected performance.
When following a benchmark test or IOMeter workload that has put the drive into this state which is uncharacteristic of client usage, it will take significant usage time under the new workload conditions for the drive to adapt to the new workload, and therefore provide inconsistent (and likely low) benchmark results for that and possibly subsequent tests, and can occasionally cause extremely long latencies. The old HDD concept of defragmentation applies but in new ways. Standard windows defragmentation tools will not work.
SSD devices are not aware of the files written within, but are rather only aware of the Logical Block Addresses (LBAs) which contain valid data. Once data is written to a Logical Block Address (LBA), the SSD must now treat that data as valid user content and never throw it away, even after the host “deletes” the associated file. Today, there is no ATA protocol available to tell the SSDs that the LBAs from deleted files are no longer valid data. This fact, coupled with highly random write testing, leaves the drive in an extremely fragmented state which is optimized to provide the best performance possible for that random workload. Unfortunately, this state will not immediately result in characteristic user performance in client benchmarks such as PCMark Vantage, etc. without significant usage (writing) in typical client applications allowing the drive to adapt (defragment) back to a typical client usage condition.
In order to reset the state of the drive to a known state that will quickly adapt to new workloads for best performance, the SSD’s unused content needs to be defragmented. There are two methods which can accomplish this task.
One method is to use IOMeter to sequentially write content to the entire drive. This can be done by configuring IOMeter to perform a 1 second long sequential read test on the SSD drive with a blank NTFS partition installed on it. In this case, IOMeter will “Prepare” the drive for the read test by first filling all of the available space sequentially with an IOBW.tst file, before running the 1 second long read test. This is the most “user-like” method to accomplish the defragmentation process, as it fills all SSD LBAs with “valid user data” and causes the drive to quickly adapt for a typical client user workload.
An alternative method (faster) is to use a tool to perform a SECURE ERASE command on the drive. This command will release all of the user LBA locations internally in the drive and result in all of the NAND locations being reset to an erased state. This is equivalent to resetting the drive to the factory shipped condition, and will provide the optimum performance.
I AM MAD SCIENTIST!
Ci sono attualmente 1 utenti che stanno visualizzando questa discussione. (0 utenti e 1 ospiti)