Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties

Conclusie

Ondanks de tegenvallende prestaties in de low-level benchmarks presteren de 256GB-ssd's van Transcend vrij goed in onze eigen StorageMark 2011-suite. Daarmee is nog maar eens aangetoond dat de prestaties van een ssd niet alleen afhankelijk zijn van de theoretische random en sequentiële doorvoersnelheden.

Verder mag het duidelijk zijn dat het 32GB-exemplaar weinig bestaansrecht heeft. De ssd beschikt niet over genoeg kanalen, waardoor hij tijdens schrijfacties al snel achterblijft. Ook valt de prijs van 70 euro amper te rechtvaardigen, omdat er voor drie tientjes meer al een 64GB-ssd kan worden aangeschaft.

De 256GB-ssd's van Transcend waren tot voor kort vrij scherp geprijsd, maar de prijs is inmiddels gestabiliseerd op ongeveer 400 euro. De verschillende 240GB- en 256GB-ssd's van onder andere Crucial en Corsair daalden daarentegen in prijs, waarmee Transcend zijn prijsvoordeel is kwijtgeraakt. Tel daar nog bij op dat OCZ's Vertex 2-schijven met 25nm-geheugen ruim minder dan 400 euro kosten, en het is duidelijk dat de Transcend 256GB-ssd geen aanrader is. Dat de prestaties in de praktijk heel behoorlijk blijken te zijn, doet daar maar weinig aan af.

 Transcend TS256GSSD25S-M 256GBTranscend TS32GSSD25S-MD 32GB
  Transcend TS256GSSD25S-M 256GB Transcend TS32GSSD25S-MD 32GB
Compatibiliteit Score: 4Score: 3
Ondersteuning Score: 3Score: 3
Betrouwbaarheid Score: 3Score: 3
Prijs Score: 3Score: 2
Prestaties Score: 3Score: 2
Algemene beoordeling Score: 3Score: 2
 Tweakers zegt: 6Tweakers zegt: 4

Moderatie-faq Wijzig weergave

Reacties (52)

Jullie maken net als bijna alle andere reviewers een grote fout in het energieverbruik! Het vereist wat gepiel, maar jullie moeten erop letten dat DIPM (device initiated power management, een onderdeel van SATA power management) werkt. Een factor hierin is zowel de chipset (of aparte sata-controller) als het besturingssysteem dat jullie gebruiken. Alle SATA-poorten die aan een Intel 5- en 6-serie chipset hangen ondersteunen dit. Van AMD heb ik dit nog niet onderzocht. Verder ondersteunt Windows 7 standaard (onder zowel 'gebalanceerd' als 'energiebesparing', wisselende resultaten onder 'performance') DIPM. Het effect hiervan?

Een Intel X25-M of X25-V verbruikt met DIPM áán idle slechts 75mW en onder alles behalve continue random write-omstandigheden ongeveer 150-200mW.

Zeker voor laptops maakt het een hele hoop uit of een SSD DIPM wel of niet ondersteunt en of het makkelijk werkend te krijgen is.

Ik heb m'n multimeter nog niet aan andere SSDs gehangen, maar ik heb het vermoeden dat het ook bij andere schijven uit zal maken.
Ik heb het er met Femme over gehad, en vooralsnog passen we onze meetmethode niet aan. We hebben enkele systemen draaien met Intel X25M G2-ssd's, en die hebben DIPM niet aanstaan. Blijkbaar staat het dus veelal ook niet standaard aan.

Verder is de 200mW die Intel vermeldt een gemiddelde in een benchmark. Het is vrij makkelijk om de ssd meer te laten verbruiken, ook met DIPM aan. We gaan nog wel even kijken wat we hier in de toekomst mee gaan doen, want het is wel interessant.
Het is een beetje een obscure feature die ontzettend onderhevig is aan drivers. Ik kan me voorstellen dat jullie dat niet zomaar even erin kwakken. Onder linux heb ben de user Dadona en ik bijvoorbeeld geprobeerd het werkend te krijgen, en dat is niet gelukt. Ook XP wil niet aan DIPM. Echter, in nagenoeg álle laptopchipsets is het standaard aan en werkt het, dus jullie kunnen eens klooien met een laptop of twee en een sata-verloopkabeltje met multimeter-aansluitingen om de stroom te meten.

Die 150-200mW die intel zegt klopt wel aardig voor een gemiddelde load hoor, zelfs met aardig wat transfers. Het zegt, net als die synthetische benchmarks, heel weinig om het minimum- en maximumverbruik te meten. Vooral het maximumverbruik geeft weinig inzicht in welke nou echt zuiniger is. Juist een SSD zal, net als moderne procs, het grootste deel van de tijd stilzitten en dan is idle-verbruik het belangrijkst.

[Reactie gewijzigd door mux op 14 maart 2011 17:11]

Het is leuk om te meten, maar doet het er in de praktijk nog toe of je 0,4 of 0,8 watt verbruikt? m.a.w. is het nog de moeite van het meten waard?
Als je de minst zuinige SSDs neemt (~0.8-1.2W idle) versus een X25-M (75mW), dan spreek je bij een netbook, ultraportable of andere laptop met goede batterijtijd (6+ uur) een afname van je batterijtijd met een half uur tot een uur. Deze laptops verbruiken namelijk idle/light load maar zo'n 5 à 10W, dus dan kijk je naar 10-20% verschil.

Dat is het meest extreme geval, typisch is het verschil maar zo'n 0.5W en kijk je naar een kwartiertje tot een halfuur verschil in batterijtijd.
Waarom wordt de 32GB JMF612 wel getest met PCMark, Workstation- en Data-StorageMark 2011 en niet in Boot-, Gaming-, en Office-StorageMark 2011?

Juist zo'n kleine 32GB drive wordt gebruikt als bootdisk of office applicaties.
(Of een 64GB omdat de prijs/GB verhouding veel beter is)

[Reactie gewijzigd door DriftwoodSan op 15 maart 2011 00:49]

Als ik het nieuwe test protocol lees waarnaar twee posts hierboven gelinked word dan is de reden waarschijnlijk simpelweg dat de disk te klein is voor de test methode.
Dan schort er (dus) iets aan de test methodiek.

Een 32GB SSD is bij uitstek geschikt als bootdisk. Het zou raar zijn dat een boot test niet zou kunnen draaien omdat die 32GB te weinig is. Windows 7 en Office passen zelfs bij een hele volledige install samen op een kleine SSD.

Op den duur zullen 32GB drives wel te klein worden, maar op dit moment zijn deze drives juist heel interessant. Zeker voor consumenten die een eerste SSD ervaring zoeken, maar niet meteen een dure SSD willen kopen.
O.a. Kingston, Transcend en Super Talent denken er ook zo over door recent kleine en goedkope 8GB en 16GB SSD's op de markt te brengen.
Een 32GB-drive moet in delen getest worden. Dat is hier ook gebeurd alleen heb ik per ongeluk één van beide Call of Duty-traces (Modern Warfare en Black Ops) niet gedraaid waardoor de testresultaten niet compleet waren en de indices niet berekend konden worden. Dit was later pas duidelijk omdat de indices nog niet waren samengesteld toen deze drive als één van de eerste werd getest. Bij drives die in één getest kunnen worden zal een dergelijke fout niet snel voorkomen en bovendien valt het nu sneller op dat resultaten niet compleet zijn.

Een groot gemis is het niet gezien de matige prestaties van de 32GB Transcend-drive.
de nieuwe test-methode geeft echt een verbluffend ander resultaat als de oude.
als je alleen op de oude testcase het wel of niet kopen basseerd dan koop je ze dus niet.
maar in de nieuwe testcase zien we dat het in dagelijks gebruik best goede schijven blijken te zijn het is voornamelijk de prijs in verhouding tot de concurentie die de doorslag zal geven want het prestatie verschil is gewoon klein.

alleen hebben we ze niet tegen bijv. de corsair's in gevecht kunnen zien.

mooie benchmarks alleen wat weinig verschillende merken maar daar gaat verandering in komen als we het nieuwe test protol nieuws mogen geloven.

graag zie ik in de komende benchmark's weer low-level terug zoals dat in deze test is gedaan want dan zien we of fabrikanten waar kunnen maken wat ze beweren.

hulde @ femme voor de test software

[Reactie gewijzigd door dezejongeman op 14 maart 2011 09:44]

De oude testmethode is niet gebruikt in deze review. De benchmarks op de derde pagina testen low-level eigenschappen zoals de doorvoersnelheid, random I/O-performance en toegangstijd. De oude traces zijn vervangen door nieuwe en er wordt nu gebruikgemaakt van een andere tool om trace-based benchmarks te draaien.

We zijn op dit moment volop nieuwe ssd's aan het testen. Binnenkort mag je een review van de Intel SSD 510 verwachten. Voor de laatste resultaten kun je in de Benchmark Database kijken.
De oude testmethode is niet gebruikt, waarom niet? (gebrek aan tijd?)
Nou snap ik dat jullie met een 'nieuwe methode' zijn gekomen om het te testen maar waarom niet gewoon de oude er nog even naast draaien?
Dan kan je namelijk mooi deze érnaast zetten, en eventuele onduidelijkheden voorkomen. En wellicht kon je die dan in de review al 'verklaren..'

Nu heb ik ook zo het idee van: "ah gaaf, tweakers heeft een nieuwe testmethode' -> maar die lijkt me (voor nu) niet helemaal te kloppen "

Wat jeroenr ook zegt:
Sterker nog, dat in veel testen de prestaties nauwelijks boven die van een "gewone" HDD uitkomen en dat in jullie eigen, nog onbewezen, test, die dingen ineens de sterren van de hemel spelen en zelfs de Intel, die in de meeste low-level testen bovenaan staat rechts inhaalt.
Wellicht als er meerdere SSD's worden getest met deze nieuwe methode dat dat meer inzicht geeft.
de oude testmethode wordt op pagina 3 nog behandeld. Je ziet duidelijk dat de schijven achterblijven... en vrij heftig ook.

Goede review en meteen ook mooie testcase voor de nieuwe testmethode :) Ben benieuwd naar de komende reviews!
Op pagina 3 worden low-level benchmarks behandeld. Die deden we in het verleden ook om de prestaties van een drive te verklaren. De oude trace-based benchmarks zijn vervangen door nieuwe benchmarks gebaseerd op Intel NAS Performance Toolkit.

De JMicron JMF612/616 heeft een matige toegangstijd en matige random I/O-prestaties maar ook vrij goede sequentiële doorvoersnelheden. Ook is er geen performance-degradatie. Daardoor presteert de 256GB drive vrij aardig ten opzichte van oudere ssd's zoals de X25-M Postville en de Vertex 2.
Die analyse van de resultaten zou ik graag ook in de tekst van de review zien.

Overigens heb ik daar wel een paar vraagtekens bij. Het verklaart namelijk niet waarom ze de Vertex2 kunnen verslaan, want die heeft ook geen performance-degradatie.
Van de Intel weet ik het niet en die staat niet in de grafiek, maar ik dacht dat die juist ook hele lage degradatie had?
De sequentiële transfer rates van de Transcend-ssd's waren gewoon goed afgezien van de grillen in de grafieken die HDTune opleverde. De Vertex 2 haalt weliswaar hoge scores in IOMeter maar dat is op data die goed gecomprimeerd kan worden door de SandForce-controller. De data die door NAS Performance Toolkit wordt gegenereerd kan nauwelijks gecomprimeerd worden en dan is de doorvoer van de Vertex 2 niet beter dan van de Transcend-ssd's.

In de traces waarin een lage toegangstijd en hoge random I/O-prestaties van groter belang zijn dan hoe sequentiële doorvoersnelheden leggen de Transcend-ssd's het af tegen de Vertex 2 en X25-M. De X25-M wordt nogal gehandicapped door zijn lage sequentiële schrijfdoorvoersnelheid. In de boottraces is hij een stuk sneller dan de Transcend-ssd's maar in de desktop workload en de softwareinstallatietrace, die ook een beetje meetallen in de bootindex, niet of nauwelijks. Daardoor is het verschil in de bootindex uiteindelijk maar 10 procent.
Kijk, met die info word het alweer een stuk duidelijker. :)

Dan komt bij mij wel meteen de vraag hoe goed real-life data gecomprimeerd kan worden?
(En in hoeverre de IOmeter data overmatig veel beter gecomprimeerd kan worden dan real-life data)
De titel van de review vind ik wat misleidend. Werd niet drafbaan in plaats van renbaan bedoeld? Sinds de komst van de Vertex 3 schijven met 500 tot 550 Mb/s is dit een gezapige SSD.
Vreemd dat de SSD's met slechts 3 sterren wordt beoordeeld ik had toch 4 verwacht. Ok in de oude testen presteren ze ronduit slecht. Maar in de Trace Based testen doen ze het toch erg goed. Jullie hebben de nieuwe methode toch juist ontwikkeld om een eerlijk vergelijk te krijgen? Dus lijkt me dat juist zwaarder wegen en dus verdienen ze wel een extra ster.
De Transcend-ssd's zijn duurder dan een OCZ Vertex 2 en presteren meestal slechter. 20 procent lagere prestaties als bootdrive is toch wel een aanmerkelijk verschil. De Vertex 2 is al een jaar op de markt en de X25-M G2 nog wel veel langer. Vergeleken met de nieuwste generatie ssd's zoals de Intel SSD 510 presteren deze Transcend-ssd's nogal mager zoals zal blijken uit onze binnenkort te verschijnen review van de SSD 510.
Als de schijven in alle tests slecht presteren, maar in je nieuwe test ineens wel goed presteren, moet je dan geen vragen gaan stellen bij de kwaliteit van je test?
Heb je alles wel goed gelezen? Ze presteren wisselvallig in de low-level benchmarks en aangezien HDTune en IOMeter gemiddelden rapporten, krijg je lage scores. De grafieken laten zien dat de ssd's best fatsoenlijk kunnen presteren. Verder proberen we al duidelijk te maken dat de low-level benchmarks amper een realistische weergave zijn van de prestaties.
Het is een heel valide vraag. Er staat immers:
Met de Data-benchmark worden de low-level prestaties gemeten, zoals IOMeter en HDTune dat ook doen.
Die zou dus een vergelijkbaar beeld moeten geven als IOMeter en HDTune, en juist daar presteren ze het beste.

Dat is dan best wel opmerkelijk en iets dat meer toelichting zou mogen krijgen.
Hoe kan het dan in vergelijkbare omstandigheden zo'n totaal omgekeerd beeld ontstaat?


Verder geeft HDTune me informatie die ik niet uit de storagemark kan halen.
Namelijk dat de random access time meestal laag is, maar soms heeeeeel erg lang.
Precies het oude probleem van SSDs waarvan we dachten dat achter de rug te hebben. Soms lang moeten wachten op je systeem, terwijl ie daarna weer snel is, is zeer irritant.
Dat ie dan uiteindelijk gemiddeld best goed presteert weegt niet op tegen de irritatie factor.

[Reactie gewijzigd door mjtdevries op 14 maart 2011 10:02]

Nouja, de low-level prestaties, maar dan in een realworld scenario.

Zoals in de review staat, toen HDTune en IOMeter gedraaid werden, is de SSD waarschijnlijk bezig geweest met bepaalde dingen waar wij geen controle op hebben.

Toen we zelf eenmaal een hoop data naar de ssd's hadden weggeschreven, zijn de ssd's zich normaal gaan gedragen, en daardoor presteerden ze gewoon naar behoren. Als ze nog steeds last hadden gehad van de lange accestijden, dan was dat ook in onze eigen trace-benchmarks naar voren gekomen.
Dat is een aanname van je, en dat vind ik geen goede basis voor een conclusie in een review.

Als je het gevoel hebt dat die dingen zich pas na een tijdje normaal zijn gaan gedragen, zou je dan niet opnieuw eens een HDTune moeten draaien om dat te bevestigen?

Eigenlijk zeg je nu: negeer alle low-level test resultaten, want pas daarna zijn die ssd's zich pas normaal gaan gedragen....

Als je dat met feiten kunt staven dan is het zeer nuttige info. Maar nu is het een gok.
Helaas, Transcend wilde de ssd's terughebben, anders had ik HDTune etc wel opnieuw gedraaid. Ook zien we sommige resultaten pas lang nadat deze gedraaid zijn. Iets wat ik nu niet meer doe, door meteen de resultaten te bekijken :)

En het is slechts deels een aanname. De traces geven hele nauwkeurige data, als de accestijden nog steeds beroerd geweest waren, hadden we dat gezien. Als er reden was geweest tot zorgen, omdat de ssd's misschien nog steeds last hebben van het oude 'stotterprobleem', dan had dat in de review gestaan.

Verder hechten wij niet zo heel veel waarde aan de low-level benchmarks, maar we snappen dat mensen die graag willen zien.
Deels een aanname is een volledige aanname ;)

Het probleem is dat er blijkbaar iets abnormaals aan de hand was tijdens het testen. Wat datgene was is in eerste instantie onbelangrijk, de test moet simpelweg over om te zien hoe de drive in normale omstandigheden presteert.

Daarna (mits er tijd beschikbaar is) kun je gaan zoeken naar de reden van de abnormale resultaten. Hier is er geen poging geweest de abnormale resultaten te verbeteren en weten we dus niet eens zeker of het wel abnormaal is. In mijn ogen kun je zo'n review dus niet publiceren. DIt is slecht voor de fabrikant maar ook slecht voor de website aangezien je niet weet of de resultaten representatief zijn voor de schijven of misschien door externe factoren veroorzaakt zijn. Zeker met een nieuwe onbewezen test zouden al je resultaten met elkaar moeten kloppen voordat iets publiceert. Je bent namelijk niet alleen de drives aan het testen maar ook je benchmark aan het valideren.

Dus inderdaad, een voor iedereen (fabrikant, lezers en waarschijnlijk ook de testers) onbevredigend artikel waar we eigenlijk niet veel mee kunnen.Jammer.
Sorry, maar je overdrijft een beetje. De test is niet zozeer onbewezen als wel voor de eerste keer gepubliceerd. De Transcend ssd's zijn niet de enige ssd's die we getest hebben. De overige ssd's presteren zowel normaal in de low level tests, als in onze eigen benchmarksuite. Ik blijf er dan ook bij dat de Transcend ssd's een hiccup vertoonden.

En ik had het graag beter uitgezocht. Maar een onbevredigend artikel waar je niets mee kunt? Dat noem ik overdrijven... En uiteraard ga ik ervoor zorgen dat we er de volgende keer of een verklaring hebben, of gewoon consistente resultaten :)

[Reactie gewijzigd door Marc Rademaker op 14 maart 2011 15:11]

We hebben drie runs van onze trace-based benchmarks op de Transcend-ssd's gedraaid. Tussen deze runs waren de afwijkingen minimaal. Als de controller daadwerkelijk iets in de achtergrond aan het doen was, dan zou je daarbij grotere afwijkingen in de prestaties verwachten. Het zijn geen kleine benchmarks die we draaien. Je bent zo een hele werkdag bezig met het draaien ervan. Tussen de runs door zijn de ssd's vaak even idle totdat de tester opmerkt dat er een nieuw run aangeslingerd kan worden. Het is niet waarschijnlijk dat een ssd de hele dag bezig is met het uitvoeren van mysterieuze activiteiten in de achtergrond.

De resultaten in HDTune waren ook consistent in de zin dat er altijd veel pieken en dalen in de grafiek zichtbaar waren, zelfs toen een drive na anderhalve maand opnieuw werd getest.

Het probleem is hier niet dat de resultaten in NASPT niet te vertrouwen zijn maar dat mensen veel te veel waarde hechten aan de resultaten van benchmarks zoals HDTune. Ik zie mensen die in paniek raken bij de geringste prestatieverschillen in HDTune of CrystalMark. Wat wij doen is een hele berg transacties (bijna twee miljoen) op een drive loslaten met een timing, transfergrootte en locatie die overeenkomt met situaties die zich in de werkelijkheid kunnen voordoen. Dat is een heel stuk realistischer dan gedurende een paar minuten de maximale doorvoersnelheid van een ssd meten.
Low-level benchmarks zijn juist van belang als je afwijkend verdrag wilt kunnen verklaren. Vandaar dat mensen ze graag willen zien.

Nu zien we afwijkend gedrag, terwijl dat op geen enkele manier te verklaren is.
Dat geeft een onbevredigend gevoel en uiteraard ook twijfels of de nieuwe benchmark wel een goed beeld geeft.

En in hoeverre zou een stotterprobleem opvallen als de uiteindelijke score er niet onder te lijden heeft? (dat was nou volgens mij juist één van de issues met het stotterprobleem)
Is er ook gewoon op die SSDs gewerkt? Ik kan me zo voorstellen dat er alleen benches op gedraaid zijn waardoor het stotter probleem wellicht niet opvalt.

Zou je een blik kunnen werpen in die traces of er toch af en toe van die lange accesstijden in voorkomen zoals in de low-level benchmarks te zien zijn? Dat lijkt me wel nuttige informatie.

[Reactie gewijzigd door mjtdevries op 14 maart 2011 11:29]

NASPT registreert zowel de gemiddelde als de maximum service times van read- en write transacties en opens. Deze waarde slaan we op hoewel de maxima op dit moment nog niet zichtbaar zijn in de front-end van de BenchDB. De maxima van de Transcend 256GB drive zijn in veel gevallen relatief gezien (de afwijking ten opzichte van het gemiddelde is groter) hoger dan bij de Intel X25-M, maar de waarden zijn niet heel extreem en er zijn ook traces waarin de maxima van de Transcend lager zijn dan van de X25-M. Een stotterprobleem zoals bij de JMF602 lijkt zich niet voor te doen.

HDTune draaien we altijd als eerste benchmark nadat een ssd nieuw uit een gesealde verpakking komt of via secure erase is gewist. Dit omdat geheugenfragmentatie op een ssd die is beschreven kan zorgen voor fluctuerende transfer rates. De Transcend-ssd's deden out of the box al weird in HDTune. De 256GB drive met de JMF612 heb ik in december voor het eerst getest toen onze benchmarks nog niet compleet waren. Hij deed toen net zo raar als begin februari toen de drive opnieuw werd getest.

Een belangrijk verschil tussen low-level benchmarks zoals HDTune en onze trace-based benchmark is dat sequentiële lees- en schrijfacties in de praktijk veel minder lang aanhouden dan in een benchmark. Er zijn geen desktop- en workstationapplicaties die voor lange tijd gegevens tegen 200MB/s naar een drive schrijven. Een benchmark kan in een halve minuut op die manier 6GB aan data genereren. In onze trace van een grafisch werkstation dat Photoshop draait met een aantal grote gelijktijdige geopende projecten die veel schrijfacties op de pagefile en de scratchfile genereren wordt er in 450 seconden ruim 12,5GB weggeschreven. Dat lijkt veel maar is een gemiddelde van 30MB/s. De schrijfacties vinden in korte pieken plaats. Blijkbaar presteert die JMF612/616-controller daar wel goed op.

[Reactie gewijzigd door Femme op 14 maart 2011 15:09]

Er is wel een applicatie die dat doet, of beter gezegt een onderdeel van Window's; Windows eigen Explorer bijv.
Daarmee kan je als gebruiker, grote files uitpakken, kopieeren en verplaatsen. De tijd kan oplopen tot in de minuten, lijkt me behoorlijk lang nietwaar?
Die zou dus een vergelijkbaar beeld moeten geven als IOMeter en HDTune, en juist daar presteren ze het beste.
De formulering is ongelukkig. In de Data StorageMark-index zijn traces opgenomen van filecopy-acties in verschillende richtingen voor kleine, middelgrote en grote bestanden. Tevens zit er bestandscompressie in en de activiteit op de datapartities van de Graphics Workstation-trace (zeer grote bestanden in Photoshop en fotocollecties met 25MP raw-foto's in Lightroom) en Video-editing Workstation-trace (groot videoproject met lossless comprimeerde full HD-bronbestanden in Sony Vegas Pro).
Hmm, op basis van wat je hier zegt zou ik dan zeggen: "De formulering is fout"
Ik begrijp echter dat je richting je collega het wat vriendelijker wilt formuleren :)

Maar dat maakt het wel opnieuw een stuk simpeler om de scores te verklaren.
Ja, ik heb alles goed gelezen. Maar het is toch op zijn minst opmerkelijk dat deze SSD's in alle testen slecht presteren, inclusief de PCMark Vantage test. Sterker nog, dat in veel testen de prestaties nauwelijks boven die van een "gewone" HDD uitkomen en dat in jullie eigen, nog onbewezen, test, die dingen ineens de sterren van de hemel spelen en zelfs de Intel, die in de meeste low-level testen bovenaan staat rechts inhaalt.

Natuurlijk zeggen low-level testen niet alles, maar zonder goede low-level resultaten kan je geen high-level prestaties neerzetten.

[Reactie gewijzigd door jeroenr op 14 maart 2011 10:28]

Je overdrijft nogal over de prestaties ten opzichte van een harde schijf. De toegangstijden van de WD Caviar hebben we niet in de grafieken getoond omdat er dan geen onderscheid meer zichtbaar is tussen de prestaties van de ssd's onderling. De toegangstijden van de Transcend 256GB-drives waren een factor 500 lager dan van een 7200 toeren harde schijf. De 4K random I/O-performance was ook veel beter in IOMeter evenals de sequentiële leessnelheden.

In de trace-based benchmarks was de X25-M sneller in traces die vooral afhankelijk waren van de leesprestaties en trager als er veel (grote bestanden) werden geschreven. Dat is ook niet verbazingwekkend gezien de hogere maximale schrijfdoorvoersnelheden van de 256GB Transcend-ssd's.
Ik ben wel benieuwd hoe goed de andere grote ssd's uit de test komen. Helaas gaat de rest van jullie lijstje maar tot 120GB.
Er wordt hard aan gewerkt om de lijst langer te maken. Zo zal er binnenkort een 240GB Plextor (met Marvell-controller) en een 250GB Intel-ssd getest worden. Ook 34nm F120 staat op het lijstje :)
valt toch wel op dat de inmiddels "bejaarde" postville toch verassend vaak van zich af weet te bijten in de benches.
Mooie review!, enige puntje van commentaar:

We zien abnormaal hoge toegangstijden voor alle drie de Transcend-ssd's. Deze resultaten doen vermoeden dat de ssd's, terwijl de tests gedraaid werden, bezig waren met trimmen of garbage collection.

Dan run je een paar uur later dezelfde test toch nog een keer? Lijkt me een kleine moeite!

Voor de rest mooie review!:)
Tjonge, afgaand op de prestaties met HDTune scoren deze wel heel slecht. Ik kocht vorige week een Crucial C300 en die scoort +/- 250MBps, een stukje hoger dan de geteste machines en nochtans een ouder model. Als ze noch qua prijs noch qua prestaties tegen de concurrentie opkunnen is het finale verdict toch wel "overbodig".

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*