Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geschwindigkeitsmessungen mit Festplatten


Hans-Jürgen
07.04.2004, 20:33
Hallo,

da das Thema gerade aktuell ist, und Daniel (http://www.d7userforum.de/phpBB2/viewtopic.php?t=6671) und Tom (http://www.d7userforum.de/phpBB2/viewtopic.php?t=6445) sicher nicht die einzigen bleiben werden, die mit Ihren Festplättchen Schwierigkeiten bekommen, hier ein paar Erläuterungen.

Zuerst muss erwähnt werden, dass Festplatten in der Regel weder eine konstante, noch eine sich kontinuierlich verändernde Datenrate über die gesamte Medienoberfläche liefern. Bei Disketten war es noch üblich, pro Umdrehung eine konstante Anzahl an Sektoren zu verwenden. Arbeitet man mit konstanter Datendichte, passen außen mehr Daten auf die Scheibe als innen. Um die Adressierung zu vereinfachen arbeitet man aber nicht mit kontinuierlicher Erhöhung der Anzahl von Sektoren pro Umdrehung, sondern erhöht die Anzahl stufenweise. Dadurch entstehen verschiedene Medienzonen mit unterschiedlichen, aber konstanten Datenraten. Festplatten werden von außen nach innen beschrieben, damit ergibt sich ein treppenförmig absteigendes Diagramm der Datenrate.

Ein Musterbeispiel dazu ist die 1GB Microdrive im DeLOCK 91575 (http://www.hjreggel.net/digiphoto/speed/dl_ibm-md-1G_RW.ps). Bis auf kleine nadelförmige Ausreißer nach unten sind die 11 Medienzonen deutlich erkennbar. Der hama 47121 (http://www.hjreggel.net/digiphoto/speed/ha_ibm-md-1G_RW.ps) liefert ein etwas unruhigeres Bild, das liegt wohl an der größeren Trägheit des Controllers, die sich auch in einer leicht höheren Zugriffszeit bei CompactFlash zeigt.

Was passiert nun, wenn der Kartenleser viel langsamer ist? Man sollte meinen, dass sich eine Linie bei der maximal möglichen Datenrate ergibt. Das ist zum Beispiel der Fall mit einem Adapter von CF auf PCMCIA (http://www.hjreggel.net/digiphoto/speed/pc_ibm-md-1G_RW.ps). Beim PixoMedia MSR-9 (http://www.hjreggel.net/digiphoto/speed/px_ibm-md-1G_RW.ps) kann man gerade noch die Stufe zur langsamsten Medienzone erkennen. Es kann aber auch ein Effekt wie beim Lexar RW 018 (http://www.hjreggel.net/digiphoto/speed/lx_ibm-md-1G_RW.ps). Dort werden Daten aus der schnellsten Medienzone etwas langsamer als aus der zweitschnellsten Medienzone übertragen. Es kann aber auch weiter ausarten, wie zum Beispiel die Schreibperformance mit dem IB-701 am USB 1.1 (http://www.hjreggel.net/digiphoto/speed/u1_ibm-md-1G_RW.ps). Dort ergibt sich ein unregelmäßiges Treppenmuster, aber mit ebenfalls 11 Stufen.

Woran liegt das? Eigentlich hat der Plattencontroller zwei Aufgaben gleichzeitig zu erfüllen: Beim Lesen muss er Daten von der Platte lesen, und Daten nach außen über das Interface geben. Und diese beiden Vorgänge kommen wohl in bestimmten Konstellationen aus dem Tritt.

Ein weiteres Beispiel ergibt sich mit der Toshiba 1.8" PCMCIA-Festplatte. Der Delkin CardBus Adapter (http://www.hjreggel.net/digiphoto/speed/dd_tos-18i-5G_RW.ps) legt beim Lesen ein sehr sauberes Diagramm hin. Beim Schreiben ist das Diagramm sehr unruhig, aber im Prinzip liegt die Schreibrate in der gleichen Größenordnung wie die Leserate. Mit dem FotoBar (http://www.hjreggel.net/digiphoto/speed/fb_tos-18i-5G_RW.ps) wird die Leserate zunehmend zerklüfteter, bleibt aber in der Nähe des Maximums. Die Schreibrate verläuft dagegen sehr ruhig und kontinuierlich abgestuft, aber deutlich unter der maximalen Leserate. Ein Musterbeispiel ergibt sich wieder direkt im PCMCIA-Slot (http://www.hjreggel.net/digiphoto/speed/pc_tos-18i-5G_RW.ps). Beim Lesen ergibt sich ein fast linealglatter Strich, nur beim Schreiben wird wieder das Treppenmuster sichtbar, das aber ebenfalls sehr sauber.


Eine interessante Geschichte am Rande: Ich war wohl einer der ersten Kunden, die vor einigen Jahren die IBM DDRS Festplatte an einem Adaptec SCSI-Controller getestet haben. Damit hat die Platte abwechselnd die volle und die halbe Geschwindigkeit gebracht. Bei den Messungen im Rahmen des Plattenkarussells von c't war an einem anderen Controller alles OK. Ich habe mich an IBM gewendet, die mir dann nach etwas Zeit ein Programm zum Ändern der Cache-Konfiguration geschickt haben (cacheseg.exe). Sie haben mir dabei noch extra mitgeteilt, dass mit dem zu setzenden Parameter der h2bench optimale Ergebnisse bringt, aber eventuell im normalen Betrieb mit dem ursprünglichen Parameter bessere Ergebnisse erzielt werden könnten. Von dem Service war ich dann platt, alle Achtung! Und etwas später hat dann auch die Zeitschrift c't über jenes Progrämmchen berichtet, das meiner Meinung nach IBM quasi "extra für mich" geschrieben hatte.


Aber das was Daniel und Tom mit dem MagicStor ermittelt haben, sieht völlig anders aus als die hier gezeigten Diagramme. Entweder hat das MagicStor einen völlig miserablen Controller, einen zu kleinen Cache, oder sonstige Leseprobleme. Einzelne Medienzonen sind in diesen Diagrammen nicht einmal mit viel Phantasie erkennbar.

Viele Grüße,
Hans-Jürgen

Tom
07.04.2004, 22:41
Hallo Hans-Jürgen,
das hört sich ja nicht besonders gut an für das Magicstor... :?
Obwohl es mich weniger hart trifft als z.B. DanielS gefällt mir das gar nicht.

Könnte unter Umständen auch die Datensicherheit davon betroffen sein?
Controller mit Schwierigheiten und Durchsatz-Einbrüchen hört sich für mich wie Lesewiederholungen oder Fehlerkorrektur an.
Beides gefällt mir nicht.

Was meinst Du?

Hat Sunny mit seinem Magicstor schon mal ein Diagramm erstellt?

Gruß
Tom