Technologie

Raid-Systeme

Raid steht für Redundant Array of Inexpensive Disks und bezeichnet eine Anordnung mehrerer Festplatten zum Zwecke der höheren Datensicherheit und der besseren Performance. Die ursprüngliche Idee basiert auf dem Prinzip, dass mehrere kleine Festplatten zusammengeschlossen werden können, um höhere Datenübertragungsraten zu erreichen. In der weiteren Entwicklung stellte sich zunehmend der Sicherheitsaspekt in den Vordergrund: Verteilt man wichtige Daten auf mehrere Festplatten, so ist die Wahrscheinlichkeit des Datenverlustes bei Ausfall einer Festplatte geringer - speichert man diese Daten gleichzeitig auf mehreren Festplatten, indem permanent Kopien der Daten parallel auf physisch voneinander getrennten Laufwerken angelegt werden, so wird die Sicherheit noch weiter erhöht - eine ideale Lösung also für Serversysteme mit wichtigen Daten, die ständig benötigt werden. Moderne Raid-Systeme ermöglichen sogar den Austausch von defekten Festplatten während dem laufenden Betrieb, ohne dass dabei die Daten gefährdet werden. Erst der gleichzeitige Ausfall von mehreren Festplatten würde zu Datenverlust führen - dieser Umstand ist aber sehr unwahrscheinlich.
Als letzte realistische Gefahr bleibt nur ein kompletter Ausfall der Stromversorgung - aus diesem Grund sind komplexe Raid-Systeme mit reduntanten Netzteilen ausgestattet - dabei handelt es sich um zwei parallel laufende Netzteile, bei denen im Falle eines Defektes das zweite Netzteil automatisch die Stromversorgung übernimmt.
Um den Betrieb eines Raid-Systems und anderer wichtiger Komponenten eines Servers oder einer Workstation auch bei Ausfall des Stromnetzes, etwa in Folge eines Blitzschlages, zu gewährleisten, wird die Stromzuleitung über ein USV-System geführt.
USV steht für "unterbrechungsfreie Stromversorgung" und bezeichnet ein Gerät das dafür sorgt, dass bei Stromausfall die Stromversorgung der angeschlossenen Geräte für eine gewisse Zeit aufrechterhalten wird.

Raid-Systeme können grundsätzlich aus allen Typen von Festplatten gebaut werden. Wichtig ist es, dass die möglichen höheren Transferraten nicht durch eine Schnittstelle mit geringer Kapazität gebremst werden. Zusätzlich müssen die entsprechenden Anschlüsse für die gewünschte Anzahl der Festplatten vorhanden sein. ATA-Systeme haben diesbezüglich Einschränkungen, da die meisten Controller nur Anschlüsse für maximal 4 Laufwerke bieten und dabei auch nur zwei Master-Kanäle zur Verfügung stehen. Bei Verwendung von EIDE-Festplatten sollte in jedem Fall darauf geachtet werden, dass die beteiligten Festplatten jeweils einen eigenen Master-Kanal zur Verfügung haben, da nur so eine wirkliche Geschwindigkeits-Steigerung erreicht werden kann. Hängen zwei Festplatten als Master und Slave an einem EIDE-Kanal, so werden Zugriffsbefehle nacheinander, also seriell, und nicht gleichzeitig vom System erteilt und abgearbeitet, was dazu führt, dass sich die Geschwindigkeit keinesfalls erhöht. Als Work-around für dieses Problem bieten einige Softwarelösungen beim Einsatz von vier Festplatten an nur zwei Kanälen die Möglichkeit eine Stripe-Order festzulegen, die angibt, in welcher Reihenfolge die Festplatten angesprochen werden sollen. Dabei werden dann immer abwechselnd jeweils 2 Laufwerke an unterschiedlichen Kanälen angesprochen.
SCSI-Systeme hingegen haben hier erhebliche Vorteile, weil die Festplatten grundsätzlich schneller sind und bis zu 15 Laufwerke an einem Kanal angeschlossen und diese auch gleichzeitig angesprochen werden können.

Ergänzende und vertiefende Module