fbpx

Die (Hoch-)Verfügbarkeit von Rechenzentren

Inhalt

Immer und überall verfügbar sein: Dieser Anforderung müssen die meisten Internet-Anwendungen heute gerecht werden. Deshalb spielt die Verfügbarkeit von Rechenzentren eine wichtige Rolle bei der Wahl eines Server- oder Cloud-Anbieters.

Die Verfügbarkeit in Rechenzentren wird anhand der Ausfallzeiten gemessen: Wie viele Minuten, Stunden oder gar Wochen pro Jahr ist die Anwendung nicht verfügbar? Die Einteilung in vier Tier-Stufen erlaubt eine umfassende Einschätzung der Verfügbarkeit, die Rechenzentren gewährleisten können – denn sie umfasst neben den Ausfallzeiten auch andere wichtige Faktoren. Um diese zu verstehen, ist zunächst ein Blick auf die häufigsten Ursachen für Ausfälle sowie deren Konsequenzen wichtig.

Fakten zur Verfügbarkeit in Rechenzentren weltweit

Laut der globalen „Annual outage analysis 2023“ des Uptime Institute hatten 60% der Organisationen in den letzten drei Jahren mit Ausfällen in Rechenzentren zu kämpfen. Dabei ist der Anteil der schwerwiegenden Ausfälle von 2019 bis 2022 zwar leicht gesunken – die dadurch verursachten Kosten steigen jedoch an. So hat der letzte Ausfall im Jahr 2022 für 25% der Organisationen einen Schaden von über 1 Million US-Dollar verursacht, während 2019 nur 11% von Kosten in dieser Höhe berichteten. 

In der Studie wurden Probleme mit der Netzwerkverbindung als Hauptursache für 31% der Ausfälle in Rechenzentren im Jahr 2022 angeführt. Auch die Stromversorgung (23%), Fehler im IT-System (18%) sowie Probleme mit der Kühlung (7%) werden als häufige on-site Ausfallursachen genannt. Eine wichtige Rolle spielt zudem der „Faktor Mensch“: Bei 39% der Ausfällen in Rechenzentren der letzten drei Jahre war menschliches Versagen ein Mitauslöser, indem beispielsweise wichtige Prozesse nicht eingehalten wurden.

Von Verfügbarkeit bis Hochverfügbarkeit

Ob Online-Banking, Firmen-Website oder Cloud-Speicher: Viele digitale Anwendungen müssen rund um die Uhr für Kunden, Mitarbeiter und Partner verfügbar sein. Vereinfacht gesagt ist das Ziel also, möglichst nah an eine Verfügbarkeit von 100% im Rechenzentrum zu kommen. Tatsächlich spielen aber viele weitere Faktoren eine Rolle: Zum Beispiel, wie sich die Ausfallzeiten auf das Jahr verteilen. So sind vier Stunden am Stück ein viel größeres Problem als viele kurze Ausfälle, die nur wenige Sekunden dauern. 

Wie viel einzelne Prozent ausmachen, zeigt das Beispiel einer Verfügbarkeit von 95%: Sie bedeutet Ausfallzeiten von 18 Tagen und 16 Stunden pro Jahr – also mehr als 2,5 Wochen Down-Time. Inzwischen gilt eine Verfügbarkeit in Rechenzentren von 99% als normal. Von einer Hochverfügbarkeit spricht man erst ab 99,9%. Die folgende Auflistung zeigt, wie stark sich Kommastellen auf die tatsächlichen Ausfallzeiten auswirken:

  • 99% = rund 87,7 Stunden pro Jahr
  • 99,9% = rund 8,75 Stunden pro Jahr
  • 99,99% = 52 Minuten und 36 Sekunden pro Jahr
  • 99,999% = 5 Minuten und 16 Sekunden pro Jahr
  • 99,9999% = 31,6 Sekunden pro Jahr

Die 4 Tier-Stufen der Verfügbarkeit in Rechenzentren

Da bei der Verfügbarkeit von Rechenzentren auch viele weitere Faktoren wichtig sind, hat sich das Tier-System als Bewertungs-Schema etabliert. Neben der Verfügbarkeit in Prozent müssen Rechenzentren hier noch weitere Anforderungen erfüllen, um mit einer höheren Tier-Stufe klassifiziert zu werden. Dabei spielt die Redundanz eine besondere Rolle, die wir gleich noch näher betrachten werden. Folgende Kriterien sind jedoch zunächst bei den 4 Tier-Stufen von Bedeutung, wobei die höheren Stufen jeweils auch die Kriterien der unteren Stufen erfüllen müssen.

99,67% Verfügbarkeit in Tier 1

  • Jährliche Ausfallzeit von maximal 28,8 Stunden
  • Ein Versorgungsweg für Energie und Klimatisierung
  • Entwärmungsleistung von 220 bis 320 Watt pro Quadratmeter

99,75% Verfügbarkeit in Tier 2

  • Jährliche Ausfallzeit von maximal 22 Stunden
  • Ein Versorgungsweg für Energie und Klimatisierung – aber mit redundanten Komponenten
  • Entwärmungsleistung von 430 bis 540 Watt pro Quadratmeter

99,98% Verfügbarkeit in Tier 3

  • Jährliche Ausfallzeit von maximal 1,6 Stunden
  • Mehrere aktive und passive Versorgungswege für Energie und Klimatisierung
  • Redundante Komponenten und auch Server zweifach vorhanden
  • Mehrere Brandabschnitte im Rechenzentrum
  • Entwärmungsleistung von 1.070 bis 1.620 Watt pro Quadratmeter

99,991% Verfügbarkeit in Tier 4

  • Jährliche Ausfallzeit von maximal 0,8 Stunden
  • Mehrere aktive und passive Versorgungswege für Energie und Klimatisierung
  • Komplette Redundanz in Rechenzentren
  • Entwärmungsleistung über 1.620 Watt pro Quadratmeter

Hochverfügbarkeit durch Redundanz

An den Kriterien der vier Tier-Stufen lässt sich erkennen, welche Faktoren für die Verfügbarkeit in Rechenzentren von entscheidender Bedeutung sind: von der Energieversorgung über die Kühlsysteme bis zum Brandschutz. Diese decken sich auch zu großen Teilen mit den häufig genannten Ausfallursachen in der Studie des Uptime-Institute.

Die Tier-Stufen zeigen aber auch, welcher Faktor für die Hochverfügbarkeit in Rechenzentren unerlässlich ist: die Redundanz. Schließlich kann Tier 4 nur durch komplette Redundanz erreicht werden, die von den Servern bis zur Klimatisierung alle Komponenten umfasst.

So ist etwa auch die Server-Infrastruktur  von Net Professionals in Wien komplett redundant und erreicht damit eine Hochverfügbarkeit von 99,99%. Darüber hinaus ist das Rechenzentrum ISO-zertifiziert: Die internationale Norm ISO/IEC 22237 ist eine weitere Möglichkeit, die Verfügbarkeit von Rechenzentren international zu vergleichen. Auch im Bereich der Sicherheit, Energieeffizienz und Nachhaltigkeit müssen Rechenzentren für das ISO-Zertifikat umfassende Anforderungen erfüllen. So kann Net Professionals die höchsten Standards im Wiener Rechenzentrum als Grundlage für die Cloud-Dienste garantieren und belegen.