Marten Bütow
12. April 2019 0
Digitalisierung

So also sprach das BSI…

Erdbeben oder Vulkanausbrüche sind ja in Deutschland eher selten – genauso wie Tsunamis. Tornados aber – oho – sind auf der Menükarte der Katastrophen stark im Kommen. Beispielsweise erst im März dieses Jahres in NRW. Norddeutschland ist sogar Teil einer europäischen „Tornado Alley“, die sich von Südengland bis Polen erstreckt.
An den Gedanken von Naturkatstrophen müssen sich viele von uns erst gewöhnen. Aber Elb- oder Donauhochwasser haben uns schon einen kleinen Vorgeschmack davon gegeben, was uns anlässlich des Klimawandels erwarten kann.
Bei der Konzeption von Rechenzentren müssen diese Überlegungen eine zentrale Rolle spielen. Chemiefabriken, Flughäfen, Kernreaktoren, unterirdische Hohlräume, Flüsse etcpp. – eine Fülle von Einflussfaktoren sollte bedacht werden, bevor der Wunschort für ein Rechenzentrum gefunden ist. Das mag manchem ein bisschen zu weit hergeholt sein, aber das Risikomanagement in Deutschland denkt gerne auch das Absurde voraus, über das Normalsterbliche gerne den Kopf schütteln.

Katastrophen-Paranoia für IT: angemessen

Wenn Sie verantwortlich sind für einen IT-Service, der einen zentralen Geschäftsprozess abbildet, sehen Sie das anders. Sagen wir ihre Bankensysteme: Millionen von Transaktionen täglich, die Menschen von Hand schon längst nicht mehr bewerkstelligen können. Oder die Zustellung von vier Millionen Paketen täglich. Ein Ausfall des IT-Systems wird da schnell zu einer Art Katastrophe speziellen Kalibers. Eine Business-Katastrophe.

Klar, dass solche Services unbedingt am Laufen gehalten werden müssen. Üblicherweise setzen Unternehmen hierzu eine Disaster-Recovery-Strategie auf. Das System wird doppelt betrieben. Üblicherweise in zwei verschiedenen Rechenzentren, mindestens jedoch in zwei verschiedenen Brandschutzzonen in einem Rechenzentrum. Fällt der eine Teil aus, übernimmt der andere. Im Idealfall ohne Verlust von Daten oder Downtime des Service.

Nicht immer entscheiden jedoch die Unternehmen selbst über ihre Disaster-Recovery-Strategie. Manchmal mischen sich übergeordnete Stellen ein. Nehmen wir unser Banken-Beispiel. Hier gibt es Vorgaben der BaFin als Aufsichtsbehörde. Bislang galt: Die beiden Rechenzentren, in denen Bank-Services betrieben werden, müssen mindestens fünf Kilometer voneinander entfernt sein. Eine Katastrophe, so der Gedanke dahinter, die ein Rechenzentrum in die Knie zwingt, darf nicht auch den zweiten Standort ausfallen lassen.

Neue Vorgaben des BSI für Georedundanz

Klimawandel hin oder her – das BSI (das Bundesamt für Sicherheit in der Informationstechnik) kam 2018 zum Schluss, dass fünf Kilometer angesichts des Katastrophenpotenzials in Deutschland nicht mehr ausreichend sind. Und empfahl, um Geo-Redundanz zu gewährleisten, einen Abstand der beiden Disaster-Recovery-Rechenzentren von 200 Kilometern – mindestens jedoch 100 Kilometer. Von 5 auf 200 in 2018 sozusagen.

Auch wenn das BSI hier zunächst nur eine Empfehlung ausspricht: In der Vergangenheit ist die BaFin den Empfehlungen des BSI immer gefolgt. Damit müssen sich Banken und Versicherer ernsthafte Gedanken über ihre Disaster-Recovery-Strategie machen. Dass sich bei einem solchen Abstand auch Konsequenzen für die Latenzen ergeben, ist sicherlich auch ein Faktor, der hierbei berücksichtigt werden muss.

Colocation – einfacher Weg zur Georedundanz

Natürlich adressiert die Veröffentlichung des BSI nicht nur das Banking, sondern auch andere Branchen. Es bleibt abzuwarten, wie verbindlich die Empfehlungen jeweils werden. Für Geo-Redundanz, soviel ist klar, ist zukünftig ein Abstand von 100 Kilometern notwendig. Wer diese Anforderungen erfüllen will, muss sich auf die Suche nach mindestens einem zweiten Rechenzentrum im Abstand von 100 oder 200 Kilometern machen. Colocation/Housing kann dabei als Lösung zumindest in Erwägung gezogen werden. Die Rechenzentrumskapazitäten sind schnell verfügbar und ausreichend viele Optionen (mit einem Abstand von 100/200 Kilometer) sollten hinsichtlich Sicherheit auch den Ansprüchen des Unternehmens genügen. Colocation bietet zudem den Vorteil, dass das jeweilige Unternehmen jederzeit eine andere langfristige Lösung wählen kann. Wer bereits Colocation nutzt, sollte darauf achten, dass seine beiden Colocation-Rechenzentren den entsprechenden Abstand zueinander haben. Dann kann die nächste Katastrophe kommen. Aber noch besser wäre es, sie bliebe uns dennoch erspart …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Pflichtfeld

 
 

Twitter

tsystemsde @tsystemsde
T-Systems DE  @tsystemsde
#DABEI sein: Für David Rodríguez, DevOps Lead Architect & Agile evangelist bei T-Systems Iberia bedeutet agiles Arb… https://t.co/EyYEZ7kO7m 
T-Systems DE  @tsystemsde
Von der #Lagerverwaltung bis zum #autonomen Lieferfahrzeug: Was #Echtzeit in der #Logistik bringt, erklärt Dr. Nico… https://t.co/6jVpikQQm0 
T-Systems DE  @tsystemsde
Wie profitieren #Produktionsbetriebe von #Echtzeit – jetzt und in Zukunft? Das erklärt Lehrstuhlinhaber und Gründer… https://t.co/EYYnZ7HqXr 
T-Systems DE  @tsystemsde
#CyberSecurity läuft #Datenschutz den Rang ab. Eine aktuelle Studie zeigt, dass die #DSGVO auch knapp ein Jahr nach… https://t.co/6N4AphazmT 
T-Systems DE  @tsystemsde
Knapp ein Drittel der #CIO's sehen digitale Initiativen als ihre oberste Priorität, doch fehlende Ressourcen stoppe… https://t.co/d4Qy4MHxis 
T-Systems DE  @tsystemsde
#CyberSecurity-Schwachstelle Mensch: Wie können Sie Ihr Unternehmen schützen? Antworten liefert Thomas Masicek (… https://t.co/8MxZdg2WVI 
T-Systems DE  @tsystemsde
Alles spricht über #EdgeComputing – doch zu Recht? @dcinsiderde hat bei Professor Dr. Alexander Benlian von der… https://t.co/iLMHbLTGbd 
T-Systems DE  @tsystemsde
Kata Container vereinen die besten Eigenschaften von virtuellen Maschinen und Docker Containers. #TSystems #Cloud A… https://t.co/Pi2xWTaFEm