Marten Bütow
12. April 2019 0
Digitalisierung

So also sprach das BSI…

Erdbeben oder Vulkanausbrüche sind ja in Deutschland eher selten – genauso wie Tsunamis. Tornados aber – oho – sind auf der Menükarte der Katastrophen stark im Kommen. Beispielsweise erst im März dieses Jahres in NRW. Norddeutschland ist sogar Teil einer europäischen „Tornado Alley“, die sich von Südengland bis Polen erstreckt.
An den Gedanken von Naturkatstrophen müssen sich viele von uns erst gewöhnen. Aber Elb- oder Donauhochwasser haben uns schon einen kleinen Vorgeschmack davon gegeben, was uns anlässlich des Klimawandels erwarten kann.
Bei der Konzeption von Rechenzentren müssen diese Überlegungen eine zentrale Rolle spielen. Chemiefabriken, Flughäfen, Kernreaktoren, unterirdische Hohlräume, Flüsse etcpp. – eine Fülle von Einflussfaktoren sollte bedacht werden, bevor der Wunschort für ein Rechenzentrum gefunden ist. Das mag manchem ein bisschen zu weit hergeholt sein, aber das Risikomanagement in Deutschland denkt gerne auch das Absurde voraus, über das Normalsterbliche gerne den Kopf schütteln.

Katastrophen-Paranoia für IT: angemessen

Wenn Sie verantwortlich sind für einen IT-Service, der einen zentralen Geschäftsprozess abbildet, sehen Sie das anders. Sagen wir ihre Bankensysteme: Millionen von Transaktionen täglich, die Menschen von Hand schon längst nicht mehr bewerkstelligen können. Oder die Zustellung von vier Millionen Paketen täglich. Ein Ausfall des IT-Systems wird da schnell zu einer Art Katastrophe speziellen Kalibers. Eine Business-Katastrophe.

Klar, dass solche Services unbedingt am Laufen gehalten werden müssen. Üblicherweise setzen Unternehmen hierzu eine Disaster-Recovery-Strategie auf. Das System wird doppelt betrieben. Üblicherweise in zwei verschiedenen Rechenzentren, mindestens jedoch in zwei verschiedenen Brandschutzzonen in einem Rechenzentrum. Fällt der eine Teil aus, übernimmt der andere. Im Idealfall ohne Verlust von Daten oder Downtime des Service.

Nicht immer entscheiden jedoch die Unternehmen selbst über ihre Disaster-Recovery-Strategie. Manchmal mischen sich übergeordnete Stellen ein. Nehmen wir unser Banken-Beispiel. Hier gibt es Vorgaben der BaFin als Aufsichtsbehörde. Bislang galt: Die beiden Rechenzentren, in denen Bank-Services betrieben werden, müssen mindestens fünf Kilometer voneinander entfernt sein. Eine Katastrophe, so der Gedanke dahinter, die ein Rechenzentrum in die Knie zwingt, darf nicht auch den zweiten Standort ausfallen lassen.

Neue Vorgaben des BSI für Georedundanz

Klimawandel hin oder her – das BSI (das Bundesamt für Sicherheit in der Informationstechnik) kam 2018 zum Schluss, dass fünf Kilometer angesichts des Katastrophenpotenzials in Deutschland nicht mehr ausreichend sind. Und empfahl, um Geo-Redundanz zu gewährleisten, einen Abstand der beiden Disaster-Recovery-Rechenzentren von 200 Kilometern – mindestens jedoch 100 Kilometer. Von 5 auf 200 in 2018 sozusagen.

Auch wenn das BSI hier zunächst nur eine Empfehlung ausspricht: In der Vergangenheit ist die BaFin den Empfehlungen des BSI immer gefolgt. Damit müssen sich Banken und Versicherer ernsthafte Gedanken über ihre Disaster-Recovery-Strategie machen. Dass sich bei einem solchen Abstand auch Konsequenzen für die Latenzen ergeben, ist sicherlich auch ein Faktor, der hierbei berücksichtigt werden muss.

Colocation – einfacher Weg zur Georedundanz

Natürlich adressiert die Veröffentlichung des BSI nicht nur das Banking, sondern auch andere Branchen. Es bleibt abzuwarten, wie verbindlich die Empfehlungen jeweils werden. Für Geo-Redundanz, soviel ist klar, ist zukünftig ein Abstand von 100 Kilometern notwendig. Wer diese Anforderungen erfüllen will, muss sich auf die Suche nach mindestens einem zweiten Rechenzentrum im Abstand von 100 oder 200 Kilometern machen. Colocation/Housing kann dabei als Lösung zumindest in Erwägung gezogen werden. Die Rechenzentrumskapazitäten sind schnell verfügbar und ausreichend viele Optionen (mit einem Abstand von 100/200 Kilometer) sollten hinsichtlich Sicherheit auch den Ansprüchen des Unternehmens genügen. Colocation bietet zudem den Vorteil, dass das jeweilige Unternehmen jederzeit eine andere langfristige Lösung wählen kann. Wer bereits Colocation nutzt, sollte darauf achten, dass seine beiden Colocation-Rechenzentren den entsprechenden Abstand zueinander haben. Dann kann die nächste Katastrophe kommen. Aber noch besser wäre es, sie bliebe uns dennoch erspart …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Pflichtfeld

 
 

Twitter

tsystemsde @tsystemsde
Noch liegen einer digitalen #SupplyChain viele Steine im Weg. Das digitale Frachtpapier von #TSystems hilft Unterne… https://t.co/CUI8hsd9Ni
Das Internet ist nur ein Hype!? – So kann man sich irren. Gerade einmal 4 Universitäten in den USA sollte das… https://t.co/GVPq9K7aZs
Das @bmu unterstützt Kommunen und Akteure beim Umstieg auf energieeffiziente und smarte LED-Beleuchtung: Damit könn… https://t.co/0SO5974pny
#Automation ist in der Industrie allgegenwärtig und beeinflusst neben den Produkten selbst auch die Produktionssteu… https://t.co/GBv17sbuvV
Stabiles Internet ist für Hotelgäste heute ein absolutes Muss. Wie @Lindner_Hotels mit Hilfe der @deutschetelekom d… https://t.co/3YnMmtgEzN
Von wegen teuer und nur für IT-Experten geeignet: @bigdata_insider erklärt, wie auch #KMU #IoT-Lösungen unkomplizie… https://t.co/KSDgjPXWDF
Die @deutschetelekom setzt auf Datennetze der neuen Generation – anstatt Hardware steuert jetzt Software die Netzve… https://t.co/D1rNge5NX4
Ein zukunftsfähiges Product Lifecycle Management in der Automobilbranche: Leistungsstarke Tools für die globale… https://t.co/z56BMsvO2g
Wie #KünstlicheIntelligenz Manager und Controller herausfordert, beleuchtet Prof. Jürgen Weber von der @WHU_edu bei… https://t.co/EKTvsLZBLN
Load More...