Marten Bütow
12. April 2019 0
Digitalisierung

So also sprach das BSI…

Erdbeben oder Vulkanausbrüche sind ja in Deutschland eher selten – genauso wie Tsunamis. Tornados aber – oho – sind auf der Menükarte der Katastrophen stark im Kommen. Beispielsweise erst im März dieses Jahres in NRW. Norddeutschland ist sogar Teil einer europäischen „Tornado Alley“, die sich von Südengland bis Polen erstreckt.
An den Gedanken von Naturkatstrophen müssen sich viele von uns erst gewöhnen. Aber Elb- oder Donauhochwasser haben uns schon einen kleinen Vorgeschmack davon gegeben, was uns anlässlich des Klimawandels erwarten kann.
Bei der Konzeption von Rechenzentren müssen diese Überlegungen eine zentrale Rolle spielen. Chemiefabriken, Flughäfen, Kernreaktoren, unterirdische Hohlräume, Flüsse etcpp. – eine Fülle von Einflussfaktoren sollte bedacht werden, bevor der Wunschort für ein Rechenzentrum gefunden ist. Das mag manchem ein bisschen zu weit hergeholt sein, aber das Risikomanagement in Deutschland denkt gerne auch das Absurde voraus, über das Normalsterbliche gerne den Kopf schütteln.

Katastrophen-Paranoia für IT: angemessen

Wenn Sie verantwortlich sind für einen IT-Service, der einen zentralen Geschäftsprozess abbildet, sehen Sie das anders. Sagen wir ihre Bankensysteme: Millionen von Transaktionen täglich, die Menschen von Hand schon längst nicht mehr bewerkstelligen können. Oder die Zustellung von vier Millionen Paketen täglich. Ein Ausfall des IT-Systems wird da schnell zu einer Art Katastrophe speziellen Kalibers. Eine Business-Katastrophe.

Klar, dass solche Services unbedingt am Laufen gehalten werden müssen. Üblicherweise setzen Unternehmen hierzu eine Disaster-Recovery-Strategie auf. Das System wird doppelt betrieben. Üblicherweise in zwei verschiedenen Rechenzentren, mindestens jedoch in zwei verschiedenen Brandschutzzonen in einem Rechenzentrum. Fällt der eine Teil aus, übernimmt der andere. Im Idealfall ohne Verlust von Daten oder Downtime des Service.

Nicht immer entscheiden jedoch die Unternehmen selbst über ihre Disaster-Recovery-Strategie. Manchmal mischen sich übergeordnete Stellen ein. Nehmen wir unser Banken-Beispiel. Hier gibt es Vorgaben der BaFin als Aufsichtsbehörde. Bislang galt: Die beiden Rechenzentren, in denen Bank-Services betrieben werden, müssen mindestens fünf Kilometer voneinander entfernt sein. Eine Katastrophe, so der Gedanke dahinter, die ein Rechenzentrum in die Knie zwingt, darf nicht auch den zweiten Standort ausfallen lassen.

Neue Vorgaben des BSI für Georedundanz

Klimawandel hin oder her – das BSI (das Bundesamt für Sicherheit in der Informationstechnik) kam 2018 zum Schluss, dass fünf Kilometer angesichts des Katastrophenpotenzials in Deutschland nicht mehr ausreichend sind. Und empfahl, um Geo-Redundanz zu gewährleisten, einen Abstand der beiden Disaster-Recovery-Rechenzentren von 200 Kilometern – mindestens jedoch 100 Kilometer. Von 5 auf 200 in 2018 sozusagen.

Auch wenn das BSI hier zunächst nur eine Empfehlung ausspricht: In der Vergangenheit ist die BaFin den Empfehlungen des BSI immer gefolgt. Damit müssen sich Banken und Versicherer ernsthafte Gedanken über ihre Disaster-Recovery-Strategie machen. Dass sich bei einem solchen Abstand auch Konsequenzen für die Latenzen ergeben, ist sicherlich auch ein Faktor, der hierbei berücksichtigt werden muss.

Colocation – einfacher Weg zur Georedundanz

Natürlich adressiert die Veröffentlichung des BSI nicht nur das Banking, sondern auch andere Branchen. Es bleibt abzuwarten, wie verbindlich die Empfehlungen jeweils werden. Für Geo-Redundanz, soviel ist klar, ist zukünftig ein Abstand von 100 Kilometern notwendig. Wer diese Anforderungen erfüllen will, muss sich auf die Suche nach mindestens einem zweiten Rechenzentrum im Abstand von 100 oder 200 Kilometern machen. Colocation/Housing kann dabei als Lösung zumindest in Erwägung gezogen werden. Die Rechenzentrumskapazitäten sind schnell verfügbar und ausreichend viele Optionen (mit einem Abstand von 100/200 Kilometer) sollten hinsichtlich Sicherheit auch den Ansprüchen des Unternehmens genügen. Colocation bietet zudem den Vorteil, dass das jeweilige Unternehmen jederzeit eine andere langfristige Lösung wählen kann. Wer bereits Colocation nutzt, sollte darauf achten, dass seine beiden Colocation-Rechenzentren den entsprechenden Abstand zueinander haben. Dann kann die nächste Katastrophe kommen. Aber noch besser wäre es, sie bliebe uns dennoch erspart …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Pflichtfeld

 
 

Twitter

tsystemsde @tsystemsde
#SiemensInnovationDay: Als @Siemens Partner sind wir bei T-Systems stolz darauf, unsere Innovationen zu #5G,… https://t.co/FdzGX6gr3B
Hawk, einer der leistungsfähigsten Rechner der Welt, wurde im Stuttgarter Höchstleistungsrechenzentrum (#HLRS) in B… https://t.co/DUJLQhzFpS
Die smarte #IoT-Lösung Mobile Identity & Access (#MIA) für die #Logistik-Branche bringt #TSystems zum zweiten Mal i… https://t.co/NVg6c1xgd2
#CustomerExperience zwischen on- und offline Welt? Wie die eigene Marke emotional aufgeladen und damit eine höhere… https://t.co/TKIJyuyaWz
Von Zentrale bis Filiale: Customer Experience macht den #Handel erfolgreich. Diese digitalen #Retail-Lösungen helfe… https://t.co/k5MsOUTkL0
In Webshops sind Wunschartikel nur einen Klick entfernt, doch viele Kunden legen auch weiterhin Wert auf ein klassi… https://t.co/smWXrM7mF9
Mit dem digitalen Preisschild passt der #Handel flexibel Preise an. Händler bieten blitzschnell Sonderrabatte. Sie… https://t.co/015MKhmTrO
Unser #Gesundheitswesen ist digitaler als sein Ruf – Mark Düsener, Leiter von Telekom Healthcare Solutions im Inter… https://t.co/SXXSHBn4jo
T-Systems präsentiert beim 6. Zukunftskongress Bayern wie Co-Creation bei der Digitalisierung unterstützen kann.… https://t.co/eVwbzZkN2j
Load More...