Ihre Suche

Ihre Suche

Cloud Brokerage

Whitepaper Cloud Brokerage
Multi-Cloud-Ansätze im Griff
Zum Dokument

Referenzen

AH Rittersbacher

Mehr Tempo mit VaudisPro

Die Händlersoftware VaudisPro unterstützt die Verkaufs- und Serviceprozesse in den Niederlassungen der Autohandelsgesellschaft Rittersbacher.
Zur Kundenlösung
AH Prengemann

Mit Xenon alle Finanzen im Blick

Finanz- und Buchhaltungssystem Xenon liefert dem Autohaus Prengemann aktuelle Kennzahlen.
Zur Kundenlösung
AH Schade und Sohn

Mit VaudisPro breiter aufgestellt

Um neben Mercedes- auch VW-Kunden zu betreuen, führt das Autohaus Schade u. Sohn als weiteres Dealer-Management-System VaudisPro ein.
Zur Kundenlösung
HIL GmbH | Beispiel für ein hochsicheres Weitverkehrsnetz

Hochsicheres Weitverkehrsnetz dank Kryptoboxen

Beispiel für ein hochsicheres Weitverkehrsnetz: Die HIL GmbH arbeitet mit kryptologisch abgesicherter Datenübertragung bei allen Material- und Logistikanwendungen.
Zur Kundenlösung
Flughafen Scheremetjewo Moskau

Flughafen Scheremetjewo Moskau

Durch die Integration einer SAP-Rechnungswesenkomponente hat der Flughafen seine Rechnungsstellung automatisiert und die Liquidität verbessert.
Zur Kundenlösung
Baden-Württemberg

Landesweites SAP

Seit der Einführung eines zentralen SAP-Systems verfügt das Land Baden-Württemberg über Controllinginstrumente – wie ein privates Unternehmen.
Zur Kundenlösung
Magna International Inc.

Dynamic Sourcing als SAP-Betriebsmodell

Der österreichisch-kanadische Automobilzulieferer Magna hat den Betrieb seiner SAP-Systeme auf Cloud Computing umgestellt.
Zur Kundenlösung

Wählen Sie eine Kategorie, um auf der Übersichtsseite zugehörige Referenzen zu sehen.

Wählen Sie eine Kategorie, um auf der Übersichtsseite zugehörige Referenzen zu sehen.

13. September 2013 Lösungen

„Cloud Partner of the Year“ – T-Systems von Cisco ausgezeichnet

“Cloud Partner of the Year“

T-Systems ist für Cisco als Cloud-Partner erste Wahl.

Meine InfoBox

Die Anzahl der Dokumente in der InfoBox ist beschränkt auf: 20
Mit der InfoBox können Sie Informationen wie Grafiken, Whitepaper und sogar ganze Seiten der T-Systems Website komfortabel an einem zentralen Ort sammeln und später downloaden und versenden. Klicken Sie dafür einfach auf das InfoBox-Symbol, das sie auf vielen unserer Seiten finden können:Sie haben noch keine Dokumente in der InfoBox abgelegt. Ihre InfoBox ist zur Zeit leer.
Gesamtgröße 0 MB
Schließen Ihre E-Mail wurde erfolgreich versandt. Ich möchte diese Dokumente versenden. * Verpflichtende Angaben



(Mehrere Empfänger mit Komma trennen)

Think Big

2. Februar 2012
Dr. Michael Pauly

Mit der Zeit wird alles größer. Die Anzahl der Photos auf meinem Rechner, der Stapel Arbeit auf meinem Schreibtisch, … Keiner löscht mehr irgendwelche Daten. Wieso denn auch, wenn Speicherplatz recht preisgünstig ist? Und als Unternehmen darf ich das auch nicht mal so eben. Hier sprechen eine Reihe von gesetzlichen Regelungen und Anforderungen dagegen. Ergo, es wird nichts entsorgt oder gelöscht. Man weiß ja nie wozu es später noch gut ist ;-).

Welche Konsequenzen das hat, merke ich (so langsam) in der Cloud. Datenbanken werden immer größer. Und was noch erschwerend hinzu kommt: Diese Daten sollen überall auf der Welt immer schnell verfügbar sein. Also verteile ich diese - auch hier lässt sich die Physik, d.h. Laufzeiten von Signalen etc. durch IT nicht außer Kraft setzen -, wenn sie nicht schon von vorneherein verteilt vorliegen. Geht das überhaupt? Die einfache (Management-)Antwort hierauf ist: Es muss gehen! Irgendwie. ;-)

Dabei sind Daten so flexibel wie, mmmhh … sagen wir, wie eine Ziegelsteinmauer. Sie glauben mir nicht? Dann versuchen sie einmal größere Datenmengen “mal eben” zu anderen Systemen zu transferieren, um diese dort zu be- oder verarbeiten. Sie werden dabei ganz schnell an ihre Grenzen stoßen. Ergo, ich bringe meine Applikationen hin zu den Daten, die sich natürlich irgendwo auf der Welt - besser gesagt in der Cloud - befinden können.

Dabei stellen sich mir ein paar Fragen, auf die ich bis jetzt selbst keine Antwort habe:

  • Wie verteile ich meine Applikationen und Anfragen auf die verteilten Datenmengen?
  • Wie koordiniere, kombiniere und verknüpfe ich die Ergebnisse „richtig“?
  • Wie kann ich komplexe Suchabfragen realisieren?

“Dazu gibt es doch Hadoop!” werden einige von Ihnen einwenden. Stimmt. Aber Hadoop, wie es heute verfügbar ist, ist hier noch nicht weit genug gedacht.

Mein Fazit: Wir brauchen neue Verfahren und Methoden, um mit solch großen Datenmengen umzugehen. Einige haben wir schon. Aber reichen die? Mitnichten. Denn sobald ich nur ein paar der Operationen auf (wirklich) großen und (global) verteilten “Datenbanken” durchführen möchte, z.B. mal eben mit so etwas wie einem “SQL-Statement”, wie ich es aus meinem Unternehmen kenne, dann “quietscht” es schon mächtig. Vorausgesetzt es ist überhaupt möglich. Hier müssen wir neue Wege beschreiten und noch eine Menge Gehirnschmalz rein stecken. Aber was sag’ ich. Das wussten Sie sicher schon. In diesem Sinne. Lassen Sie es uns mal ein wenig größer denken.

Ihr Michael Pauly

P.S.: … und das ich nicht der einzige bin der solche Gedanken hat zeigte sich in einer Reihe von Diskussionen in dem am 27. Januar neu gegründeten Arbeitskreis “Big Data” der Bitkom.

 
Ausschlussklausel für Haftung: Diese Kommentare zu unseren Beiträgen spiegeln allein die Meinung einzelner Leser wider. Für die Richtigkeit und Vollständigkeit der Inhalte übernimmt T-Systems keinerlei Gewähr.