Skip to main content

Hitachi

Social Innovation

Hitachi–Großes Datenvolumen

Dieser Entwicklungsbereich birgt viele Chancen und bietet beispielsweise die Möglichkeit, Verkehrsstaus zu vermeiden und die Sicherheit von Autofahrern zu erhöhen.

In den 1690er-Jahren sendete der Theologe, Caspar Neumann, dem Schriftführer der London Royal Society eine Reihe von Aufzeichnungen mit von ihm zwischen 1687 und 1691 in Breslau, dem damaligen Niederschlesien, erfassten Geburten, Eheschließungen und Todesfällen.

Der Schriftführer leitete dieses Material an Mathematiker und Astronom, Edmund Halley, weiter, der daraus eine Tabelle mit dem Alter der Menschen zum Todeszeitpunkt anfertigte und die wahrscheinliche Lebenserwartung einer Person nach ihrem Alter berechnete. Das Ergebnis war eine „Sterbetafel“, tatsächlich die erste Statistik der Geschichte, die zur Berechnung der Rente verwendet wurde, für die eine gewisse Geldsumme ausbezahlt werden sollte.

Im 17. Jahrhundert war Neumanns Sterblichkeitsstatistik ein großes Datenvolumen. Breslau hatte eine Bevölkerungszahl von 34.000 Einwohnern. Die Erfassung von Informationen zum Erstellen einer effektiven Datenbank war deshalb ein Riesen-Unterfangen. Im Vergleich dazu war die mathematische Analyse von Halley relativ simpel.

Heute steht eine große Menge an Daten kostenlos zur Verfügung, aber das Schwierige ist, die nützlichen Informationen zu extrahieren.

Wenn man heute von der Verwertung großer Datenmengen spricht, sind häufig die unstrukturierten Daten gemeint, die auf eine Art erfasst werden, die es erfordert, dass sie vor der Verwendung erst weiterverarbeitet werden müssen. Die größte Herausforderung stellt Material in Formaten dar, die nicht sofort in eine Datenbank eingepflegt werden können, wie Bilder, Sprachdateien und Videos. Was kann da getan werden?

Das Unternehmen, das Pionierarbeit bezüglich dieser Technik geleistet hat, war Hitachi Data Systems, das Informationen aus seinen BlueArc Netzwerkspeichern und Content-Depots zieht und den tatsächlichen Inhalt mit XML indexiert.

Die erste Stufe der Lösung ist Data Warehousing: Das heißt, Daten zu sammeln, die Sie speichern und analysieren wollen, und sie in ein gemeinsames Format umzuwandeln. Das Unternehmen, das Pionierarbeit bezüglich dieser Technik geleistet hat, war Hitachi Data Systems, das Informationen aus seinen BlueArc Netzwerkspeichern und Content-Depots zieht und den tatsächlichen Inhalt mit XML indexiert. Somit erhält man, unabhängig von der Form, ein gemeinsames Format und eliminiert das Problem, mehr als eine Datenbank vergleichen zu müssen. Die Bedeutung dieses Prozesses liegt auf der Hand, wenn man bedenkt, dass Computer Daten etwa 150.000 Mal schneller verarbeiten können, wenn diese sequentiell angeordnet sind.

Der zweite Schritt ist, diese Daten zu „virtualisieren“, d. h. auf einer Cloud optimiert zu speichern. Dies wird durch Indexierung erreicht, bevor die Daten von teuren Computerservern auf „Offline“-Lösungen übertragen werden, die keinen Strom benötigen. Was Hitachis Methode in dieser Hinsicht so außergewöhnlich macht, ist die Tatsache, dass sie alle Kundendaten auf derselben Cloud virtualisieren kann, unabhängig des Herstellers des verwendeten IT-Speichersystems. Die Vereinheitlichung des Formats und des Zugangs ist seit langem Hitachis Alleinstellungsmerkmal. Seitdem haben andere Hersteller diese Strategie natürlich kopiert, aber durch den Vorsprung konnte niemand Hitachi das Wasser reichen. Keiner der japanischen Konkurrenten konnte auf internationalen Märkten erfolgreich Fuß fassen.

Im dritten Schritt werden diese Lösungen an wechselnde Anforderungen angepasst und eine schnellere und kostengünstigere Speicherung sowie schnellere Analysetechniken erreicht. Private Clouds für mobile Daten werden beispielsweise über einen skalierbaren Zentralspeicher verwaltet, der Dateien plattformübergreifend synchronisieren und Anwendungen teilen kann. Die schnelle Speicherung wird durch Hitachi Accelerated Flash realisiert, der soliden Festplatte, bei der die Verarbeitungsengpässe, die bei älteren diskbasierten Systemen zu beobachten sind, erheblich seltener auftreten.

Dieser Entwicklungsbereich birgt viele Chancen und bietet beispielsweise die Möglichkeit, Verkehrsstaus zu vermeiden und die Sicherheit von Autofahrern zu erhöhen.

Was kommt in der vierten Stufe? Laut Hu Yoshida, technischer Leiter bei Hitachi Data System, wird es eine Fortsetzung des Rennens geben, den Zuwachs großer Datenmengen von weltweiten Serverfarmen in Höhe von 27 % im Jahr zu bewältigen, zusammen mit dem Bedarf, mit Echtzeit-Analysen von Daten aufzuwarten, die durch die Kommunikation von Maschine-zu-Maschine erfasst wurden. Dieser Entwicklungsbereich birgt viele Chancen und bietet beispielsweise die Möglichkeit, Verkehrsstaus zu vermeiden und die Sicherheit von Autofahrern zu erhöhen. Darüber hinaus sind neue dezentrale Speichersystemarten erforderlich (häufig als „Data Lakes“ bezeichnet), die Anwendern zur Verfügung stehen, um Analysen durchzuführen. Dann wäre da noch das anhaltende Wachstum des kosteneffizienten „Hybrid“-Cloud-Computing, eine weitere Technologie, in der Hitachi nicht zu schlagen ist. Hier werden Daten teilweise öffentlich und teilweise privat gespeichert. Da 70 % der Unternehmen derzeit diese Lösung abwägen, kann man von einem schnellen Wachstum in etwa einem Jahr ausgehen.

Ob all diese Fortschritte letztendlich etwas so Revolutionäres wie Edmund Halleys Sterbetafel hervorbringen werden, ist eine Frage, die vorerst unbeantwortet bleibt. Was wir aber mit Sicherheit sagen können, ist, dass diese Methode bezüglich großer Datenvolumen auf ihre Art für das 21. Jahrhundert genauso neu ist wie damals Halleys Idee für das 17. Jahrhundert.