Das Ende des Zufalls - Wie Big Data uns und unser Leben vorhersagbar macht (German Edition)
der mobilen Applikationen und des mobilen Gamings. „Komplexes Event-Processing“ und „Streaming-Data“ sind die Fachtermini für diese Form der Echtzeit-Datenverarbeitung. Wenn nun superschnelle Technologien es möglich machen, den gesamten Prozess inklusive Feedback-Loop schneller abzuwickeln, als wir selbst wahrnehmen und denken können, so ist das tatsächlich schneller als gedankenschnell. Das langsamste Glied in dieser Feedback-Kette ist dann der Mensch. Was liegt näher, als immer mehr Funktionen bis hin zu den fälligen Entscheidungen selbst in Maschinen auszulagern? Kein Mensch könnte in einer Sekunde zehn Mal oder öfter entscheiden, ob eine Aktie gekauft oder wieder verkauft werden sollte oder in bloßen Bruchteilen einer Sekunde eine Ausweichroute finden und berechnen, so wie das jedes Navi kann.
Wie unterschiedlich können Daten sein?
Die Verschiedenheit (Variety) von Big Data
Unser digitales Universum ist äußerst vielfältig: ein Text, der gerade über Twitter gesendet wurde, ein auf YouTube gestelltes Video, Herzfrequenzen und Schrittzahl pro Minute, die über das Nike-Armband aufgezeichnet wurden, die Außentemperatur, die Geschwindigkeit, die Tourenzahl Ihres Autos, ein Facebook-Like, ein Google+, die Text-Message, dass „Sie wegfahren, wenn Ihr Chef angekommen ist“. Nicht zu vergessen die Datenspuren, die unsere Kreditkarten hinterlassen, die RFID-Chips und die vielen Überwachungskameras, die unseren Weg tagtäglich begleiten. Daten sind nicht gleich Daten. Sie kommen in den unterschiedlichsten Formen und Formaten, von unterschiedlichen Geräten und haben oft mehrere Bedeutungen. Gerade die großen Datenmengen, die aus so unterschiedlichen Quellen wie Social Media und Suchmaschinen, aber auch direkt von verschiedenen Sensoren als Rohdaten-Feed stammen, stellen eine neue Herausforderung dar. Die wichtigste und erste Aufgabe der Big-Data-Verarbeitung besteht darin, diese unstrukturierten Daten zu ordnen, ihre Bedeutung zu klären und sie damit vergleichbar und analysefähig zu machen.
Wie verlässlich sind Daten?
Die Richtigkeit (Veracity) von Big Data
Qualität, Herkunft und Wert der Daten sind ebenfalls ein wichtiger Faktor für die Verarbeitung von Big Data. Aber gerade bei der Geschwindigkeit, die gefordert wird, ist es oft nicht möglich, unpräzise Daten vorab zu klären oder zu filtern. Wir müssen zunehmend in die Lage kommen, dass Algorithmen auch mit unpräzisen Daten arbeiten und Ergebnisse liefern können. Ein IBM-Bericht zu diesem Thema zeigt, dass einer von drei CEOs den Daten, mit denen sein Unternehmen arbeitet, nicht vertraut. Das kann heißen, dass er die Daten für schlecht hält, aber auch, dass den Daten grundsätzlich misstraut wird. Die Qualität von Daten und ihre Akzeptanz wird daher ein wichtiger Faktor für zukünftige Big-Data-Initiativen sein. 69
Daten-Abfall als künftiger Daten-Schatz
• Ein einziger Flug eines Passagierjets von Heathrow nach New York produziert rund 650 Terabytes an Daten – mehr als die meisten Unternehmen insgesamt an Daten in ihren Datenspeichern haben. Die meisten dieser Daten werden heute nur analysiert, wenn ein Unfall passiert. Alle diese Daten könnten in Zukunft in Prognose- und Simulationsmodelle integriert werden, die Unfälle verhindern und Prozessverbesserung bringen können.
• Online-Shops verzichten noch immer überwiegend (wenn man von Amazon, eBay und ein paar Großen absieht) darauf, die Terabytes an Klickströmen, die jede Minute auf ihren Websites erzeugt werden, zu analysieren, um ein besseres Verständnis dafür zu bekommen, warum Kunden einen Kaufvorgang abbrechen oder erst gar nicht beginnen.
• Sensoren, die heute Transportstrukturen, Ölförderanlagen und andere Produktionsvorgänge überwachen, produzieren „Datenabfall“, der kombiniert mit anderen Daten zum Datenschatz für neue Prognosemodelle werden kann.
Mit den Analysemöglichkeiten von Big Data kann auch der bisherige „Datenabfall“ zu einem neuen Asset werden. Sei es, um die eigenen Rechenmodelle zu verbessern oder um sie als Handelsware auf einem der Datenmarktplätze einzusetzen. Noch ist der größere Teil der immer wieder zitierten unendlichen Datenmengen nach wie vor „Dark Data“, unstrukturiert in Datensilos schlafend.
Smart Data und der Smart Data Feedback Loop
Aus Daten müssen Taten werden
„Was immer sie produziert, eine Organisation ist in erster Linie eine Fabrik von
Weitere Kostenlose Bücher