Das Ende des Zufalls - Wie Big Data uns und unser Leben vorhersagbar macht (German Edition)
Viele der neuen Analyseplattformen werden so angeboten.
„Infrastructure as a Service“ (IaaS)
Hier werden Unternehmen komplette IT-Strukturen wie Server, Netzwerkkomponenten, Speicher und Rechenzentrum bereitgestellt, die auf Basis der tatsächlichen Nutzung abgerechnet werden.
Es wird zwischen drei „Cloud“-Formen unterschieden: Public Clouds ermöglichen Unternehmen oder Einzelpersonen schnellen und kostengünstigen Zugang, wobei die Ressourcen allen Nutzern zur Verfügung stehen. In Private Clouds stehen die spezifischen Ressourcen nur dem jeweiligen Nutzer zur Verfügung. Eine gemeinsame Nutzung der Ressourcen mit anderen Unternehmen findet nicht statt. Hybrid Clouds ist eine Kombination aus Private Clouds und Diensten, die über eine Public Cloud verfügbar sind. Die meisten Unternehmen mit Private Clouds verteilen ihre Aufgaben auf Rechenzentren, Private Clouds und Public Clouds. So entstehen die Hybrid Clouds.
Was ist Big Data?
Ed Dumbill definiert in „Planning for Big Data“ 64 den neuen Modebegriff: „Big Data sind Daten, deren Verarbeitung die Kapazität konventioneller Datenbanksysteme übersteigt.“ Diese Daten sind zu umfangreich, zu schnell oder passen in ihrer Struktur nicht in die Architektur bestehender Datenbanken. Um Nutzen aus dieser Art von Daten zu ziehen, benötigt man alternative Wege, sie zu verarbeiten. „Big Data setzt da ein, wo konventionelle Ansätze der Informationsverarbeitung an Grenzen stoßen, die Flut zeitkritischer Informationen für die Entscheidungsvorbereitung zu bewältigen“, fasst ein BITKOM-Leitfaden 65 zusammen, „mit Big Data können Unternehmen schneller auf Marktveränderungen reagieren. Mit höherer Agilität steigern sie ihre Wettbewerbsfähigkeit!“
Wie bei jeder neuen Entwicklung, bei der sich ein Schlagwort herausbildet, gibt es in der Fachszene heftige Diskussionen um den Begriff, was er beschreibt und was er wirklich bedeutet. Bei Big Data geht es nicht nur um die Daten selbst, sondern vor allem um eine neue Generation an Technologien und Datenarchitekturen, die es möglich macht, aus großen Datenmengen unterschiedlichster Struktur durch Hochgeschwindigkeitsverarbeitung und Analyse entsprechenden Wert zu generieren. Die drei wesentlichen Faktoren sind dabei die Daten selbst, die Analyse dieser Daten und die Präsentation der Ergebnisse der Analyse. Daraus können dann Produkte und Leistungen entstehen, die auf einem oder allen drei Faktoren beruhen. Wenn wir uns zunächst aber einmal den Daten selbst und weniger den Prozessen ihrer Analyse widmen, so sind es vor allem drei Charakteristika, die Big Data im ursprünglichen Sinn definieren: Volumen, Geschwindigkeit und Variabilität. Dazu kommt ein vierter Punkt, der immer öfter als zusätzlicher Faktor genannt wird: Veracity, also Richtigkeit, in diesem Zusammenhang auch mit Verlässlichkeit und Vertrauenswürdigkeit gleichzusetzen.
How Big is Big? Das Volumen von Big Data
Das Merkmal, das Big Data zunächst den Namen gab, ist der Umfang des Datenvolumens. Exakte Definitionen von jenem Datenumfang, ab dem man von Big Data spricht, gibt es nicht. Sah man einst Terabytes als das Maß für große Datenvolumen, so ist man heute bei Petabytes, Exabytes und Zettabytes. Je mehr Daten zur Verfügung stehen, desto größer wird in vielen Fällen die Treffsicherheit der Analyse werden. Die ungeheuer großen Mengen an Daten, die dafür archiviert und verarbeitet werden müssen, erfordern jedoch Verarbeitungskapazitäten, wie sie bisher nur von wenigen, großen Unternehmen bereitgestellt werden konnten. Schafften es manche noch gerade, die Flut an Daten zu speichern, so fehlte bisher bei vielen die Kapazität, sie auch zu verarbeiten. Ein Problem, das wir schon aus der analogen Welt kennen. Viele Unternehmen haben aus Umfragen und sonstigen Quellen Tonnen an Daten gesammelt und in kilometerlangen Ordnern und später firmeneigenen Datenbanken gesammelt, aber daraus nie zielführende Schlüsse gezogen, geschweige denn diese in Handlungen umgesetzt.
Der im Dezember 2012 veröffentlichte IDC-Report „The Digital Universe in 2020“ 66 erlaubt einen eindrucksvollen Ausblick auf das, was da vor uns liegt: Das digitale Universum, also das gesamte jährlich entstehende Datenvolumen, wächst im Zeitraum zwischen 2005 und 2020 um das Dreihundertfache, von 130 Exabytes auf 40.000 Exabytes, das sind 40 Trillionen Gigabytes! Das Datenvolumen wird sich von heute bis 2020 also alle
Weitere Kostenlose Bücher