Der digitale Daemon
sehen muss.
Der Erfolg des Cloud Computing geht einher mit dem Erfolg des Mobile Computing. Die Möglichkeit, über die Cloud jederzeit und von überall auf die eigenen Daten und Dienste zugreifen zu können, ist einer der Haupttreiber für den Erfolg von Smartphones und Tablets. Diese Geräte eröffnen aber auch neue Angriffsmöglichkeiten auf die Daten und Dienste in der Cloud.
Risikomanagement erfordert Disziplin und Intelligenz
Die IT durchlebt gerade zwei Trends, die sich unmittelbar auf das Risikomanagement auswirken.
Wir alle erzeugen im »Web 2.0« Unmengen an unstrukturierten Daten, z. B. in Online Social Networks, und diese Daten sind oft Teil von informellen Verwaltungs- und Geschäftsprozessen. Dieser unstrukturierte und informelle Teil der IT entzieht sich den üblichen Sicherheitsregeln. Als Reaktion werden sich daher »sanftere« Kontrolltechniken herausbilden, bei denen offensichtliches Fehlverhalten verhindert, weniger offensichtliches aber nur im Nachhinein entdeckt und geahndet werden kann.
Der zweite Trend ist Big Data , also die rasante Leistungssteigerung im Bereich komplexer Datenanalyse. Entsprechende Fortschritte darf man in der Anomalieerkennung erwarten, also der Erkennung von Angriffen auch ohne genaue Kenntnis der für den Angriff ausgenutzten Schwachstellen. Viele Angriffe betreffen verschiedene Firmen und lassen sich erst dadurch erkennen, dass die Daten aller betroffenen Firmen gemeinsam ausgewertet werden. Auch hier eröffnet Big Data neue Möglichkeiten.
In beiden genannten Anwendungsfällen von Big Data ergeben sich zahlreiche Vertraulichkeits- und Datenschutzprobleme. Weder darf man Mitarbeiter umfassend überwachen, noch sind Firmen bereit, ihre gesammelten Sicherheitsinformationen in einen großen Pool einzubringen. Hier gibt es bereits diverse organisatorische und technische Lösungen, es besteht aber immer noch ein großer Forschungsbedarf.
Kosteneffizienz treibt » Security and Privacy by Design «
Fehlerbehebung durch Patching am ausgelieferten Software-Produkt ist im Schnitt fast hundertmal teurer als Fehlerbehebung in der Entwicklungsphase. 14 Diese Rechnung führt nahezu zwangsläufig zum Prinzip von security and privacy by design : Durch Automatisierung von Entwurf und Test sollen Fehler vermieden oder zumindest frühzeitig entdeckt werden.
Im praktischen Einsatz sind hier strukturierte Entwicklungsprozesse, die die Entwickler von IT zwingen, sich mit IT-Sicherheit zu beschäftigen, und Werkzeuge, die automatisiert nach bestimmten Schwachstellen in bestimmten Klassen von Anwendungen suchen. Meist werden diese Werkzeuge als Ergänzung für manuelle Sicherheitsanalysen und Penetrationstests verwendet. Seltener verwendet werden Hilfsmittel zur strukturierten Entwicklung von Sicherheitsanforderungen, und noch seltener Werkzeuge zur automatisierten Code-Erzeugung und zur Verifikation.
Dieses Thema steht derzeit im Zentrum der IT-Sicherheitsforschung, etwa im vom BMBF geförderten Darmstädter European Center for Security and Privacy by Design (EC-SPRIDE). Signifikante Fortschritte sind hier also zu erwarten.
Fehlerfreundliche Sicherheitsarchitekturen
Menschen machen Fehler, und dementsprechend wird auch IT-Sicherheit immer fehlerhaft sein. Wir brauchen daher Ansätze zur IT-Sicherheit, die mit Fehlern rechnen und deren Auswirkung auf das Gesamtsystem von vornherein begrenzen. Viele Konzepte sind in der Forschung bekannt und werden in Zukunft vermehrt in die Praxis umgesetzt.
Dazu gehört das Prinzip, dass man zentrale Risikoballungen vermeidet und dementsprechend kritische Informationen möglichst verteilt. Eine zentrale Datenbank mit allen wichtigen Informationen einer Firma erleichtert zwar den Entwurf, stellt aber das optimale Angriffsziel dar – und da Fehler unvermeidbar sind, ist es nur eine Frage der Zeit, bis diese Datenbank »geknackt« ist. Sicherer ist es, die Daten auf verschiedene kleinere Datenbanken zu verteilen und die Daten möglichst konsequent getrennt zu halten.
Ein weiteres Prinzip ist die konsequente Trennung von Daten und Prozessen in unterschiedliche Bereiche, sortiert z. B. nach Eigentümer, Organisation, Risiko, Wert, Kontext und Zweck. Dieses Isolationsprinzip findet derzeit dank Cloud Computing sehr viel Aufmerksamkeit: in Clouds teilen sich verschiedene Nutzer dieselbe IT, und perfekte Isolation ist daher unverzichtbar.
Hinter dem Isolationsprinzip verbergen sich zahlreiche Technologien, z. B. mandatory access control, sichere
Weitere Kostenlose Bücher