Wenn die Daten in der Wolke verschwinden
Cloud Computing ist auf der Cebit das große Thema. Nicht nur Unternehmen, auch viele Privatpersonen nehmen schon lange Cloud-Rechenleistungen in Anspruch, ohne es vielleicht mit dem Begriff in Verbindung zu bringen.
01.03.2011
Von Christiane Schulzki-Haddouti

Als am Sonntag Tausende von GoogleMail-Nutzern vor leer gefegten Postfächern standen, mag ihnen die Bedeutung der "Cloud" klar geworden sein: In der sogenannten "Cloud" (englisch für Wolke) werden alle Rechenvorgänge abgewickelt, die man nicht über das eigene Gerät abwickeln möchte. So kann es sich um Rechenleistungen handeln für die das eigene Gerät, etwa ein Smartphone, zu klein ist. Oder es kann sich um Webmaildienste wie GoogleMail oder Hotmail handeln, auf die man jederzeit von verschiedenen Geräten, etwa dem Handy, dem Netbook oder dem Desktop zu Hause zugreifen möchte.

Eine Wolke namens GuttenPlag

Obwohl Nutzer sich bei Cloud-Anwendungen in neue Abhängigkeiten begeben, liegen die Vorteile auf der Hand: Die eigenen Geräte können kleiner und transportabler werden, der Zugriff auf die Dienste wird mobil. Alle informationsbasierten Tätigkeiten können so ortsunabhängig geleistet werden. Feste Arbeits- oder Lernplätze sind nicht länger mehr ein Muss. Auch neue Arbeitsdynamiken können entstehen. Wikis etwa eignen sich für das kollaborative Erstellen von Inhalten, da jeder Teilnehmer sofort sieht, was die anderen tun.

Das prominenteste Beispiel ist Wikipedia. Mit dem Wiki "GuttenPlag" konnte aber auch in Gemeinschaftsarbeit in kürzester Zeit die Doktorarbeit von Ex-Verteidigungsminister Guttenberg durchflöht und der Plagiatsvorwurf massiv erhärtet werden.

[reference:nid=35609]

Auf der Cebit geht es jedoch vor allem darum, professionelle Anwender vom "Rechnen in der Wolke" zu zu überzeugen. Rechnungen, Kündigungsschreiben, Kundenlisten – all das soll nicht mehr in Ordner geheftet und abschließbaren Aktenschränken verwahrt, sondern über Satellit, Glasfasernetz und Kupferkabel zwischen Unternehmensrechnern und Rechnern "in der Cloud" hin- und hersausen.

Laut Branchenverband Bitkom nutzen Unternehmen den ihnen auf den eigenen Rechnern zur Verfügung stehenden Speicherplatz im Schnitt nämlich nur zu 12 Prozent. Weil auch Branchengrößen wie Amazon und Google viele freie Kapazitäten hatten, entwickelten sie daraus ein Geschäftsmodell: Sie bieten Nutzern und Unternehmen verschiedene Online-Dienste an. Für Privatnutzer sind diese in der Regel kostenlos. Unternehmen können je nach Bedarf verschiedene Programmbausteine abonnieren.

Wo die Daten wirklich sind, bleibt geheim

Auch Microsoft bietet inzwischen nicht mehr nur Privatkunden, sondern auch Geschäftskunden Dienste in der virtuellen Rechenwelt an. Auf der Cebit kündigte der Konzern aus Redmond an, seine Office-Software sowie Speicherplatz online anbieten zu wollen. Der Bitkom-Verband zeigt sich denn auch zuversichtlich: Schon in fünf Jahren werde jeder zweite Internetnutzer kostenpflichtige Dienste aus der Cloud verwenden.

Viele Unternehmen zögern aber noch vor dem Schritt in die Wolke. Ihre Argumente sind Sicherheit und Zuverlässigkeit. Denn sie können selbst nicht mehr nachprüfen, wo ihre Daten tatsächlich gespeichert werden und ob sie auch sicher transportiert werden. Cloud-Anbieter wie Amazon, HP, Microsoft, IBM, EMC, Oracle und Google verschieben täglich Daten in Millionen Servern von den USA über Asien nach Europa und wieder zurück - je nach den derzeit verfügbaren Rechenkapazitäten.

Die Kunden von Amazons Clouddienst können immerhin entscheiden, ob sie Rechenpower und Festplattenplatz in den USA oder in der EU anmieten wollen. Google lässt seine Kunden im Unklaren – bietet aber mit 17 GB einen großen E-Mailspeicher und im Bereich seines "Text und Tabellen"-Dienstes Googledocs sogar unbegrenzte Speicherkapazitäten für all möglichen Dateiarten an.

Über 1 Million Server soll Google weltweit betreiben, schätzt die Website "Data Center Knowledge". Details hält das Unternehmen aus Wettbewerbsgründen geheim. Bekannt sind inzwischen 36 Standorte, die meisten befinden sich in den USA wie etwa die kalifornischen Standorte Mountain View, Pleasanton, San Jose, Los Angeles, und Palo Alto. In Deutschland soll Google in Berlin, Frankfurt und München Server betreiben. Europaweit stehen die Datenzentren in Zürich, dem niederländischen Groningen und Eemshaven, dem belgischen Mons, sowie in den Großstädten Paris, London, Dublin und Mailand. Weitere Rechenzentren sind im kanadischen Toronto, im brasilianischen Sao Paolo, in Moskau, Tokyo, Hong Kong und Peking.

Rückversicherungen auf jedem Kontinent

Möglicherweise werden die Daten dort jedoch sicherer aufgehoben als im eigenen Rechenzentrum – und vielleicht auch schneller verfügbar. Google will erreichen, dass die Daten in weniger als einer Sekunde abrufbar sind und aus Gründen der Ausfallsicherheit auf mindestens zwei Festplatten in Europa, zwei Festplatten in den USA und einer Festplatte in Asien gespeichert sind.

Für das Management dieser riesigen Datenmengen hat Google eine effiziente Server-Infrastruktur erstellt: 40 bis 80 Linux-Server werden in einem "Rack" zusammengefasst. Mindestens 30 Racks werden wiederum zu einem "Cluster" gebündelt. Die aktuellsten Daten über Googles Kapazitäten stammen aus einem Vortrag von Google-Forscher Jeff Dean 2009, der von über 200 Clustern ausging, also etwa einer halben Million Server. Jedes Cluster konnte damals 4,8 Petabyte (etwa 4,8 Millionen Gigabyte) Daten speichern und hatte 30 Terabyte (etwa 30.000 Gigabyte) Arbeitsspeicher, jeder einzelne Server wartete mit 2 Terabyte Speicherplatz und 16 Gigabyte Arbeitsspeicher auf.

Die Datenkapazitäten können jedoch nicht beliebig gesteigert werden. Das Problem ist: Die Geschwindigkeit der Daten sinkt mit zunehmender Speicherkapazität. Bewegen sie sich auf der Festplatte eines Servers noch mit 200 Megabyte pro Sekunde, werden sie in einem Cluster auf die Geschwindigkeit von 10 Megabyte pro Sekunde abgebremst. Dem Ausbau der Cluster sind insofern gewissen Grenzen gesetzt.

Sensible Daten besser auf dem eigenem Rechner speichern

Cloud-Dienste werben vor allem mit Ausfallsicherheit, doch immer wieder hapert es, wie eben jüngst bei Google. Das Unternehmen hatte mitgeteilt, dass alle Daten bis Dienstagabend wiederhergestellt werden sollten. Jeff Dean stellt zum Thema Ausfallsicherheit einfach fest: "Das Zeug wird abstürzen. Damit muss man einfach umgehen." Im Schnitt versagen jährlich zwischen 1 und 5 Prozent der Festplatten, die Absturzrate der Server liegt zwischen 2 und 4 Prozent. Die Gründe sind vielfältig: Überhitzung, den Umzug eines Racks, die Neuverkabelung des Netzwerks, Router-Fehler, individuellen Maschinenfehler und so weiter.

Die Lösung sieht Jeff Dean darin, in extrem zuverlässige Server zu investieren – und eine fehlertolerante Software zur Datenverwaltung zu entwickeln, die mit typischen Fehlermustern umgehen kann.

Mittelfristig will Google mit Hilfe des neuen Speicher- und Rechensystems "Spanner" seine Kapazitäten auf 1 bis 10 Mio. Server ausbauen, die in hunderten, wenn nicht gar tausenden Standorten weltweit verteilt sind. Bis zu 1 Exabyte bzw. 1 Milliarde Gigabyte Daten sollen dort liegen, wo sie dem Nutzer am nächsten sind. Bei Hardware- oder Geschwindigkeitsproblemen sollen die Daten automatisch zwischen den Rechenzentren hin- und hergeschoben werden.

Ägypten erlebte die Kehrseite der Cloud

Obwohl Cloud-Anbieter wie Google also alles mögliche tun, um eine Ausfallsicherheit zu gewährleisten und die Daten sicher aufzubewahren, sollten Nutzer sich genau überlegen, welche Daten sie "nach außen" geben. Als allgemein anerkannte Faustregel gilt daher: Sensible Daten sollten auf dem eigenen Rechner bleiben, auch wenn die Cloud noch so bequem ist.

Die erste Voraussetzung ist jedoch ein stabiler, sicherer Zugang zum Internet. Wie wichtig der ist, erfuhren erst kürzlich Internetnutzer in Ägypten, als das ägyptische Netz vom Internet abgetrennt wurde. Eigentlich hätte in Ägypten zumindest noch der nationale Internetverkehr funktionieren müssen. Da jedoch viele Nutzer E-Mail-Systeme verwenden, die von ausländischen Unternehmen wie Microsoft, Google und Yahoo gehostet werden oder Internetdienste wie Twitter und Facebook, die ebenfalls in den USA beheimatet sind, erlebte die Kommunikation einen schweren Einbruch.

Der Download wichtiger Software-Werkzeuge wie der IRC-Chatsoftware war nicht mehr möglich, da diese auf ausländischen Servern gehostet wird. Satelliten-Verbindungen gewährten vereinzelt jedoch Zugriff auf das internationale Netz. Der Fall "Ägypten" führte damit nicht nur die Internetabhängigkeit einer Volkswirtschaft, sondern aller Cloud-Nutzer deutlich vor.


Christiane Schulzki-Haddouti ist freie Journalistin in Bonn und Expertin für Netzpolitik.