political-prisoners.net

  • Full Screen
  • Wide Screen
  • Narrow Screen
  • Increase font size
  • Default font size
  • Decrease font size

Beitrag ausdrucken

Im Zeitalter der Metadaten

von Matthias Monroy / http://www.jungewelt.de 24.10.13

analysts-notebookHintergrund. Ein gigantisches Rechenzentrum des Geheimdienstes NSA soll die »Informationsdominanz« der USA im Cyberspace sichern. Deren Architekt Keith Alexander tritt bald zurück

»Festung der Cyberspione«, »Monsterrechenzentrum«, »Tempel des Datengotts« sind die Vokabeln, mit denen Journalisten versuchen, das digitale Monstrum in der Wüste des US-Bundesstaats Utah in Worte zu fassen: Mitten im Geröll, unter sengender Hitze hat die Regierung das größte weltweit bekannte Rechenzentrum errichtet. Das Gebäude trägt den sperrigen Namen »Intelligence Community Comprehensive National Cybersecurity Initiative Data Center«, zu deutsch etwa »Übergreifendes Geheimdienstzentrum für die nationale Cybersicherheit«. Der Name ist Programm.


»Für uns war Bluffdale schon immer das Zentrum der Welt«, freut sich der Bürgermeister der Kleinstadt, die gerade einmal 8000 Einwohner zählt. Bald wird Bluffdale für den weltweiten Datenverkehr zu einem wichtigen Drehpunkt – unfreiwillig allerdings: Die National Security Agency (NSA), als Auslandsgeheimdienst zuständig für die Überwachung und Analyse elektronischer Kommunikation, braucht die Anlage für ihre uferlosen Abhörprogramme. Sie gilt als zukünftige »Cloud«, als Datenwolke des Militärs. Gemeint ist die Möglichkeit eines gigantischen zentralen Speichers, auf den aus der Ferne zugegriffen werden kann. Verarbeitet werden Informationen von Spionagesatelliten, abgehörten Überseekabeln oder jene Daten, die Anbieter von Internetdiensten freiwillig oder unfreiwillig über ihre Nutzer herausgeben.

» Wir sagen ihnen nicht alles«

Nach unterschiedlichen Angaben ist die Anlage bis zu 150000 Quadratmeter groß. Nach einem gern bemühten Vergleich entspricht das 20 Fußballfeldern, die Berliner O2-Arena hätte dort mit all ihren Räumen zweimal Platz. Die erwarteten Stromkosten sind immens, die Rede ist von 40 Millionen US-Dollar pro Jahr, die für die 65 Megawatt – was in etwa dem Verbrauch von 20000 deutschen Durchschnittshaushalten entspricht – zu Buche schlagen. Zudem werden jede Minute 4500 Liter Kühlwasser für Server und Computer benötigt.

Schadenfroh registrierte die Internetgemeinde kürzlich Meldungen, wonach beim langsamen Hochfahren des Datenzentrums seit Monaten zahlreiche elektrische Störungen aufgetreten sind. Das Wall Street Journal berichtete, daß durch Überspannungen in der Stromversorgung mehrfach Geräte zerstört wurden, es kam zu Explosionen und dem Schmelzen von Metall. Eigentlich sollte der Datenstaubsauger diesen Monat online gehen. Durch die Pannen muß das den Medienberichten zufolge jedoch um ein Jahr verschoben werden. Teile der Anlage dürften aber dennoch schrittweise in Betrieb genommen werden.

Was die rund zwei Milliarden Dollar teure Rechenfabrik leisten soll, hatte das US-Verteidigungsministerium schon 2007 verkündet: die Verarbeitung von Datenmengen im Yottabyte-Bereich. Für den gewöhnlichen Internetnutzer sind dies schier unvorstellbare Dimensionen. Ein Beispiel: 2015 soll der globale Internetverkehr 1000 Exabyte betragen, was eine Billion Gigabyte bzw. einem Zettabyte entspräche. Das neue Datenzentrum ist für die tausendfache Menge ausgelegt.

Angeblich will der Auslandsgeheimdienst in Bluffdale keine Kopien aller abgefangenen Daten anlegen. Die vom früheren NSA-Mitarbeiter Edward Snowden veröffentlichten Dokumente widerlegen dies aber. Daraus geht hervor, daß entsprechende Kriterien erstellt wurden. Demnach wird innerhalb der USA Mitgeschnittenes verworfen, da dies nicht zum offiziellen Aufgabengebiet der NSA gehört. Alle andere abgehörte Kommunikation soll innerhalb von 30 Tagen mittels computergestützter Prozesse auf Interessantes untersucht werden. Niemals vernichtet werden beispielsweise Kopien verschlüsselter E-Mails, die Geheimdienstlern immer noch Kopfzerbrechen bereiten. Sie können – im Gegensatz zu verschlüsselten Verbindungen der Browser – nach derzeitigem Stand der Technik nicht geknackt werden. Dies ist jedenfalls die Einschätzung des Erfinders des Systems »Pretty Good Privacy« (PGP), zu deutsch etwa »Prima Privatsphäre«. Ist das Paßwort lang genug, können so verschlüsselte Inhalte sicher zwischen Sendern und Empfängern transportiert werden. Damit ist PGP das letzte Hindernis für eine Internettotalüberwachung durch die NSA, denn es gibt eigentlich nichts, was der Dienst ansonsten nicht kann.

Permanente Rasterfahndung

Die NSA gilt als einer der Pioniere bei der Entwicklung von Analysesystemen, die alle Arten elektronischer Kommunikation mit Hilfe von Computern durchforsten und auswerten. »Wir sagen ihnen nicht alles, was wir machen oder wie wir es machen«, meckerte der NSA-Direktor Keith Alexander nach unbequemen Nachfragen von Journalisten, »aber jetzt wissen sie es eben.« Mit letzterem meinte er die Snowden-Dokumente. Die Liste der dadurch bekanntgewordenen Überwachungsprogramme wird immer länger: »PRISM«, »Boundless Informant«, »Tempora«, »XkeyScore« und »Bullrun« sind Plattformen, die Informationen zusammenführen und computergestützt analysieren.

Neben der automatisierten Suche in textbasierter digitaler Kommunikation nutzen Geheimdienste Software, um auch Bilder oder Faxe lesbar und damit der weiteren Analyse zugänglich zu machen. Gesprochene Kommunikation kann ebenfalls derart bearbeitet werden: Zur Jahrtausendwende war ein regelrechter Wettkampf zwischen europäischen und US-Geheimdiensten um die Marktführerschaft zur digitalen Spracherkennung entbrannt, den der damals ebenfalls aktive deutsche Bundesnachrichtendienst verlor. Ein Wissenschaftler aus Freiburg gilt als Pionier für Spracherkennungstechnologie und hat nach Medienberichten in den USA an entsprechenden Projekten geforscht. Die Ergebnisse wanderten demnach über die US-Behörde für Geheimdienstforschung auch an die NSA.

Die Technik zur Verarbeitung großer Datenmengen wird in Fachkreisen als »Data Mining« (Datenbergbau) bezeichnet. In vielen Unternehmen werden auf diese Weise Prozesse gesteuert, Probleme aufgespürt oder auch Risiken in Betriebsabläufen prognostiziert. Versucht wird, alle vorhandenen Datensätze miteinander abzugleichen und dadurch bislang unbeachtete Informationen zu finden. Für derart durchgeackerte Datenhalden hat sich der Begriff »Big Data« etabliert.

Auch Polizeien und Geheimdienste machen sich dieses Prinzip zunutze. Es geht dabei allerdings nicht nur um die Ausforschung des Inhalts der Kommunikation. Viel wichtiger sind heutzutage die sogenannten Metadaten, also die Spuren der digitalen Verkehre: Sie verraten, wann und wo eine Mail verschickt wurde, von welchem Gerät eine Webseite aufgerufen wurde oder wer zu den Freunden bei Facebook gehört. Browser übermitteln beim Surfen weitere benutzerspezifische Einstellungen, darunter die voreingestellte Sprache oder vorher besuchte Webseiten. Diese Informationen können ohne großen Aufwand ausgelesen werden, es braucht nicht einmal einen richterlichen Beschluß. Kommen Daten aus weiteren Abhörmaßnahmen hinzu, entsteht ein präzises Abbild des Lebens der Überwachten.

Derart ermittelte Personenprofile übertreffen aus informationstheoretischer Perspektive sogar die Aussagekraft von konventionellen Abhörmaßnahmen: Es ist also gar nicht mehr notwendig, den Inhalt des Internetverkehrs mitzulesen. Bereits das Wann, Wie, Von wo und Mit wem ist von hohem Wert für Polizei und Dienste. Werden diese Daten in Echtzeit verarbeitet, können Betroffene auf nie dagewesene Art und Weise ausgeforscht werden. So können sogenannte »Kreuztreffer« gesucht werden, also auffällige Übereinstimmungen, die dann genauer analysiert werden. Um das zu verstehen hilft ein Blick auf Suchmaschinen, die wir täglich im Internet benutzen: Je mehr Suchbegriffe eingegeben werden, desto zielsicherer schlägt die Software Ergebnisse vor. Werden Daten mehrerer Nutzer auf diese Weise miteinander in Beziehung gesetzt und Verbindungen gesucht, können persönliche soziale Netzwerke von hohem Informationsgehalt sichtbar gemacht werden. Diese permanente Rasterfahndung, die im Hintergrund abläuft und mit geringer Verzögerung Ergebnisse ausspuckt, dürfte einer der Zwecke des neuen Zentrums in Utah sein.

So wird plausibel, wozu die NSA auch Adreßbücher der Nutzer von Webmaildiensten einsammelt: Nach einem am 15. Oktober 2013 veröffentlichten Bericht der Washington Post dringen die Schnüffler in Portale der Anbieter Facebook, Gmail, Hotmail oder Yahoo ein und kopieren vorgefundene Kontakte, die dort von Inhabern der Adressen angelegt wurden. Für die Behörden sind sie eine Goldgrube auf der Suche nach Metadaten: Sie lassen simple Rückschlüsse auf bekannte oder befreundete Personen zu und können mit weiteren Daten kombiniert werden. Der Umfang der Spähmaßnahme schockiert: Jährlich werden auf diese Weise rund 250 Millionen Adressen abgegriffen.

Der wachsende Heuhaufen

Der Direktor der NSA behauptet, »Terroristen« hätten ihre Art der Kommunikation umgestellt und meint, »dafür haben wir Beweise«. Wahrscheinlich meint er das Ansinnen, Kommunikation so zu gestalten, daß ein Mitlesen oder -hören durch Behörden erschwert wird. Vielmehr ist in den letzten Jahren ein Paradigmenwechsel in der Polizeiarbeit ebenso wie in der geheimdienstlichen Spionage zu sehen: Nach ersten Enthüllungen von geheimen Dokumenten über die Datensammelwut des US-Auslandsgeheimdienstes erklärte der NSA-Chef Keith Alexander gegenüber Journalisten, »Du brauchst den Heuhaufen, wenn du die Nadel darin finden willst«.

Unter Programmierern kursiert die Metapher schon seit Jahren: Der Berg an Daten, auf die zugegriffen wird, wird stetig vergrößert, obwohl es angeblich nur darum gehen soll, eine einzige Nadel zu finden. Ähnlich hatte es vor fünf Jahren die »Zukunftsgruppe« formuliert, die unter Führung des damaligen deutschen Innenministers Wolfgang Schäuble Perspektiven für die EU-Innenpolitik entwarf. Dort war die Rede von einem »digitalen Tsunami«. Die in dem Gremium vereinten Innenminister von neun EU-Staaten hatten dabei allerdings keine Katastrophe vor Augen, sondern begeisterten sich an den »gewaltigen Informationsmengen, die für öffentliche Sicherheitsorganisationen nützlich sein können«.

Zu den digitalen Heuhaufen gehören vor allem Datenbanken, die von Zoll- oder Polizeibehörden geführt werden und aus denen sich Geheimdienste ohne richterliche Genehmigung bedienen dürfen. Sie enthalten Millionen Informationen zu Personen, Objekten oder Vorgängen. Eine dieser Sammlungen ist das sogenannte Passagierdatenregister zu Flugreisenden, das von der NSA ebenfalls ausgewertet wird: Airlines übermitteln vor jedem Flug in die USA Angaben zu den Passagieren, darunter zum genutzten Reisebüro, zu Mitreisenden, zur Essensvorliebe oder den bei Zwischenstopps gebuchten Hotelzimmern. So kann das gewünschte Essen Rückschlüsse auf die Religion zulassen. Oder es wird festgehalten, wer mit wem reist oder wer gar das Hotelzimmer teilt. Die Behörden können überdies auf Wohn- und E-Mail-Adresse, Kreditkartennummer und Rechnungsanschrift der Passagiere zugreifen.

Neben solchen Informationen und denen aus digitaler Telekommunikation gehören auch die von Finanztransaktionen zu den drei wichtigsten Vorratsdatensammlungen. Bei der letztgenannten Gruppe geht es etwa um die Höhe von Überweisungen, Sender und Empfänger der Gelder, genutzte Kreditinstitute oder um die angegebenen Verwendungszwecke. Begründet wurde die Ausschnüffelung dieser Daten mit der Notwendigkeit, die »Terrorismusfinanzierung« aufzudecken. Es sollen verdächtige internationale Transaktionen festgestellt oder der Aufenthaltsort von Personen dokumentiert werden, etwa wenn diese einen Geldautomaten aufsuchen. Weiter kann kontrolliert werden, ob die Betroffenen Geschäftsbeziehungen mit Personen unterhalten, die bereits an anderer Stelle auffällig wurden. Längst wird diese Methode im Bereich allgemeiner Kriminalität eingesetzt: In Italien gleichen Finanzbehörden damit Steuererklärungen ab, in den Niederlanden und in Dänemark werden auch Migranten damit ausgeforscht.

Mit Analysesoftware versuchen Geheimdienste darüber hinaus, aus offenen Quellen des Internets Prognosen für Sicherheitsrisiken zu erstellen. Der Informationsdienst Twitter wird beispielsweise dahingehend ausgewertet, ob Kurzmitteilungen eher auf ein zurückliegendes oder ein zukünftiges Ereignis verweisen. Die Häufigkeit von Erwähnungen der Tweets läßt Rückschlüsse auf das Interesse oder die Beteiligung der Bevölkerung zu. Computer gleichen die Twitter-Informationen mit Datenbanken früherer Aufstände oder Proteste ab und entwerfen Szenarien über den Verlauf. Die NATO hat auf diese Weise den Krieg in Libyen flankierend aufgeklärt.

Von Interesse sind natürlich auch Daten der klassischen »signalgestützten Aufklärung« (englisch: »Signals Intelligence«, SIGINT; siehe jW-Thema vom 7. und 8.8.2013), gewissermaßen das Kerngeschäft moderner Geheimdienste. Hierzu gehört die Fernmeldeaufklärung zum Abhören von Funksignalen ebenso wie die elektronische Aufklärung, um Abstrahlungen elektronischer Geräte zu erfassen. Der US-Geheimdienst NSA verarbeitet solche Informationen nach Medienberichten ebenfalls im neuen Rechenzentrum in Utah. In Deutschland wurde zuletzt im Sommer offenkundig, welchen Umfang SIGINT-Daten haben: Die Riesendrohne »Euro Hawk« der Bundeswehr war dafür gedacht, entsprechende Abhörtechnik zu befördern und hat diese auch bei Testflügen eingesetzt. Daraus gewonnene Datenmengen sind aber so gigantisch, daß diese nicht mehr über Satellit zum Boden gefunkt werden können. Weil die Übertragungskapazitäten zu gering sind, müssen sie in der Drohne vorgefiltert werden. Aufgefangen werden selbst Signale von Mikrowellengeräten im Haushalt oder von startenden Fahrzeugen, was für das Militär nicht immer von Interesse ist.

Deutlich wird der Versuch einer Totalerfassung aller Vorgänge, die sich digital aufzeichnen lassen. Solche Szenarien sind ansonsten eher Stoff für Romane und Filme des Science-Fiction-Genres, von denen der NSA-Chef wohl ebenfalls zu viele gelesen bzw. gesehen hat. Keith Alexander hat seinen derzeitigen Arbeitsplatz der Kommandobrücke aus der Fernsehserie »Star Trek« nachempfunden. Er nennt es »Zentrum für Informationsdominanz«, entworfen hat es ein für Hollywood arbeitender Bühnenbauer. Riesige Monitore, verchromte Armaturen und eine Tür, die mit einem leisen Surren öffnet und schließt, erwecken den Eindruck, in einem Raumschiff zu sein. Die Mitte bildet eine Art Thron, von dem aus die Geräte im Raum bedient werden können. Nur manchmal erlaubt der Hausherr hochrangigen Besuchern, auf diesem Stuhl Platz zu nehmen.

Kooperation mit BRD-Behörden

Andere Medien beschreiben Alexander als » Cowboy« mit einem Hang zur Mentalität des »Ich sammle alles«. Schon zu Beginn seiner Karriere diente er bei der militärischen Aufklärung. Er wurde nach einem Bericht des Magazins Wired von der NSA in den 1970er Jahren in Deutschland stationiert, um dort das »dunkle Handwerk« der technischen Nachrichtenaufklärung zu lernen. Auf welchen Basen er Dienst tat, läßt sich nicht rekonstruieren. Zu Zeiten des Kalten Krieges unterhielten die USA jedoch mehrere Abhörstationen, die später zusammen mit denen der Geheimdienste befreundeter Staaten im »Echelon«-Netzwerk zusammengefaßt wurden. »Echelon« gilt als Vorgänger der jetzigen Rundumspionage der NSA.

Im Oktober 2009 hatte US-Präsident Barack Obama den NSA-Chef auch für die Führung des damals eingerichteten »United States Cyber Command« nominiert und in den Rang eines Vier-Sterne-Generals erhoben. Alexander ist seitdem nicht mehr nur für die passive Reaktion auf Bedrohungen zuständig: Innerhalb des neuen Kommandos baut die U.S. Army 13 Einheiten aus mehreren Tausend Cyberkriegern auf, die dann »offensiv« tätig werden können. 2010 wurde bekannt, daß auch das Hauptquartier der NSA mit umfangreichen Kapazitäten erweitert wird: Der Geheimdienst baut an seinem Sitz in Fort Meade den Komplex »Site M«, der wohl dem zukünftigen Krieg der neuen Cybersoldaten dient. Der Bau übersteigt demnach Dimensionen und Kosten der ebenfalls neuen Anlage in Utah um das Doppelte.

Entsprechende Fähigkeiten zu digitalem Angriff und Verteidigung werden unter anderem auf großen Manövern trainiert, in denen zivile und militärische Behörden Störungen des Internets simulieren. Die Regierungen von Frankreich, Deutschland, Italien, Großbritannien und anderen EU-Staaten hatten mehrmals bei den regelmäßig stattfindenden US-Übungen »Cyber Storm« mitgemacht. Die Manöver wurden vom US-Ministerium für Heimatschutz geleitet. Außer 60 Firmen aus der Privatwirtschaft nahm aber auch das Verteidigungsministerium mit all seinen Abteilungen zur »Cybersicherheit« teil. Die Bundesregierung beschwichtigte, ausschließlich zivile Behörden zu den »Cyber Storm«-Übungen entsandt zu haben. Dort hätten sie lediglich an »Strängen« teilgenommen, bei denen kein Militär präsent war.

Noch gibt es einiges zur Zusammenarbeit der NSA mit deutschen Geheimdiensten aufzuklären. Während die Bundesregierung beispielsweise behauptete, es seien nur ganz wenige Daten an US-Geheimdienste weitergegeben worden, meldeten Zeitungen, daß die Zahl in die Tausende ginge. Einige Informationen hätten sogar geholfen, den genauen Standort von Personen mit deutscher Staatsangehörigkeit in Pakistan zu bestimmen, die daraufhin durch eine Drohne getötet worden seien. NSA-Chef Alexander hatte den Datentausch nach den Snowden-Enthüllungen schöngeredet und erklärt, die weltweite Schnüffelei seiner Behörde habe über 50 Anschlagspläne in Europa aufgedeckt, darunter in Deutschland, Frankreich und Dänemark. Belastbar ist diese Zahl nicht, der deutsche Innenminister mußte auf mehrmalige Nachfrage zugeben, daß in der Bundesrepublik zur Aufklärung der vermeintlichen Anschläge vielmehr eigene Erkenntnisse beigetragen hatten.

Vielfach wurde Edward Snowden, der sogenannte Whistle­blower, der die NSA mit seinen Veröffentlichungen von internen Kenntnissen arg in Bedrängnis bringt, als Gegenspieler von Keith Alexander beschrieben. Der NSA-Chef erklärte, Snowden habe die USA in Gefahr gebracht: »Nicht er ist ein Held, sondern meine Leute«. Durch die Enthüllungen sei die Arbeit seiner rund 40000 Mitarbeiter stark erschwert worden. Bald sieht sich Snowden einem neuen Gegner gegenüber: Wie bereits früher angekündigt, will Alexander im nächsten Jahr nach Fertigstellung des Megarechenzentrums in Utah von seinem Chefposten zurücktreten. Als sein Nachfolger gilt derzeit der Vizeadmiral der US-Marine, Michael Rogers. Manche Kommentatoren sehen darin eine gute Gelegenheit für den US-Präsidenten, die auch in Deutschland in die Kritik geratene NSA neu aufzustellen. Aber daß sich der Geheimdienst zukünftig besser kontrollieren oder sogar maßregeln ließe, kann getrost bezweifelt werden.

You are here: Im Zeitalter der Metadaten