NSA: So funktioniert die Mega-Abhörmaschine

E-GovernmentManagementRechtRegulierung

Die US-Sicherheitsbehörde NSA soll wesentlich intensiver mit dem Bundesnachrichtendienst (BND) zusammengearbeitet haben als bislang angenommen. So berichtet der Spiegel, dass “die NSA dem BND die Analyse-Tools für deren Lauschangriffe auf ausländische Datenströme geliefert habe”. Welche Art von Tools die NSA dabei zur Verfügung gestellt habe, geht zwar nicht aus dem Bericht hervor, doch inzwischen ist klar wie und womit die NSA ihre eigenen Schnüffelaktionen durchführt.

Das Hauptqartier der NSA in Fort Meade Maryland. Quelle: NSA
Das Hauptqartier der NSA in Fort Meade Maryland. Quelle: NSA

Von außen betrachtet ist deren Prism-Software ein umfangreiches Grafisches-User-Interface (GUI), mit dem die Analysten der NSA komplexe Abfragen und Korrelationen ausführen können. Diese laufen auf eigenen Servern ab, das heißt, die Abfragen können nur auf solche Daten angewendet werden, die zuvor in den eigenen Servern abgelegt wurden. Folglich, können die Anfragen auch ins Leere gehen.

In so einem Fall generiert das System automatisch eine Datenanforderung an alle am Prism-Programm beteiligten Unternehmen. Diese Datenanforderungen werden automatisch generiert und berufen sich rechtlich auf sehr vage formulierte weitreichende Allgemein-Anforderungen durch den General-Staatsanwalt. Die Anforderungsflut ist hoch. Jeweils 200 solcher Anforderungen gehen pro Woche bei jedem der große Provider ein, und jede Anfrage bezieht sich auf rund 400 bis 1000 User-Konten.

Bei derart immensen Datenanforderungen haben mehrere Daten-Provider das Verfahren vereinfacht und eine elektronische Zwischenablage geschaffen, in der die NSA ihre Datenwünsche ablegt und wo sie dann später die entsprechenden Daten abholen können. Einem Bericht der New York Times zufolge soll unter anderen Facebook einen solchen Datenaustausch ermöglichen. Anders ist es dagegen bei Google. Laut deren Sprecher Chris Gaither stellt Google seine Daten per sicheren FTP-Transfer der NSA zur Verfügung.

Alle gesammelten Daten werden bei der NSA in einem Mega-Rechenzentrum gespeichert, das seit geraumer Zeit zu klein geworden ist. Deshalb wird in Bluffdale, im US-Staat Utah, für 1,7 Milliarden Dollar ein neues Rechenzentrum gebaut, das im Herbst in Betrieb gehen soll. Das neue Rechenzentrum soll dann als interne Cloud sowohl die eigenen Analysten am Hauptsitz in Maryland, als auch die anderen Agenturen, wie FBI und CIA bedienen. James Bamford, Autor vieler Bücher über die NSA, glaubt, dass das neue Rechenzentrum einen Anschlusswert von 65 MW haben wird und dass es ein Yottabyte an Daten aufnehmen kann. (Ein Yotta ist eine Eins mit 24 Nullen.)

accumulo

Ein echtes Big-Data-Problem also, das mit eigens entwickelten Werkzeugen angegangen wird. Hauptkomponente ist die Open-Source Software Accumulo, deren Entwicklung 2008 bei der NASA begann und die 2011 der Open-Source-Gemeinde überstellt wurde.

Accumulo basiert auf Googles BigTable-Design und ist eine NoSQL Datenbank, die auf einer seriellen Schlüssel/Wert-Struktur aufsetzt. Hierzu nutzt Accumulo die Apache-Pakete ZooKeeper, Thrift und das Hadoop Distributed File System (HDFS). Accumulo hat eine sogenannte “schemalose Datenbank-Struktur” und kann Daten in unterschiedlichen Formaten aufnehmen. Mit zusätzlichen Realtime-Analytics, kann Accumulo dann Reports über bestimmte Korrelations-Muster in nahezu Realtime generieren.

Einer der Schwerpunkte bei der Accumulo-Entwicklung war der Sicherheitsaspekt – vor allem die hierarchischen Zugriffsrechte der Anwender auf die einzelnen Datenbestände. Doch trotz aller technischer Raffinessen bei der Zugriffsverwaltung weist das System erhebliche Lücken auf. Das zeigte sich unter anderem an der Art, wie Snowden die streng geheimen PowerPoint-Folien entwenden konnte: Er kopierte sie einfach auf ein externes USB-Laufwerk.