NSA: So funktioniert die Mega-Abhörmaschine

Das Hauptqartier der NSA in Fort Meade Maryland. Quelle: NSA

Von außen betrachtet ist deren Prism-Software ein umfangreiches Grafisches-User-Interface (GUI), mit dem die Analysten der NSA komplexe Abfragen und Korrelationen ausführen können. Diese laufen auf eigenen Servern ab, das heißt, die Abfragen können nur auf solche Daten angewendet werden, die zuvor in den eigenen Servern abgelegt wurden. Folglich, können die Anfragen auch ins Leere gehen.

In so einem Fall generiert das System automatisch eine Datenanforderung an alle am Prism-Programm beteiligten Unternehmen. Diese Datenanforderungen werden automatisch generiert und berufen sich rechtlich auf sehr vage formulierte weitreichende Allgemein-Anforderungen durch den General-Staatsanwalt. Die Anforderungsflut ist hoch. Jeweils 200 solcher Anforderungen gehen pro Woche bei jedem der große Provider ein, und jede Anfrage bezieht sich auf rund 400 bis 1000 User-Konten.

Bei derart immensen Datenanforderungen haben mehrere Daten-Provider das Verfahren vereinfacht und eine elektronische Zwischenablage geschaffen, in der die NSA ihre Datenwünsche ablegt und wo sie dann später die entsprechenden Daten abholen können. Einem Bericht der New York Times zufolge soll unter anderen Facebook einen solchen Datenaustausch ermöglichen. Anders ist es dagegen bei Google. Laut deren Sprecher Chris Gaither stellt Google seine Daten per sicheren FTP-Transfer der NSA zur Verfügung.

Alle gesammelten Daten werden bei der NSA in einem Mega-Rechenzentrum gespeichert, das seit geraumer Zeit zu klein geworden ist. Deshalb wird in Bluffdale, im US-Staat Utah, für 1,7 Milliarden Dollar ein neues Rechenzentrum gebaut, das im Herbst in Betrieb gehen soll. Das neue Rechenzentrum soll dann als interne Cloud sowohl die eigenen Analysten am Hauptsitz in Maryland, als auch die anderen Agenturen, wie FBI und CIA bedienen. James Bamford, Autor vieler Bücher über die NSA, glaubt, dass das neue Rechenzentrum einen Anschlusswert von 65 MW haben wird und dass es ein Yottabyte an Daten aufnehmen kann. (Ein Yotta ist eine Eins mit 24 Nullen.)

Ein echtes Big-Data-Problem also, das mit eigens entwickelten Werkzeugen angegangen wird. Hauptkomponente ist die Open-Source Software Accumulo, deren Entwicklung 2008 bei der NASA begann und die 2011 der Open-Source-Gemeinde überstellt wurde.

Accumulo basiert auf Googles BigTable-Design und ist eine NoSQL Datenbank, die auf einer seriellen Schlüssel/Wert-Struktur aufsetzt. Hierzu nutzt Accumulo die Apache-Pakete ZooKeeper, Thrift und das Hadoop Distributed File System (HDFS). Accumulo hat eine sogenannte “schemalose Datenbank-Struktur” und kann Daten in unterschiedlichen Formaten aufnehmen. Mit zusätzlichen Realtime-Analytics, kann Accumulo dann Reports über bestimmte Korrelations-Muster in nahezu Realtime generieren.

Einer der Schwerpunkte bei der Accumulo-Entwicklung war der Sicherheitsaspekt – vor allem die hierarchischen Zugriffsrechte der Anwender auf die einzelnen Datenbestände. Doch trotz aller technischer Raffinessen bei der Zugriffsverwaltung weist das System erhebliche Lücken auf. Das zeigte sich unter anderem an der Art, wie Snowden die streng geheimen PowerPoint-Folien entwenden konnte: Er kopierte sie einfach auf ein externes USB-Laufwerk.

Martin Schindler

Martin Schindler schreibt nicht nur über die SAPs und IBMs dieser Welt, sondern hat auch eine Schwäche für ungewöhnliche und unterhaltsame Themen aus der Welt der IT.

View Comments

  • Ein höchst interessanter, informativer Artikel.

    Leider geht er nicht auf die Informationsquellen ein, die ebendiese Dienste auf "passivem" Weg erschließen - also durch mitlesen/mithören/sniffen von Datenverkehren, insbesondere jenen, die man als "verschlüsselt" versteht, weil ja per SSL/TLS gesichert (also zB WebMail, Email, VoIP uva.). Die aktiv ermittelten (also von den Anbietern angeforderten) Daten sind ja nur die kleine Spitze eines großen Eisberges, deren Volumen nur die Dienste wohl nur unwahrscheinlich in jene Bedrängnis bringen würden, wie es hier praktisch beschrieben wird. Und das man passives Lauschen betreibe, streiten ja inzwischen nicht mal mehr die Dienste ab.

    So hinterlassen deutsche Journalisten aber den Eindruck, das die Kommunikation vor derart Zugriffen sicher sei, wenn man nur der "richtigen" Anbieter wähle bzw. darüberhinaus noch nett auf das SSL "Schloß" am Browser achte. Das aber wäre vom Regen in die Traufe...

Recent Posts

We siegt im Kampf um IT-Talente: Tech-Riesen oder kleinere IT-Unternehmen?

Freiraum und persönliche Arbeitsatmosphäre sind ausschlaggebend für Jobwechsel hin zu kleineren Unternehmen.

10 Stunden ago

Hybride Cloud-Lösungen: IT-Dienstleister wittern Morgenluft

Wachsende Automatisierungsmöglichkeiten und der Rückgriff auf Colocation-Provider geben Managed-Services- und Managed-Hosting-Anbietern neue Marktchancen.

12 Stunden ago

5G Campusnetz für TIP Innovationspark Nordheide

5G eröffnet Unternehmen und Forschungspartnern breites Spektrum verschiedener Anwendungen.

12 Stunden ago

Amazon kauft iRobot für 1,7 Milliarden Dollar

Der Hersteller von Saugrobotern verstärkt Amazons Smart-Home-Sparte. iRobot-CEO Cling Angle behält seinen Posten.

17 Stunden ago

Digital Employee Experience: So wird das „neue Normal“ nicht zur „neuen Qual“

Mitarbeitende haben hohe Erwartungen an hybrides Arbeiten. Welche Strategie für Zufriedenheit sorgt, erläutert Christoph Harvey,…

1 Tag ago

CISA und ASCS veröffentlichen die wichtigsten Malware-Varianten in 2021

Zu den wichtigsten Malware-Stämmen zählen Remote-Access-Trojaner (RATs), Banking-Trojaner, Info Stealer und Ransomware.

1 Tag ago