Mehr ‘Schwarze Löcher’ im Internet als bisher angenommen

Immer wieder verschwinden digitale Informationen auf dem Weg durch das Netz. Dabei scheint es immer wieder Fälle zu geben, die ähnlich geheimnisvoll sind, wie die verschwundenen Socken aus der Waschmaschine. Wenn E-Mails ihren Empfänger nicht erreichen oder eine aufgerufene Webseite nicht lädt, wird die Schuld dafür zumeist in Netzwerk- und Serverproblemen gesucht.

Einer aktuellen Untersuchung von Forschern der Universität Washington Universität Washington in Seattle zufolge sind die Gründe für das Verschwinden digitaler Informationen im Netz aber weitaus mysteriöser. Sie vermuten “schwarze Löcher der Information” im Internet. Diese entstehen dann, wenn zwar eine Verbindung zwischen zwei Computern besteht, aber trotzdem Daten auf dem Weg von einem Rechner zum anderen verloren gehen. Um diese Schwachstellen des weltweiten Webs ausfindig zu machen und aufzuzeigen, hat das Forscherteam ein spezielles Kontrollsystem namens Hubble entwickelt, das die Wege von verschwundenen Mails und fehlgeschlagenen Seitenanfragen nachvollziehbar macht.

Laut Angaben der Forscher konnte auf diese Weise nachgewiesen werden, dass während einer dreiwöchigen Testphase im September 2007 rund sieben Prozent der Computer weltweit mindestens einmal von einer solchen Störung betroffen gewesen sind. Insgesamt ortete das System seitdem knapp 900.000 solcher schwarzen Löcher im Internet.

“Es ist eine weit verbreitete Annahme, dass man durch eine funktionierende Internetverbindung Zugang zum gesamten Web hat”, erklärt Ethan Katz-Bassett, Doktoratstudent im Fachbereich Computerwissenschaft und erster Autor der Studie. “Unser Projekt zeigt, dass das nicht der Fall ist”, stellt Katz-Bassett fest. Über das tatsächlich gefundene Ausmaß der Störungsanfälligkeit des World Wide Web sei der Forscher aber selbst erstaunt gewesen. “Als wir mit dem aktuellen Projekt gestartet sind, haben wir bestimmt nicht damit gerechnet, derartig viele Probleme vorzufinden. Die Ergebnisse der Untersuchung waren auch für uns eine Überraschung”, meint Katz-Bassett.

Endgültige Ergebnisse ihrer von der National Science Foundation geförderten Studie werde das Forscherteam auf dem ” Usenix Symposium for Networked Design and Implementation” in San Francisco der Öffentlichkeit präsentieren.

“Dass manche Nachrichten, die über das Internet verschickt werden, im digitalen Nirwana landen, ist kein neues Problem”, betont Matthias Bärwolf, wissenschaftlicher Mitarbeiter im Fachbereich Informatik und Gesellschaft der TU Berlin http://www.tu-berlin.de. Derartige schwarze Löcher der Information seien eine direkte Konsequenz der Architektur des Internets.

“Das Internet ist ein Netzwerk von Netzwerken und als solches kein System, wo alles von vornherein genau vorgegeben ist”, erläutert Bärwolf. Es gebe heute tatsächlich kaum Orte im weltweiten Netz, die eine vollständige Kontrolle erlauben würden. “Das Internet ist zudem als verteiltes System konzipiert, das keine starre hierarchische Ordnung kennt”, ergänzt Bärwolf. Welchen Pfad eine versendete Information im Web einschlägt, werde oft erst im Netzwerk selbst bestimmt. “Ich glaube aber nicht, dass diese schwarzen Löcher vom Ausmaß her ein besonders dramatisches Problem darstellen”, so Bärwolf.

Um ein möglichst genaues Bild von den schwarzen Löchern im Internet zu bekommen, haben die Forscher mit Hubble ein eigenes Kontrollsystem entwickelt. Dieses besteht aus 100 Computern in 40 Ländern der Welt, die alle 15 Minuten Traceroutes aussenden und so den Internetverkehr überprüfen. Bekommt Hubble keine Antwort, untersucht das System die Störung genauer. Die Ergebnisse werden anschließend als Liste auf der Webseite des Projekts sowie auf einer alle 15 Minuten aktualisierten Karte in Google Maps geografisch dargestellt.

In der Liste erscheinen ein Teil der IP-Adresse, der Ort der Störung, die Erreichbarkeit und die Dauer des schwarzen Lochs. Jeder der gelisteten Markierungen auf der Landkarte steht dabei für mehrere Hundert oder sogar mehrere Tausend Einzelrechner. Laut eigenen Angaben sind die Forscher somit in der Lage, insgesamt rund 85 Prozent aller Erreichbarkeitsprobleme im Internet aufdecken zu können.