Von Einbildung und der modernen Informationstechnologie – Zum 100. Geburtstag von Claude Shannon

InnovationWissenschaft

Wir feiern in diesen Tagen den 100. Geburtstag des Vaters der modernen Informationstheorie. Lars Jaeger, der Autor dieses Gastbeitrags für silicon.de, hat sich diesen ungewöhnlichen Menschen genauer angesehen.

Eine Eigenschaft, die nur von wenigen Menschen geschätzt wird, ist die der Einbildung. Wer sich zu viel auf sich selbst einbildet, gilt als arrogant und unnahbar. Und nicht selten tritt Arroganz in Kombination mit Ignoranz auf, was dann als besonders unangenehm aufstößt.

Lars Jaeger, der Autor dieses Gastbeitrags für silicon.de, ist umtriebiger Querdenker und unterhält unter anderem Blogs zum Thema Wissenschaft und Zeitgeschehen (Bild: Lars Jaeger).
Lars Jaeger, der Autor dieses Gastbeitrags für silicon.de, ist umtriebiger Querdenker und unterhält unter anderem Blogs zum Thema Wissenschaft und Zeitgeschehen (Bild: Lars Jaeger).

Die lateinische Version der “Einbildung” dagegen gilt heute als Maßstab objektiven Wissens: die “Information”. Wir erwerben sie, wir verarbeiten sie, wir übertragen sie, und wir speichern sie. Sie bildet den Kern der digitalen Welt. Informationstechnologien prägen maßgeblich unser heutiges Leben, was unserer Epoche auch den Namen “Zeitalter der Information” verleiht.

Manche Physiker wollen in Information (neben Energie und Materie) gar eine Grundgröße der Natur erkennen. So prägte der bekannte Physiker John Wheeler die plakative Formulierung “it from bit” (Alles “Es” kommt vom “bit”, das heißt der Information). Denn Information ist auf subtile Weise mit physikalischer Energie verbunden. So benötigt das Löschen oder das Übertragen von Information notwendigerweise Energie beziehungsweise erhöht die Entropie), was es auch einer Intelligenz, die mikroskopische Information zu verarbeiten versteht (ein so genannter “Maxwell‘scher Dämon”), unmöglich macht, den zweiten Hauptsatz der Thermodynamik zu verletzen.

Claude Shannon (Bild: Konrad Jacobs/MFO)
Claude Shannon (Bild: Konrad Jacobs/MFO)

Ohne allzu große öffentliche Aufmerksamkeit feiern wir in diesen Tagen den 100. Geburtstag des Vaters der modernen Informationstheorie, dem wir die Einsicht in die Möglichkeit der mathematischen und physikalischen Beschreibung von Information verdanken, was zuletzt die Grundlage jeglicher Informationstechnologie darstellt.

Claude Shannon wurde am 30. April 1916, in Petoskey, einem Städtchen am östlichen Ufer des Michigansees geboren (er starb am 24. Februar 2001). Sein 1948 publizierter, etwa 50-seitiger Aufsatz “A Mathematical Theory of Communication” (auf Deutsch “Mathematische Grundlagen in der Informationstheorie”) gilt heute als die Bibel des Informationszeitalters und zählt zu den bedeutendsten und einflussreichsten wissenschaftlichen Arbeiten des 20. Jahrhunderts. Darin gab Shannon der Informationstheorie ein profundes mathematisches Gerüst, indem er Information zu quantifizieren wusste, sie dabei zugleich vom konkreten Inhalt oder jeglichem semantischer Aspekt befreite. Noch selten kam einer mathematischen Arbeit eine derart schnelle und bedeutende praktische Relevanz zu.

Sein Aufsatz behandelt konkret das Problem, unter welchen Bedingungen eine von einem Sender kodierte und durch einen realen (das heißt gestörten) Kommunikationskanal übermittelte Information am Zielort wiederhergestellt, sprich ohne Informationsverlust dekodiert werden kann. Mit anderen, konkreteren Worten, wie lassen sich Informationen so codieren, so dass sie per Funk wohlbehalten über lange Strecken transportiert werden können? Information ist notwendigerweise an einen materiellen Träger gebunden (wozu auch elektromagnetische Wellen gehören), und Shannon erkannte, dass sie generell nicht weitergegeben werden kann, ohne dadurch weniger zu werden (oder bestenfalls gleich zu bleiben). Je grösser die Auswahlmöglichkeiten des Senders, umso grösser ist die Unsicherheit aufseiten des Empfängers, und umso grösser der Informationsgehalt der übermittelten Nachricht und die Verlustmöglichkeit bei ihrer Übertragung.

Die Formeln von Shannon erlaubten es zu berechnen, welche Informationsmenge über einen bestimmten Kanal maximal übertragen werden kann. Sie zeigten zudem, dass es möglich ist, durch das Hinzufügen von Redundanz (zum Beispiel Prüfcodes), die Nachrichtenübertragung vor Störungen zu schützen. Es gelang Shannon, den Informationsgehalt einer Nachricht in eine einfache geschlossene mathematische Formel zu bringen. Information bezieht sich dabei auf die Auftretenswahrscheinlichkeiten von bestimmten Folgen von Elementen (beispielsweise einer Folge von Buchstaben) aus einer festgelegten Menge (beispielsweise dem Alphabet). Dabei erkannte Shannon, dass die derart beschriebene Information eine überraschende strukturelle Ähnlichkeit zu dem aus der Physik bekannten Konzept der Entropie aufweist. Und so wie die Entropie in thermodynamisch geschlossen Systemen immer anwächst, wird Information darin letztlich ebenso vernichtet. Information wird somit zu einer Art physikalischen Größe.

Shannon stellte die Werkzeuge bereit, Daten und Information systematisch zu erfassen, zu verarbeiten und zu übertragen. Und zu welchem anderen Zweck wurden Computer letzthin erschaffen? Es waren Shannons Arbeiten, die es Ende der 1960er erlaubten, erste Modems für die Datenfernübertragung über Telefonleitungen zu bauen, Vorläufer von Computernetzen, die mit Geldern der US- Militärinstitution DARPA schließlich weiterentwickelt wurden und zuletzt das Internet hervorbrachten.

Shannon schuf auch die formalen Grundlagen der Kryptographie und hob diese damit in den Rang einer eigenständigen Wissenschaft. Ihre Bedeutung für die heutige Internet-Kommunikation kann kaum überschätzt werden. Wer anders als Claude Shannon ließe sich also als “Großvater des Internets” bezeichnen? Shannons Arbeit wurde aber schnell nicht nur von Mathematikern verstanden und geschätzt, sondern auch von Radiotechnologen, Biologen, Psychologen, Ärzten, Sprachforscher und anderen Wissenschaftlern. Seine Informationstheorie wurde als Vereinigung von Linguistik, Biowissenschaften und Physik angesehen und kam zuletzt auch in einer breiteren Öffentlichkeit an (was Shannon sogar Auftritte in TV-Shows verschaffte). Ihm zu Ehren wurde schließlich die Einheit des Informationsgehaltes einer Nachricht “Shannon” genannt.

Shannon war extrem vielseitig interessiert und sehr kreativ. So baute er neben seinen mathematischen Arbeiten allerlei Dinge wie Jonglier-Maschinen, raketengetriebene Frisbees, Einräder mit einer exzentrischen Achse, einen allerersten Schachcomputer und zuletzt eine “ultimative Maschine” in Form eines kleinen Kästchens mit einem einzigen Schalter, die, wird sie eingeschaltet, einen Deckel öffnet, eine Hand herausfahren lässt, welche den Schalter wieder auf “Aus” stellt. Zuweilen soll Shannon sich auf einem Einrad fahrend und jonglierend durch die Bürokorridore im Institut bewegt haben. In all seiner Kreativität, seiner nie endenden Neugier, seinem Sinn für Humor und seiner mathematischen Brillanz war der Vater unseres modernen Verständnisses von Information wohl alles andere als “eingebildet”.

Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen