BLOG

Eine offene Plattform fĂŒr kontroverse Meinungen und aktuelle Analysen aus dem HuffPost-Gastautorennetzwerk

Lars Jaeger Headshot

Von Einbildung und der modernen Informationstechnologie - Zum 100. Geburtstag von Claude Shannon

Veröffentlicht: Aktualisiert:
CLAUDE SHANNON
David Kracht via Getty Images
Drucken

Eine Eigenschaft, die nur von wenigen Menschen geschĂ€tzt wird, ist die der Einbildung. Wer sich zu viel auf sich selbst einbildet, gilt als arrogant und unnahbar. Und nicht selten tritt Arroganz in Kombination mit Ignoranz auf, was dann als besonders unangenehm aufstĂ¶ĂŸt.

Die lateinische Version der „Einbildung" dagegen gilt heute als Maßstab objektiven Wissens: die „Information". Wir erwerben sie, wir verarbeiten sie, wir ĂŒbertragen sie, und wir speichern sie. Sie bildet den Kern der digitalen Welt. Informationstechnologien prĂ€gen maßgeblich unser heutiges Leben, was unserer Epoche auch den Namen „Zeitalter der Information" verleiht. Manche Physiker wollen in Information (neben Energie und Materie) gar eine GrundgrĂ¶ĂŸe der Natur erkennen.

So prĂ€gte der bekannte Physiker John Wheeler die plakative Formulierung „it from bit" (Alles „Es" kommt vom „bit", d.h. der Information). Denn Information ist auf subtile Weise mit physikalischer Energie verbunden. So benötigt das Löschen oder das Übertragen von Information notwendigerweise Energie (bzw. erhöht die Entropie), was es auch einer Intelligenz, die mikroskopische Information zu verarbeiten versteht (ein so genannter „Maxwell'scher DĂ€mon"), unmöglich macht, den zweiten Hauptsatz der Thermodynamik zu verletzen.

Ohne allzu große öffentliche Aufmerksamkeit feiern wir in diesen Tagen den 100. Geburtstag des Vaters der modernen Informationstheorie, dem wir die Einsicht in die Möglichkeit der mathematischen und physikalischen Beschreibung von Information verdanken, was zuletzt die Grundlage jeglicher Informationstechnologie darstellt.

Claude Shannon wurde am 30. April 1916, in Petoskey, einem StĂ€dtchen am östlichen Ufer des Michigansees geboren (er starb am 24. Februar 2001). Sein 1948 publizierter, ca. 50-seitiger Aufsatz „A Mathematical Theory of Communication" (dt. „Mathematische Grundlagen in der Informationstheorie") gilt heute als die Bibel des Informationszeitalters und zĂ€hlt zu den bedeutendsten und einflussreichsten wissenschaftlichen Arbeiten des 20. Jahrhunderts.

Darin gab Shannon der Informationstheorie ein profundes mathematisches GerĂŒst, indem er Information zu quantifizieren wusste, sie dabei zugleich vom konkreten Inhalt oder jeglichem semantischer Aspekt befreite. Noch selten kam einer mathematischen Arbeit eine derart schnelle und bedeutende praktische Relevanz zu.

Sein Aufsatz behandelt konkret das Problem, unter welchen Bedingungen eine von einem Sender kodierte und durch einen realen (d.h. gestörten) Kommunikationskanal ĂŒbermittelte Information am Zielort wiederhergestellt, d.h. ohne Informationsverlust dekodiert werden kann.

Mit anderen, konkreteren Worten, wie lassen sich Informationen so codieren, so dass sie per Funk wohlbehalten ĂŒber lange Strecken transportiert werden können? Information ist notwendigerweise an einen materiellen TrĂ€ger gebunden (wozu auch elektromagnetische Wellen gehören), und Shannon erkannte, dass sie generell nicht weitergegeben werden kann, ohne dadurch weniger zu werden (oder bestenfalls gleich zu bleiben). Je grösser die Auswahlmöglichkeiten des Senders, umso grösser ist die Unsicherheit aufseiten des EmpfĂ€ngers, und umso grösser der Informationsgehalt der ĂŒbermittelten Nachricht und die Verlustmöglichkeit bei ihrer Übertragung.

Die Formeln von Shannon erlaubten es zu berechnen, welche Informationsmenge ĂŒber einen bestimmten Kanal maximal ĂŒbertragen werden kann. Sie zeigten zudem, dass es möglich ist, durch das HinzufĂŒgen von Redundanz (z.B. PrĂŒfcodes), die NachrichtenĂŒbertragung vor Störungen zu schĂŒtzen. Es gelang Shannon, den Informationsgehalt einer Nachricht in eine einfache geschlossene mathematische Formel zu bringen. Information bezieht sich dabei auf die Auftretenswahrscheinlichkeiten von bestimmten Folgen von Elementen (beispielsweise einer Folge von Buchstaben) aus einer festgelegten Menge (beispielsweise dem Alphabet).

Dabei erkannte Shannon, dass die derart beschriebene Information eine ĂŒberraschende strukturelle Ähnlichkeit zu dem aus der Physik bekannten Konzept der Entropie aufweist. Und so wie die Entropie in thermodynamisch geschlossen Systemen immer anwĂ€chst, wird Information darin letztlich ebenso vernichtet. Information wird somit zu einer Art physikalischen GrĂ¶ĂŸe.

Shannon stellte die Werkzeuge bereit, Daten und Information systematisch zu erfassen, zu verarbeiten und zu ĂŒbertragen. Und zu welchem anderen Zweck wurden Computer letzthin erschaffen? Es waren Shannons Arbeiten, die es Ende der 1960er erlaubten, erste Modems fĂŒr die DatenfernĂŒbertragung ĂŒber Telefonleitungen zu bauen, VorlĂ€ufer von Computernetzen, die mit Geldern der US-MilitĂ€rinstitution DARPA schließlich weiterentwickelt wurden und zuletzt das Internet hervorbrachten.

Shannon schuf auch die formalen Grundlagen der Kryptographie und hob diese damit in den Rang einer eigenstĂ€ndigen Wissenschaft. Ihre Bedeutung fĂŒr die heutige Internet-Kommunikation kann kaum ĂŒberschĂ€tzt werden. Wer anders als Claude Shannon ließe sich also als „Großvater des Internets" bezeichnen?

Shannons Arbeit wurde aber schnell nicht nur von Mathematikern verstanden und geschĂ€tzt, sondern auch von Radiotechnologen, Biologen, Psychologen, Ärzten, Sprachforscher und anderen Wissenschaftlern. Seine Informationstheorie wurde als Vereinigung von Linguistik, Biowissenschaften und Physik angesehen und kam zuletzt auch in einer breiteren Öffentlichkeit an (was Shannon sogar Auftritte in TV-Shows verschaffte). Ihm zu Ehren wurde schließlich die Einheit des Informationsgehaltes einer Nachricht „Shannon" genannt.

Shannon war extrem vielseitig interessiert und sehr kreativ. So baute er neben seinen mathematischen Arbeiten allerlei Dinge wie Jonglier-Maschinen, raketengetriebene Frisbees, EinrĂ€der mit einer exzentrischen Achse, einen allerersten Schachcomputer und zuletzt eine „ultimative Maschine" in Form eines kleinen KĂ€stchens mit einem einzigen Schalter, die, wird sie eingeschaltet, einen Deckel öffnet, eine Hand herausfahren lĂ€sst, welche den Schalter wieder auf „Aus" stellt.

Zuweilen soll Shannon sich auf einem Einrad fahrend und jonglierend durch die BĂŒrokorridore im Institut bewegt haben. In all seiner KreativitĂ€t, seiner nie endenden Neugier, seinem Sinn fĂŒr Humor und seiner mathematischen Brillanz war der Vater unseres modernen VerstĂ€ndnisses von Information wohl alles andere als „eingebildet".

Ihr habt auch ein spannendes Thema?
Die Huffington Post ist eine Debattenplattform fĂŒr alle Perspektiven. Wenn ihr die Diskussion zu politischen oder gesellschaftlichen Themen vorantreiben wollt, schickt eure Idee an unser Blogteam unter blog@huffingtonpost.de.

Auch auf HuffPost:

Lesenswert: