Huffpost Germany
BLOG

Eine offene Plattform f√ľr kontroverse Meinungen und aktuelle Analysen aus dem HuffPost-Gastautorennetzwerk

Lars Jaeger Headshot

Von Einbildung und der modernen Informationstechnologie - Zum 100. Geburtstag von Claude Shannon

Veröffentlicht: Aktualisiert:
CLAUDE SHANNON
David Kracht via Getty Images
Drucken

Eine Eigenschaft, die nur von wenigen Menschen geschätzt wird, ist die der Einbildung. Wer sich zu viel auf sich selbst einbildet, gilt als arrogant und unnahbar. Und nicht selten tritt Arroganz in Kombination mit Ignoranz auf, was dann als besonders unangenehm aufstößt.

Die lateinische Version der ‚ÄěEinbildung" dagegen gilt heute als Ma√üstab objektiven Wissens: die ‚ÄěInformation". Wir erwerben sie, wir verarbeiten sie, wir √ľbertragen sie, und wir speichern sie. Sie bildet den Kern der digitalen Welt. Informationstechnologien pr√§gen ma√ügeblich unser heutiges Leben, was unserer Epoche auch den Namen ‚ÄěZeitalter der Information" verleiht. Manche Physiker wollen in Information (neben Energie und Materie) gar eine Grundgr√∂√üe der Natur erkennen.

So pr√§gte der bekannte Physiker John Wheeler die plakative Formulierung ‚Äěit from bit" (Alles ‚ÄěEs" kommt vom ‚Äěbit", d.h. der Information). Denn Information ist auf subtile Weise mit physikalischer Energie verbunden. So ben√∂tigt das L√∂schen oder das √úbertragen von Information notwendigerweise Energie (bzw. erh√∂ht die Entropie), was es auch einer Intelligenz, die mikroskopische Information zu verarbeiten versteht (ein so genannter ‚ÄěMaxwell'scher D√§mon"), unm√∂glich macht, den zweiten Hauptsatz der Thermodynamik zu verletzen.

Ohne allzu große öffentliche Aufmerksamkeit feiern wir in diesen Tagen den 100. Geburtstag des Vaters der modernen Informationstheorie, dem wir die Einsicht in die Möglichkeit der mathematischen und physikalischen Beschreibung von Information verdanken, was zuletzt die Grundlage jeglicher Informationstechnologie darstellt.

Claude Shannon wurde am 30. April 1916, in Petoskey, einem St√§dtchen am √∂stlichen Ufer des Michigansees geboren (er starb am 24. Februar 2001). Sein 1948 publizierter, ca. 50-seitiger Aufsatz ‚ÄěA Mathematical Theory of Communication" (dt. ‚ÄěMathematische Grundlagen in der Informationstheorie") gilt heute als die Bibel des Informationszeitalters und z√§hlt zu den bedeutendsten und einflussreichsten wissenschaftlichen Arbeiten des 20. Jahrhunderts.

Darin gab Shannon der Informationstheorie ein profundes mathematisches Ger√ľst, indem er Information zu quantifizieren wusste, sie dabei zugleich vom konkreten Inhalt oder jeglichem semantischer Aspekt befreite. Noch selten kam einer mathematischen Arbeit eine derart schnelle und bedeutende praktische Relevanz zu.

Sein Aufsatz behandelt konkret das Problem, unter welchen Bedingungen eine von einem Sender kodierte und durch einen realen (d.h. gest√∂rten) Kommunikationskanal √ľbermittelte Information am Zielort wiederhergestellt, d.h. ohne Informationsverlust dekodiert werden kann.

Mit anderen, konkreteren Worten, wie lassen sich Informationen so codieren, so dass sie per Funk wohlbehalten √ľber lange Strecken transportiert werden k√∂nnen? Information ist notwendigerweise an einen materiellen Tr√§ger gebunden (wozu auch elektromagnetische Wellen geh√∂ren), und Shannon erkannte, dass sie generell nicht weitergegeben werden kann, ohne dadurch weniger zu werden (oder bestenfalls gleich zu bleiben). Je gr√∂sser die Auswahlm√∂glichkeiten des Senders, umso gr√∂sser ist die Unsicherheit aufseiten des Empf√§ngers, und umso gr√∂sser der Informationsgehalt der √ľbermittelten Nachricht und die Verlustm√∂glichkeit bei ihrer √úbertragung.

Die Formeln von Shannon erlaubten es zu berechnen, welche Informationsmenge √ľber einen bestimmten Kanal maximal √ľbertragen werden kann. Sie zeigten zudem, dass es m√∂glich ist, durch das Hinzuf√ľgen von Redundanz (z.B. Pr√ľfcodes), die Nachrichten√ľbertragung vor St√∂rungen zu sch√ľtzen. Es gelang Shannon, den Informationsgehalt einer Nachricht in eine einfache geschlossene mathematische Formel zu bringen. Information bezieht sich dabei auf die Auftretenswahrscheinlichkeiten von bestimmten Folgen von Elementen (beispielsweise einer Folge von Buchstaben) aus einer festgelegten Menge (beispielsweise dem Alphabet).

Dabei erkannte Shannon, dass die derart beschriebene Information eine √ľberraschende strukturelle √Ąhnlichkeit zu dem aus der Physik bekannten Konzept der Entropie aufweist. Und so wie die Entropie in thermodynamisch geschlossen Systemen immer anw√§chst, wird Information darin letztlich ebenso vernichtet. Information wird somit zu einer Art physikalischen Gr√∂√üe.

Shannon stellte die Werkzeuge bereit, Daten und Information systematisch zu erfassen, zu verarbeiten und zu √ľbertragen. Und zu welchem anderen Zweck wurden Computer letzthin erschaffen? Es waren Shannons Arbeiten, die es Ende der 1960er erlaubten, erste Modems f√ľr die Datenfern√ľbertragung √ľber Telefonleitungen zu bauen, Vorl√§ufer von Computernetzen, die mit Geldern der US-Milit√§rinstitution DARPA schlie√ülich weiterentwickelt wurden und zuletzt das Internet hervorbrachten.

Shannon schuf auch die formalen Grundlagen der Kryptographie und hob diese damit in den Rang einer eigenst√§ndigen Wissenschaft. Ihre Bedeutung f√ľr die heutige Internet-Kommunikation kann kaum √ľbersch√§tzt werden. Wer anders als Claude Shannon lie√üe sich also als ‚ÄěGro√üvater des Internets" bezeichnen?

Shannons Arbeit wurde aber schnell nicht nur von Mathematikern verstanden und gesch√§tzt, sondern auch von Radiotechnologen, Biologen, Psychologen, √Ąrzten, Sprachforscher und anderen Wissenschaftlern. Seine Informationstheorie wurde als Vereinigung von Linguistik, Biowissenschaften und Physik angesehen und kam zuletzt auch in einer breiteren √Ėffentlichkeit an (was Shannon sogar Auftritte in TV-Shows verschaffte). Ihm zu Ehren wurde schlie√ülich die Einheit des Informationsgehaltes einer Nachricht ‚ÄěShannon" genannt.

Shannon war extrem vielseitig interessiert und sehr kreativ. So baute er neben seinen mathematischen Arbeiten allerlei Dinge wie Jonglier-Maschinen, raketengetriebene Frisbees, Einr√§der mit einer exzentrischen Achse, einen allerersten Schachcomputer und zuletzt eine ‚Äěultimative Maschine" in Form eines kleinen K√§stchens mit einem einzigen Schalter, die, wird sie eingeschaltet, einen Deckel √∂ffnet, eine Hand herausfahren l√§sst, welche den Schalter wieder auf ‚ÄěAus" stellt.

Zuweilen soll Shannon sich auf einem Einrad fahrend und jonglierend durch die B√ľrokorridore im Institut bewegt haben. In all seiner Kreativit√§t, seiner nie endenden Neugier, seinem Sinn f√ľr Humor und seiner mathematischen Brillanz war der Vater unseres modernen Verst√§ndnisses von Information wohl alles andere als ‚Äěeingebildet".

Ihr habt auch ein spannendes Thema?
Die Huffington Post ist eine Debattenplattform f√ľr alle Perspektiven. Wenn ihr die Diskussion zu politischen oder gesellschaftlichen Themen vorantreiben wollt, schickt eure Idee an unser Blogteam unter blog@huffingtonpost.de.

Auch auf HuffPost:

Lesenswert: