Huffpost Germany
BLOG

Eine offene Plattform f├╝r kontroverse Meinungen und aktuelle Analysen aus dem HuffPost-Gastautorennetzwerk

Lars Jaeger Headshot

Von Einbildung und der modernen Informationstechnologie - Zum 100. Geburtstag von Claude Shannon

Ver├Âffentlicht: Aktualisiert:
CLAUDE SHANNON
David Kracht via Getty Images
Drucken

Eine Eigenschaft, die nur von wenigen Menschen gesch├Ątzt wird, ist die der Einbildung. Wer sich zu viel auf sich selbst einbildet, gilt als arrogant und unnahbar. Und nicht selten tritt Arroganz in Kombination mit Ignoranz auf, was dann als besonders unangenehm aufst├Â├čt.

Die lateinische Version der ÔÇ×Einbildung" dagegen gilt heute als Ma├čstab objektiven Wissens: die ÔÇ×Information". Wir erwerben sie, wir verarbeiten sie, wir ├╝bertragen sie, und wir speichern sie. Sie bildet den Kern der digitalen Welt. Informationstechnologien pr├Ągen ma├čgeblich unser heutiges Leben, was unserer Epoche auch den Namen ÔÇ×Zeitalter der Information" verleiht. Manche Physiker wollen in Information (neben Energie und Materie) gar eine Grundgr├Â├če der Natur erkennen.

So pr├Ągte der bekannte Physiker John Wheeler die plakative Formulierung ÔÇ×it from bit" (Alles ÔÇ×Es" kommt vom ÔÇ×bit", d.h. der Information). Denn Information ist auf subtile Weise mit physikalischer Energie verbunden. So ben├Âtigt das L├Âschen oder das ├ťbertragen von Information notwendigerweise Energie (bzw. erh├Âht die Entropie), was es auch einer Intelligenz, die mikroskopische Information zu verarbeiten versteht (ein so genannter ÔÇ×Maxwell'scher D├Ąmon"), unm├Âglich macht, den zweiten Hauptsatz der Thermodynamik zu verletzen.

Ohne allzu gro├če ├Âffentliche Aufmerksamkeit feiern wir in diesen Tagen den 100. Geburtstag des Vaters der modernen Informationstheorie, dem wir die Einsicht in die M├Âglichkeit der mathematischen und physikalischen Beschreibung von Information verdanken, was zuletzt die Grundlage jeglicher Informationstechnologie darstellt.

Claude Shannon wurde am 30. April 1916, in Petoskey, einem St├Ądtchen am ├Âstlichen Ufer des Michigansees geboren (er starb am 24. Februar 2001). Sein 1948 publizierter, ca. 50-seitiger Aufsatz ÔÇ×A Mathematical Theory of Communication" (dt. ÔÇ×Mathematische Grundlagen in der Informationstheorie") gilt heute als die Bibel des Informationszeitalters und z├Ąhlt zu den bedeutendsten und einflussreichsten wissenschaftlichen Arbeiten des 20. Jahrhunderts.

Darin gab Shannon der Informationstheorie ein profundes mathematisches Ger├╝st, indem er Information zu quantifizieren wusste, sie dabei zugleich vom konkreten Inhalt oder jeglichem semantischer Aspekt befreite. Noch selten kam einer mathematischen Arbeit eine derart schnelle und bedeutende praktische Relevanz zu.

Sein Aufsatz behandelt konkret das Problem, unter welchen Bedingungen eine von einem Sender kodierte und durch einen realen (d.h. gest├Ârten) Kommunikationskanal ├╝bermittelte Information am Zielort wiederhergestellt, d.h. ohne Informationsverlust dekodiert werden kann.

Mit anderen, konkreteren Worten, wie lassen sich Informationen so codieren, so dass sie per Funk wohlbehalten ├╝ber lange Strecken transportiert werden k├Ânnen? Information ist notwendigerweise an einen materiellen Tr├Ąger gebunden (wozu auch elektromagnetische Wellen geh├Âren), und Shannon erkannte, dass sie generell nicht weitergegeben werden kann, ohne dadurch weniger zu werden (oder bestenfalls gleich zu bleiben). Je gr├Âsser die Auswahlm├Âglichkeiten des Senders, umso gr├Âsser ist die Unsicherheit aufseiten des Empf├Ąngers, und umso gr├Âsser der Informationsgehalt der ├╝bermittelten Nachricht und die Verlustm├Âglichkeit bei ihrer ├ťbertragung.

Die Formeln von Shannon erlaubten es zu berechnen, welche Informationsmenge ├╝ber einen bestimmten Kanal maximal ├╝bertragen werden kann. Sie zeigten zudem, dass es m├Âglich ist, durch das Hinzuf├╝gen von Redundanz (z.B. Pr├╝fcodes), die Nachrichten├╝bertragung vor St├Ârungen zu sch├╝tzen. Es gelang Shannon, den Informationsgehalt einer Nachricht in eine einfache geschlossene mathematische Formel zu bringen. Information bezieht sich dabei auf die Auftretenswahrscheinlichkeiten von bestimmten Folgen von Elementen (beispielsweise einer Folge von Buchstaben) aus einer festgelegten Menge (beispielsweise dem Alphabet).

Dabei erkannte Shannon, dass die derart beschriebene Information eine ├╝berraschende strukturelle ├ähnlichkeit zu dem aus der Physik bekannten Konzept der Entropie aufweist. Und so wie die Entropie in thermodynamisch geschlossen Systemen immer anw├Ąchst, wird Information darin letztlich ebenso vernichtet. Information wird somit zu einer Art physikalischen Gr├Â├če.

Shannon stellte die Werkzeuge bereit, Daten und Information systematisch zu erfassen, zu verarbeiten und zu ├╝bertragen. Und zu welchem anderen Zweck wurden Computer letzthin erschaffen? Es waren Shannons Arbeiten, die es Ende der 1960er erlaubten, erste Modems f├╝r die Datenfern├╝bertragung ├╝ber Telefonleitungen zu bauen, Vorl├Ąufer von Computernetzen, die mit Geldern der US-Milit├Ąrinstitution DARPA schlie├člich weiterentwickelt wurden und zuletzt das Internet hervorbrachten.

Shannon schuf auch die formalen Grundlagen der Kryptographie und hob diese damit in den Rang einer eigenst├Ąndigen Wissenschaft. Ihre Bedeutung f├╝r die heutige Internet-Kommunikation kann kaum ├╝bersch├Ątzt werden. Wer anders als Claude Shannon lie├če sich also als ÔÇ×Gro├čvater des Internets" bezeichnen?

Shannons Arbeit wurde aber schnell nicht nur von Mathematikern verstanden und gesch├Ątzt, sondern auch von Radiotechnologen, Biologen, Psychologen, ├ärzten, Sprachforscher und anderen Wissenschaftlern. Seine Informationstheorie wurde als Vereinigung von Linguistik, Biowissenschaften und Physik angesehen und kam zuletzt auch in einer breiteren ├ľffentlichkeit an (was Shannon sogar Auftritte in TV-Shows verschaffte). Ihm zu Ehren wurde schlie├člich die Einheit des Informationsgehaltes einer Nachricht ÔÇ×Shannon" genannt.

Shannon war extrem vielseitig interessiert und sehr kreativ. So baute er neben seinen mathematischen Arbeiten allerlei Dinge wie Jonglier-Maschinen, raketengetriebene Frisbees, Einr├Ąder mit einer exzentrischen Achse, einen allerersten Schachcomputer und zuletzt eine ÔÇ×ultimative Maschine" in Form eines kleinen K├Ąstchens mit einem einzigen Schalter, die, wird sie eingeschaltet, einen Deckel ├Âffnet, eine Hand herausfahren l├Ąsst, welche den Schalter wieder auf ÔÇ×Aus" stellt.

Zuweilen soll Shannon sich auf einem Einrad fahrend und jonglierend durch die B├╝rokorridore im Institut bewegt haben. In all seiner Kreativit├Ąt, seiner nie endenden Neugier, seinem Sinn f├╝r Humor und seiner mathematischen Brillanz war der Vater unseres modernen Verst├Ąndnisses von Information wohl alles andere als ÔÇ×eingebildet".

Ihr habt auch ein spannendes Thema?
Die Huffington Post ist eine Debattenplattform f├╝r alle Perspektiven. Wenn ihr die Diskussion zu politischen oder gesellschaftlichen Themen vorantreiben wollt, schickt eure Idee an unser Blogteam unter blog@huffingtonpost.de.

Auch auf HuffPost:

Lesenswert: