Digitale Amokläufer: Immer häufiger verlieren Unternehmen die Kontrolle über ihre Algorithmen. Experten warnen jetzt vor einer gefährlichen Entwicklung

Veröffentlicht: Aktualisiert:
ARTIFICIAL INTELLIGENCE
Digitale Amokläufer: Immer häufiger verlieren Unternehmen die Kontrolle über ihre Algorithmen. Experten warnen jetzt vor einer gefährlichen Entwicklung | gorodenkoff via Getty Images
Drucken
  • Algorithmen und künstliche Intelligenz sind mittlerweile allgegenwärtig
  • Doch das löst nicht nur alte Probleme, sondern schafft auch neue
  • Teilweise wissen nicht einmal mehr die Entwickler selbst, wie der Computer auf ein bestimmtes Ergebnis kommt - er ist einfach zu intelligent

Skynet heißt die künstliche Intelligenz in den Terminator-Filmen. Von Menschen entwickelt, eigentlich um sie zu schützen, wendet sich Skynet gegen seine Schöpfer - denn die könnten eine Bedrohung für die Künstliche Intelligenz (KI) darstellen.

Klar: Skynet haben nicht irgendwelche Programmierer entwickelt, sondern Hollywood-Drehbuchautoren erfunden. Drehbuchautoren eines Science-Fiction-Films noch dazu.

Und doch ist eine KI, die sich gegen den Menschen wendet, nicht vollkommen unrealistisch.

Vor gut einem Jahr kam ein Update für das beliebte Sci-Fi Multiplayer-Computergame “Elite: Dangerous” heraus. Das Update verbesserte nicht nur viele Funktionen für die Spieler - sondern auch die künstliche Intelligenz von None Player Characters, also den Charakteren in einem Computer-Spiel, die nicht vom Spieler selbst gesteuert werden.

Der Computer metzelte alles nieder

Die Folgen waren durchaus verheerend: Die Waffen, die der Computer entwickelte, waren so effektiv, dass sie jedes noch so gute und von den Gamern in monatelanger mühevoller Arbeit gebaute Raumschiff einfach zerschossen. Die Raumschiffe der Spieler hatten keine Chance: Der Computer machte mit den Überwaffen, die er durch einen Bug entwickeln konnte, Jagd auf die Spieler - und metzelte alles nieder.

Zwar konnten die Entwickler den Schaden schnell beheben, ein richtiges Skynet ist nicht entstanden.

Trotzdem zeigt das Beispiel, wie weit die Auswirkungen eines kleinen Fehlers in einer KI sein können. Und es zeigt, wieso Tech-Pioniere wie Elon Musk oder Bill Gates vor künstlicher Intelligenz warnen.

"Die größte Bedrohung für die Menschheit"

Musk investiert in KI, die Software, die sein Unternehmen Tesla fürs autonome Fahren entwickelt, basiert maßgeblich auf der Fähigkeit von Computern, intelligent zu sein und selbstständig dazu zu lernen. Trotzdem hält der Silicon-Valley-Milliardär künstliche Intelligenz für die größte Bedrohung für die Menschheit.

Mehr zum Thema: Das Ende von Computern und Smartphones: Forscher wollen das Internet mit unseren Gehirnen vernetzen

Deshalb habe er auch in KI-Technologien investiert, sagt Musk - um ein Auge auf die Entwicklung zu haben. Musk hat Angst vor der sogenannten Singularität, dem Zustand, wenn Computer intelligenter werden als Menschen und die Macht übernehmen.

Er fordert immer wieder, dass der Mensch keinesfalls die Kontrolle verlieren darf - und die Algorithmen überwachen muss.

Algorithmen lösen nicht nur Probleme - sie verursachen auch welche

Doch nicht nur im Silicon Valley denkt man über Lösungen nach, um das Problem der im Internet allgegenwärtigen Algorithmen in den Griff zu bekommen

Andreas Dewes, der das deutsche Datenanalyseunternehmen 7scientists gegründet hat, spricht sich für eine Art “Algorithmus-TÜV” aus, also eine zentrale Stelle, die Algorithmen überwacht - damit die letzte Kontrolle beim Menschen liegt. “So wie wir eine Datenschutzbeauftragte haben, bräuchten wir auch einen Algorithmus-Beauftragten”, sagt er der HuffPost. Das sei allerdings sehr schwer umzusetzen.

Dewes hält Zustände wie in Terminator, wo Computer die Macht übernommen haben, momentan zwar noch nicht für möglich. Auch teilt er Musks fast schon panische Angst vor der Roboterherrschaft nicht.

Doch er macht sich Sorgen. Denn schon jetzt lösen Algorithmen nicht nur Probleme - sondern sie verursachen auch viele. Und das haben viele Menschen schon am eigenen Leib erfahren müssen.

Denn Algorithmen diskriminieren zum Beispiel gerne. “Auch wenn der Algorithmus nicht weiß, dass er diskriminiert, macht er es doch besser als der Mensch”, sagt Dewes. Und das, obwohl er gar nicht darauf programmiert ist, zu diskriminieren.

Ein Beispiel: Der Algorithmus soll aus einer Menge an Bewerbungen die geeignetsten Kandidaten für ein Vorstellungsgespräch finden. Dafür soll er verschiedene Daten auswerten, zu denen explizit nicht das Geschlecht gehört. Allerdings ist der Algorithmus nicht dumm - und er lernt ständig dazu.

Das Geschlecht ließe sich besonders leicht auch aus anderen Informationen erschließen, erklärt Dewes. Bekommt der Algorithmus zum Beispiel Daten aus dem Surfverhalten des Bewerbers zur Verfügung gestellt, könne er daraus ableiten, ob der Bewerber männlich oder weiblich ist.

“Außerdem weiß der Algorithmus, ob für eine Stelle früher bevorzugt Männer oder Frauen eingeladen worden sind - und so wird er versuchen, dieses Ergebnis zu produzieren”, sagt Dewes. In Zeiten von sozialen Netzwerken und Big Data habe der Algorithmus so viele Daten zur Verfügung, dass er sich alle Informationen, die er für seine Entscheidung braucht, auch holen würde.

Natürlich verhindert so ein Vorgehen auch den Fortschritt - und zementiert den Status quo. Wenn für eine bestimmte Position, zum Beispiel eine Führungsposition, bisher bevorzugt Männer eingeladen wurden, wird sich auch der Algorithmus hauptsächlich für Männer entscheiden.

Algorithmen diskriminieren, auch wenn der Entwickler das gar nicht wollte

Aber nicht nur die Algorithmen von Unternehmen diskriminieren im Bewerbungsprozess. Forscher der Carnegie Mellon Universität haben herausgefunden, dass Googles Algorithmen Frauen, die auf der Suche nach einem neuen Job sind, weniger Führungspositionen anbieten als Männern - einfach weil sowieso schon weniger Frauen im Management sind.

“Auch wenn die Diskriminierung nicht gewollt ist, passiert sie trotzdem”, sagt Dewes. Das einzige was da helfe sei Transparenz, sagt der Analyst. Und dadurch, dass Algorithmen mit immer mehr Daten arbeiten, wird es immer schwieriger, diese Transparenz herzustellen.

Das sogenannte Machine Learning der Algorithmen erschwert es außerdem erheblich, transparent zu machen, wie ein Algorithmus überhaupt zu einem Ergebnis kommt. Denn der Algorithmus lernt selbstständig dazu - und oft weiß nicht einmal der Programmierer genau, was sein Programm dazu lernt. Und auch nicht, wie es das Gelernte nutzt.

"Schaden für die Gesellschaft"

“Programmierer können dann das Ergebnis, auf das ein Algorithmus kommt, nach einer gewissen Zeit oft nicht mehr nachvollziehen - obwohl sie ihn selbst programmiert haben. Weil er so viel dazu gelernt hat”, sagt Dewes.

Auch wenn sich das noch weit entfernt von Skynet anhört - besonders vertrauenserweckend wirken Künstliche Intelligenzen unter diesen Voraussetzungen nicht. “Natürlich kann durch intransparente Algorithmen und die von ihnen ausgehende Diskriminierungen ein Schaden entstehen - auch für die Gesellschaft”, sagt Dewes. Allerdings könne man nicht wissen, wie groß der sei.

Und wenn man sieht, dass teilweise nicht einmal mehr Programmierer das Ergebnis der intelligenten und immer intelligenter werdenden Algorithmen nachvollziehen können, dann ist zumindest der erste Schritt in Richtung Skynet gemacht.

Mehr zum Thema: Unsere Maschinen fangen an, mit uns zu sprechen - das wird unser Leben revolutionieren

Leserumfrage: Wie fandet ihr uns heute?

2017-03-08-1488965563-6721107-iStock482232067.jpg

Korrektur anregen