BLOG

Eine offene Plattform für kontroverse Meinungen und aktuelle Analysen aus dem HuffPost-Gastautorennetzwerk

Prof. Dr. Klaus Goldhammer  Headshot

Trendmonitor 2017. Tatsachenbeschädigung oder der nächste große Medientrend. Wie lassen sich automatisch gefälschte Nachrichten verhindern?

Veröffentlicht: Aktualisiert:
CHATS COMPUTER DIGITAL
littlehenrabi via Getty Images
Drucken

Es ist ein kurzer Weg von künstlicher Intelligenz und Chatbots zu computerbasierter Propaganda und Fake-News. Doch wie kann man Echokammern öffnen und Filterblasen platzen lassen? Und wie lässt sich die Verdrehung von Tatsachen und Fakten im Netz in Zukunft verhindern? Datenbasierte, automatisierte Kommunikation - wird ein erkennbarer Megatrend im Jahr 2017.

Google-CEO Sundar Pichai präsentierte im Oktober 2016 seine neue Generalstrategie: Künstliche Intelligenz (KI) wird zum neuen Mantra des Onlinewerbeimperiums. Auch Facebook arbeitet an intelligenten Bots. Und dann gibt es noch Apples Siri, Amazons Alexa, Microsofts Cortana und viele andere smarte Assistenten, die aus menschlicher Sprache per Rechenkraft Sinn extrahieren und sinnvolle Antworten generieren können. Fast zeitgleich haben Facebook, Google, Microsoft, IBM und Amazon bereits eine „Partnerschaft" in Sachen AI (Artificial Intelligence) vereinbart, die gemeinsam untersuchen soll, wie sich AI in verantwortungsvoller Weise entwickeln und einsetzen lässt. Künstliche Intelligenz mag reizvoller erscheinen als natürliche Dummheit, doch ein sorgsamer Umgang und Einsatz erscheint dringlich.

Chatbots und das Feld der „Computational Communication" gewinnen massiv an Bedeutung.

Nachrichtenagenturen nutzen heute bereits Roboterjournalismus-Software, um tausende Artikel, vor allem im Bereich Sport-, Börsen- oder Wetternews, automatisiert auszuformulieren. Associated Press produzierte schon 2015 pro Monat nach Eigenaussage über 1.000 automatisch generierte Artikel pro Monat.

Doch es bleibt nicht bei Text-Systemen: Adobe präsentierte im Herbst 2016 eine Audiosoftware namens VoCo, mit der sich Stimmen umwandeln und in beliebiger Form verändern lassen. Die US-Mediengruppe Tronc setzt Software ein, die Videos automatisch aus Rohmaterial editiert und auf YouTube hochlädt: 2015 waren es mehrere hundert Videos pro Tag, in Zukunft, so Chairman Michael Ferro, sollen es 2.000 Videos pro Tag werden.

Mehr Information war nie. Automatisches Kommunizieren und Publizieren funktioniert per Text, Audio oder Video - in einer Dimension, die in Zukunft vermutlich noch viel größer sein wird, als wir es uns heute vorstellen wollen. Denn Roboterjournalismus ist schneller und günstiger, als Rechercheure, Redakteure oder Kameraleute. Die Welle lässt sich schwer aufhalten, existiert doch bereits ein ganzes Ökosystem von Anbietern und Kanälen, Diensten und Produkten.

Wo Licht ist, gibt es immer auch Schatten.

Schon bei der Analyse der Brexit-Debatte auf Twitter kamen Forschern der Universität Oxford Zweifel, wer überhaupt in der Lage sein sollte, 300 Tweets am Tag zu veröffentlichen. Auch bei den US-Wahlen im Herbst 2016 wurden bereits rund 20 Prozent aller Twitter-News von automatisierten Quellen publiziert. Während Trump-Bots die Vorteile des Republikaners herausstellten, versuchten Clinton-Bots eher, die Probleme der Gegenseite herauszustellen. Allein im zeitlichen Umfeld des zweiten TV-Duells von Clinton und Trump gab es über 860.000 Pro-Trump-Tweets, die laut dem „Project on Computational Propaganda" vermutlich von Bots stammten.

Entwicklungen und der Einfluss von „Computational Communication" sind bedenkenswert: „Post-truth" wurde in den USA just zum Wort des Jahres 2016 gewählt. Donald Trump selbst sagte, dass ihm Social Media mit den Wahlsieg gebracht habe.

„Tatsachenbeschädigung" stellt ein erhebliches Risiko dar.

Doch so einfach, wie manche deutschen Politiker - die das Problem zu recht angehen - jetzt darüber räsonieren, den §303 (Sachbeschädigung) des Strafgesetzbuches um den Tatbestand der Roboterkommunikation zu erweitern, wird es vermutlich nicht gehen. Wer Tatsachen verfälscht oder falsche Informationen mit Hilfe von Software öffentlich vermittelt, könnte dann mit Freiheitsstrafen belangt werden.

Doch schon das Telefonsystem einer Bank, das mir meinen Kontostand - hoffentlich korrekt - nennt, ist eine Form von Roboterkommunikation. Viele andere Servicedienste sind ebenfalls automatisiert. Wo zieht man hier die Trennlinie? Und dann ist da noch das Internet: Falls ein ausländischer Geheimdienst Interesse an der Beeinflussung von Informationen und Meinungen in Deutschland hat, wird er dies munter vom Ausland aus weiter mit Hilfe von Chatbots tun. - Das Strafgesetzbuch erscheint hier leider als ein eher kurzes Schwert, es endet an der Landesgrenze.

Und das Schwert wird noch stumpfer durch den Umstand, dass es für „Tatsachenbeschädi­gun­gen" gar keiner aufwändigen Chatbots und KI-Systeme bedarf: Junge Mazedonier hatten zur US-Präsidentenwahl rund 150 Websites gelauncht. Dort wurden zusammen­kopierte und manipulierte Meldungen als möglichst aufmerk­samkeits­heischen­de „Fake-News" verbreitet. Diese „Nachrichten" wurden dann auf Facebook und Twitter in den USA beworben und brachten hunderttausende Amerikaner dazu, auf den jeweiligen Quellseiten nachzuschauen.

Zu den zusammen­geschusterten Texten erschienen dann Werbebanner. Clickbaiting ist hier das Stichwort: Die Werbeprogramme von Facebook und Google brachten den jungen Männern dadurch ein - für mazedonische Verhältnisse - recht attraktives Einkommen. Inzwischen haben sowohl Google als auch Facebook angekündigt, Programme zur Bekämpfung von Fake-News-Seiten einzuführen. Wo dann aber die neue Grenze zur Zensur verläuft, bleibt abzuwarten.

Automatisch gefälschte Nachrichten, ob durch Chatbots oder als Clickbaiting, sind ein offenbar erhebliches Problem der Medien­demokratie.

Sie bleiben es leider auch, obwohl sich alle Parteien im Deutschen Bundestag bereits distanziert haben von ihrem Einsatz bei der anstehenden Bundestagswahl 2017. Denn jeder kann mitkommunizieren und eigene Filterblasen produzieren, ob mit lauteren oder unlauteren Absichten.

Lauter erscheinen da die Initiativen von amerikanischen Start-ups, die für das Problem der Filterblasen und Echokammern, der Clickbaits und Chatbots technische Lösung entwickeln: Ob escapeyourbubble.com oder hifromtheotherside.com, ob discors.com oder der echochamber.club - sie alle wollen die „andere Seite" der medialen Wirklichkeit erfahrbar, bekannt und verstehbar machen. Berechtigte Zweifel ihres Erfolgs bleiben aber. Die Netzeffekte von großen Social Networks sind vermutlich stärker.

Ob der explosiven Ausbreitung von automatisch oder semi-automatisch generierten Fake-News durch rechtliche, technische oder redaktionelle Kontrollmaßnahmen von Facebook und Google wirklich Einhalt geboten werden kann oder ob wir ungewollt in ein neues Zensur-Zeitalter hineinschlittern, wird auf der gesellschaftlichen Agenda 2017 bleiben. Vielleicht sollten die Internet-Riesen ihre KI-Aktivitäten hierauf fokussieren. Denn „Tatsachenbeschädigung" ist für jede Mediendemokratie ein realer, gefährlicher Trend.

Prof. Dr. Klaus Goldhammer, Geschäftsführer Goldmedia

Der Artikel ist Teil des Goldmedia Trendmonitors 2017. Goldmedia gibt im Trendmonitor alljährlich in Form von Analysten-Kommentaren einen Ausblick auf relevante Trends in den Bereichen Medien, Internet und Telekommunikation des kommenden Jahres in Deutschland. www.Goldmedia.com

Lesenswert:

Ihr habt auch ein spannendes Thema?
Die Huffington Post ist eine Debattenplattform für alle Perspektiven. Wenn ihr die Diskussion zu politischen oder gesellschaftlichen Themen vorantreiben wollt, schickt eure Idee an unser Blogteam unter blog@huffingtonpost.de.