Zum Hauptinhalt springen

Künstliche Intelligenz: Die Flut gefälschter Fakten

Pin It

KI-Experte Stefan Feuerriegel wirft einen Blick auf die Gefahr
automatisierter Fake-News-Kampagnen und zeigt Möglichkeiten auf wie man
ihr begegnen kann.

KI-Tools können inzwischen quasi auf Knopfdruck überzeugende Texte,
Bilder, Stimmen und sogar Videos erzeugen. Können wir in Zukunft unseren
Augen, unseren Ohren und unserem gesunden Menschenverstand überhaupt noch
trauen?

Stefan Feuerriegel: Wie überzeugend solche künstlich erzeugten Inhalte
sind, sieht man am Beispiel des Bildes von Papst Franziskus, das im
Frühling viral ging. Bei diesem Bild konnte man als Laie kaum noch
erkennen, ob das echt war. Solche Fälschungen konnten begabte
Grafikerinnen und Grafiker natürlich auch früher schon erstellen, aber in
diesem Fall war es eine Person, die auf die Schnelle dutzende Versionen
dieses Fotos produziert hat. Das hat gezeigt, was mittlerweile ganz
einfach und ohne besondere Fähigkeiten möglich ist. Aktuell kriegen die
KIs einzelne Details noch nicht so ganz hin, der Hintergrund stimmt
manchmal nicht ganz, Hände tendieren noch dazu, zu viele oder zu weniger
Finger zu haben. Aber die Technologie wird ja auf Hochtouren
weiterentwickelt und optimiert. In den nächsten Monaten wird das schon
ganz anders aussehen.

Was mach KI-generierte Fake News besonders gefährlich?

Leider sind die Fakes mit fehlerfreien Texten und authentischen Bildern
inzwischen nicht nur sehr überzeugend, sondern man kann die
Fehlinformationen dank KI auch personalisieren und individuell auf die
Religion, das Geschlecht oder die politische Gesinnung der einzelnen
Konsumenten abstimmen und in jeder Zielgruppe Hass oder Wut säen. Man kann
einen Bot bauen, der nicht mehr einfach nur eine Nachricht postet, sondern
ganz persönlich auf Facebook oder Twitter Menschen anschreibt und sogar
auf Antworten reagiert und Unterhaltungen führt. Das geht bis hin zu Fake-
Anrufen, bei denen man gezielt eine Stimme generiert, die so klingt wie
ein Familienmitglied.

Wenn man mit Tippfehlersuchen und Fingerzählen bald nicht mehr
weiterkommt: Was sind die Anhaltspunkte, anhand derer wir die Fakes
erkennen können?

Allein anhand des Inhalts gibt es keine. Oder zumindest bald nicht mehr.
Entweder man verlässt sich darauf, dass man bestimmten Quellen vertrauen
kann, oder man muss unabhängig recherchieren. Wobei Faktenfälscher
natürlich auch mit KI erstellte Webseiten und Quellen platzieren können.
In sozialen Netzwerken sind die Bilder außerdem so klein, dass man solche
Fehler gar nicht mehr erkennen kann. Es kursieren Bilder und Videos im
Netz, bei denen aufgrund der geringen Auflösung nicht mehr eindeutig
geprüft werden kann, ob sie echt sind oder gefälscht. Das macht es schwer,
Fehlinformation von echten Inhalten zu unterscheiden. Bei kriegerischen
Konflikten spielt die Macht von Bildern und die Bedeutung der sozialen
Medien zum Beispiel eine große Rolle und kann eine immense politische
Sprengkraft entwickeln. Auch in diesem Kontext sehen wir neben
herkömmlichen Fakes bereits den Einsatz von KI-generiertem Material.

Treten wir gerade in ein neues Zeitalter der Desinformation ein?

Viele meiner Kolleginnen und Kollegen sagen, wir leben eigentlich schon in
Zeiten von Fake News. Das Problem wird sich verschärfen. Die entscheidende
Frage ist, wer nutzt diese neuen Möglichkeiten? Ich habe weniger Sorge,
dass irgendjemand privat mit ChatGPT oder DALL·E Fehlinformationen streut.
Der- oder diejenige hat selten die Reichweite und auch meist kein
Interesse daran, einen großen Einfluss damit auszuüben. Wir müssen
stattdessen auf die Akteure schauen, die diese Tools für großangelegte
Desinformationskampagnen nutzen, sie gezielt kalibrieren oder sogar eigene
Tools entwickeln, die keine eingebauten Sicherheitsmechanismen besitzen.

Wirklich gefährlich wird es, wenn die großen Player ins Spiel kommen,
vielleicht sogar ein staatlicher Akteur mit einer gewissen politischen
Agenda, in einem nichtdemokratischen Staat. Im Rahmen des russischen
Überfalls auf die Ukraine sehen wir, dass ein großer Aufwand für
prorussische Propaganda betrieben wird. Wieso sollten die dafür
Verantwortlichen nicht auch mit den neuen Tools arbeiten, wenn die es
ermöglichen, schneller zu reagieren und authentisch wirkende Inhalte in
viel größeren Dimensionen zu produzieren? Es wäre naiv zu glauben, dass
diese Möglichkeit nicht genutzt wird.

Kommen die Fact Checker da überhaupt noch hinterher?

Wir wissen, dass menschliche Fact Checker bis zu 24 Stunden brauchen, um
eine Nachricht zu prüfen. In dieser Zeit kann sie längst viral gegangen
sein. Gerade bei aktuellen Krisen ist das rechtzeitige Eindämmen von
Fehlinformationen eine immense Herausforderung. Facebook und Twitter
nutzen inzwischen generative KI, um Fake News automatisiert zu
identifizieren. Momentan wird auch der Einsatz sogenannter Wasserzeichen
diskutiert, anhand derer Plattformen KI-generierte Inhalte erkennen und
rausfiltern können. Dafür müssen die Plattformen mitspielen. Es bringt
nichts, wenn Twitter diese Möglichkeit nutzt, die Fehlinformation dann
aber auf WhatsApp viral geht. Es kann außerdem immer noch Akteure geben,
die sich nicht daran halten und ihre eigene KI ohne Wasserzeichen
programmieren.

Wie kann man der Flut an KI-Fehlinformationen begegnen?

Ich persönlich bin noch viel vorsichtiger geworden bei den Inhalten, die
ich konsumiere. Wir müssen viel mehr aufpassen, was wir lesen, gerade in
den sozialen Netzwerken. Das Problem ist vielen leider noch nicht bewusst.
Wir wissen zwar, dass KI jetzt schöne Texte und Bilder produzieren kann,
aber haben noch nicht auf dem Schirm, wie diese Technologie missbraucht
werden kann.

Die Plattformen müssen in die Pflicht genommen werden, sie sitzen an der
Quelle der Informationen. Wir Nutzerinnen und Nutzer sehen nur die Posts,
aber die Plattformen sehen, ob im Hintergrund irgendein Computerprogramm
diese Inhalte sendet oder ein echter Mensch dahintersteckt. Die Betreiber
der Netzwerke können zudem ihre Mitglieder daran erinnern, Informationen
kritisch zu hinterfragen und zu überprüfen. Plattformen könnten auch viel
mehr tun, um Fake News herauszufiltern - einige bemühen sich, andere
weniger.

Als zweites Standbein müssen wir jeden Einzelnen und die breite
Öffentlichkeit informieren und vorbereiten. Wir brauchen Trainings zu
Medienkompetenz und Digital Literacy, die Desinformationen durch KI
berücksichtigen und sich stetig mit dem technischen Fortschritt
weiterentwickeln.

Und dann stellt sich drittens die Frage, was die Politik tun sollte und
wieviel Regulierung sinnvoll ist. Das ist ein heikles Thema, weil
Reibungspunkte mit dem Recht auf Meinungsfreiheit entstehen können. KI
steht auch im EU-Parlament mittlerweile ganz oben auf der Tagungsordnung.
Ich glaube, wir können relativ zügig gute Lösungen erarbeiten, was
regulatorische Rahmenbedingungen angeht.

Sind wir gewappnet für das, was auf uns zukommt? Wo ist die Forschung
gefragt?

Nein, wir sind nicht ausreichend vorbereitet. Wir haben es mit einer neuen
Technologie zu tun, die wir besser verstehen müssen und da braucht es viel
mehr Grundlagenforschung. Zum Glück wird, nicht zuletzt an der LMU stark
in dem Bereich geforscht. Die Linguistik, die Soziologie, die
Politikwissenschaften und viele weitere Disziplinen beschäftigen sich mit
diesem komplexen Themenbereich. Die Verhaltenswissenschaften arbeiten
daran, überhaupt erst einmal zu verstehen, wie Menschen auf solche
künstlich generierten Informationen reagieren. Die Rechtsfakultät
beschäftigt sich mit den rechtlichen Hürden und balanciert das hohe Gut
der Meinungsfreiheit mit lösungsorientierten, umsetzbaren Ansätzen aus.
Die Informatik muss herausfinden, was technologisch überhaupt machbar ist.
Wir haben hier ein interdisziplinäres Umfeld, wo viele Forschungsbereiche
gemeinsam eine Forschungsagenda entwickeln.