Mehr Chancen als Bedrohungen: Künstliche Intelligenz bei Wahlen
Künstliche Intelligenz (KI) begegnet uns in allen Lebensbereichen – auch
bei demokratischen Wahlen. KI-gesteuerte Social Bots in den sozialen
Medien oder Deepfakes haben das Ziel, die Wahlentscheidung zu
beeinflussen. Andererseits können KI-Systeme individuelle Wahlempfehlungen
geben und Fake News auffinden. Welche KI-Anwendungen bei Wahlen zum
Einsatz kommen können und wo ihre Potenziale und Herausforderungen liegen,
untersuchen Expertinnen und Experten der Plattform Lernende Systeme in
einem aktuellen Whitepaper. Ihr Fazit: Eine Bedrohung für Wahlen geht von
KI-Systemen kaum aus. Vielmehr überwiegen die Chancen, mit KI eine offene
Meinungsbildung im Vorfeld von Wahlen zu stärken.
München, 08. September 2021 – Falschnachrichten oder
Desinformationskampagnen erschweren die Meinungsbildung im Vorfeld von
Wahlen. Mithilfe von Künstlicher Intelligenz lassen sich diese
Informationen insbesondere in den sozialen Medien effizienter und
zielgerichteter verbreiten. Die Manipulation von Wahlen durch KI-Systeme
gehöre deshalb zu den gesellschaftlich immer wieder geäußerten
Befürchtungen, heißt es in dem Whitepaper „KI-Systeme und die individuelle
Wahlentscheidung. Chancen und Herausforderungen für die Demokratie“.
Für den Wahlprozess selbst gehen nach Ansicht der Autorinnen und Autoren
bislang keine Gefahren von KI-Systemen aus. „Insbesondere die Stimmabgabe
ist in Deutschland durch den Verzicht auf Wahlcomputer und ähnliche
Technik sehr sicher. Vereinzelt mögliche Angriffe auf die Auswertung der
Stimmen haben nichts mit KI zu tun. Wo KI Risiken birgt, ist im Wahlkampf
und für die Meinungsbildung vor Wahlen“ sagt Tobias Matzner, Professor für
Medien, Algorithmen und Gesellschaft an der Universität Paderborn und
Mitglied der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der
Plattform Lernende Systeme.
Risiken für die Meinungsbildung
Eines der Risiken besteht in der KI-getriebenen Verbreitung von
Informationen. KI-Systeme können Fake-Accounts in den sozialen Medien
betreiben, die Inhalte mit Likes versehen oder teilen und ihr
manipulatives Verhalten so aussehen lassen, als stamme es von einem
Menschen. Auf diese Weise verhelfen die sogenannten Social Bots
Falschinformationen oder bestimmten Personen zu großer Reichweite. Beim
sogenannten Microtargeting werden mithilfe von KI-Verfahren Nutzerdaten
ausgewertet und – ähnlich wie in der Werbung – verschiedene Zielgruppen
mit personalisierten Informationen angesprochen. Inwieweit auf diese Weise
die Wahlentscheidung beeinflusst werden kann, ist allerdings noch nicht
geklärt. Auch mit KI gefälschte Videos und Bilder können auf die
Meinungsbildung der Wahlberechtigten einwirken. Einmal enttarnt, sind KI-
Systeme allerdings auch dazu in der Lage, diese Deepfakes zu finden und zu
löschen.
Neben den Deepfakes kann auch weiteren Risiken mithilfe von KI-
Instrumenten begegnet werden. „Insbesondere im Vorfeld von Wahlen steigt
die Gefahr von absichtlich eingesetzten Desinformationskampagnen im
Internet, um irreführende Informationen zu verbreiten. Zur Verstärkung
werden häufig Social Bots eingesetzt. Trotzdem können gerade KI-Systeme
einen ersten wertvollen Beitrag für die Detektion von Falschnachrichten
leisten“, sagt Jessica Heesen, Medienethikerin an der Eberhard Karls
Universität Tübingen und Leiterin der Arbeitsgruppe „IT-Sicherheit,
Privacy, Recht und Ethik“ der Plattform Lernende Systeme. Zu einseitigen
Inhalten oder in algorithmischen Filterblasen können zudem alternative
Links und Gegenargumente bereitgestellt werden.
Mit KI die Wählerinformation verbessern
In politischen Prozessen fallen heute großen Mengen an Daten an, die sich
mithilfe von KI-Methoden auswerten lassen. Die Autorinnen und Autoren des
Whitepapers betonen das Potenzial der KI-basierten Datenanalyse, um die
Wählerinformation und -mobilisierung zu verbessern. Dies sei noch nicht
ausgeschöpft. Als Beispiel nennt das Whitepaper Wahlempfehlungs-Apps wie
den Wahl-O-Mat. Aktuelle Anwendungen könnten mithilfe von KI-Methoden die
individuellen Einstellungen der Menschen stärker berücksichtigen und ihre
Empfehlungen mit jeder Nutzung verbessern. Auch Wahlkampf-Apps der
Parteien sowie Wahlprognosen können von KI profitieren.
Damit die Chancen von KI-Systemen für eine offene Meinungsbildung
realisiert und Risiken abgeschwächt werden können, adressieren die
Autorinnen und Autoren Gestaltungsoptionen. So empfehlen sie,
Microtargeting gesetzlich weiter einzuschränken, etwa durch eine
Kennzeichnungspflicht. Zur konsequenten Verfolgung von Straftaten in den
sozialen Medien fordern die Expertinnen und Experten,
Strafverfolgungsbehörden und Justiz personell besser auszustatten. Zudem
müssen die Kompetenzen der Menschen zur Bewertung von Informationen im
Internet gestärkt werden.
Über das Whitepaper
Das Whitepaper „KI-Systeme und die individuelle Wahlentscheidung. Chancen
und Herausforderungen für die Demokratie“ wurde von Expertinnen und
Experten der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der
Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download
zur Verfügung.
Über die Plattform Lernende Systeme
Die Plattform Lernende Systeme wurde 2017 vom Bundesministerium für
Bildung und Forschung (BMBF) auf Anregung des Fachforums Autonome Systeme
des Hightech-Forums und acatech gegründet. Sie vereint Expertinnen und
Experten aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft aus
dem Bereich Künstliche Intelligenz. In Arbeitsgruppen entwickeln sie
Handlungsoptionen und Empfehlungen für den verantwortlichen Einsatz von
Lernenden Systemen. Ziel der Plattform ist es, als unabhängiger Makler den
gesellschaftlichen Dialog zu fördern, Kooperationen in Forschung und
Entwicklung anzuregen und Deutschland als führenden Technologieanbieter
für Lernende Systeme zu positionieren. Die Leitung der Plattform liegt bei
Bundesministerin Anja Karliczek (BMBF) und Karl-Heinz Streibich (Präsident
acatech).
Originalpublikation:
AG3_WP_KI_und_Wahlen.pdf - Das Whitepaper "KI-Systeme und die individuelle
Wahlentscheidung" der Plattform Lernende Systeme
- Aufrufe: 24