Pin It
Prof. Dr. Urs Gasser  Andreas Heddergott / TUM
Prof. Dr. Urs Gasser Andreas Heddergott / TUM

Die Entwicklung Künstlicher Intelligenz ist außer Kontrolle geraten,
finden rund 3.000 Unterzeichner:innen eines offenen Briefs aus Wirtschaft
und Wissenschaft. Sie fordern eine Pause beim Training besonders
leistungsfähiger KI-Systeme. Prof. Urs Gasser, Experte für die Governance
digitaler Technologien an der Technischen Universität München (TUM),
erklärt, von welchen wichtigen Fragen der Brief ablenkt, warum ein „KI-
TÜV“ sinnvoll wäre und wie weit die EU im Vergleich mit den USA bei der
Regulierung ist.

Künstliche Intelligenzen (KI), die mit der Intelligenz des Menschen
konkurrenzfähig sind, könnten schwerwiegende Risiken für Gesellschaft und
Menschheit bergen, schreiben die Autor:innen des offenen Briefs. Deshalb
sollten mindestens ein halbes Jahr lang keine Technologien
weiterentwickelt werden, die leistungsfähiger sind als der kürzlich
vorgestellte GPT-4, Nachfolger des Sprachmodells ChatGPT. In dieser Zeit
sollten mit unabhängigen Expert:innen Sicherheitsregeln eingeführt werden.
Falls KI-Labore nicht freiwillig eine Pause einlegen, solle sie von
Regierungen angeordnet werden.

Professor Gasser, unterstützen Sie die geforderte Notbremse?

Leider absorbiert der offene Brief sehr viel Aufmerksamkeit, die bei
anderen Fragen der KI-Debatte besser investiert wäre. Richtig ist, dass
heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so
trainieren kann, dass sie in jedem Fall zuverlässig, hilfreich, ehrlich
und harmlos sind. Eine Pause beim Training von KI hilft diesem Ziel
allerdings nicht. Allein schon, weil sich ein solches Moratorium nicht
global durchsetzen ließe und die geforderten Regulierungen nicht innerhalb
von nur sechs Monaten eingeführt werden könnten. Ich bin überzeugt, dass
es eine schrittweise Weiterentwicklung von Technologien und parallel dazu
die Anwendung und Anpassung von Kontrollmechanismen braucht.

Wovon lenkt die Forderung nach einer Entwicklungspause ab?

Erstens malt der offene Brief erneut das Schreckgespenst einer
menschenähnlichen Künstlichen Intelligenz an die Wand, einer sogenannten
Artificial General Intelligence. Das lenkt von einer ausgewogenen
Diskussion der Risiken und Chancen derjenigen Technologien ab, die derzeit
auf den Markt kommen. Zweitens bezieht sich das Papier dann auf zukünftige
Nachfolgemodelle von GPT-4. Das lenkt davon ab, dass uns schon der
Vorgänger ChatGPT vor wesentliche Probleme stellt, die wir dringend
angehen sollten – beispielsweise Falschinformationen oder Vorurteile,
welche die Maschinen replizieren und groß skalieren. Und drittens lenkt
die spektakuläre Forderung davon ab, dass wir bereits jetzt Instrumente
zur Hand haben, mit denen wir die Entwicklung und den Einsatz von KI
regulieren können.

Wonach könnte sich eine Regulierung richten, welche Instrumente gibt es?

In den letzten Jahren wurden intensiv ethische Prinzipien entwickelt,
welche die Entwicklung und Anwendung von KI leiten sollen. Diese wurden in
wichtigen Bereichen auch durch technische Standards und „Best Practices“
ergänzt. Namentlich die OECD-Grundsätze zu Künstlicher Intelligenz
verbinden ethische Prinzipien mit mehr als 400 konkreten Werkzeugen. Auch
die US-Standardisierungsbehörde NIST hat eine 70-seitige Richtlinie
erlassen, wie Verzerrungen in KI-System entdeckt und bearbeitet werden
können. Im Bereich Sicherheit von großen KI-Modellen sehen wir neue
Methoden wie „Constitutional AI“, mit der ein KI-System vom Menschen
Prinzipien des guten Verhaltens „lernt“ und dann die Ergebnisse einer
anderen KI-Anwendung überwachen kann. Gerade bei Sicherheit, Transparenz
und Datenschutz gibt es inzwischen große Fortschritte und sogar
spezialisierte Prüfunternehmen. Jetzt kommt es darauf an, ob und wie
solche Instrumente auch eingesetzt werden. Nochmals das Beispiel ChatGPT:
Werden die Chatverläufe der Benutzer:innen für das iterative Training in
das Modell aufgenommen? Sind Plug-ins erlaubt, welche die Interaktion
zwischen Nutzer:innen, Kontakte oder andere persönliche Daten aufzeichnen
könnten? Dass hier vieles noch unklar ist, zeigt das einstweilige Verbot
und die Eröffnung einer Untersuchung gegen den Entwickler von ChatGPT
durch die italienische Datenschutzbehörde.

Der offene Brief fordert, dass KI-Systeme erst dann entwickelt werden,
wenn wahrscheinlich ist, dass sie positive Effekte haben und ihre Risiken
handhabbar sind. Zu welchem Entwicklungszeitpunkt könnte man die Wirkungen
einer KI so gut vorhersagen, dass eine solche Regulierung Sinn macht?

Aus der Technikgeschichte wissen wir, dass der „gute“ oder „schlechte“
Einsatz von Technologien schwer voraussehbar ist, ja dass Technologien oft
beides mit sich bringen und Negatives auch unbeabsichtigt sein kann. Statt
auf einen bestimmten Zeitpunkt der Prognose abzustellen, braucht es zwei
Dinge: Erstens, müssen wir uns fragen, welche Anwendungen wir
gesellschaftlich nicht wollen, selbst wenn sie möglich wären. Hier braucht
es klare rote Linien und Verbote. Ich denke an autonome Waffensysteme als
Beispiel. Zweitens brauchen wir von der Entwicklung bis hin zur Nutzung
ein flächendeckendes Risikomanagement, wobei die Anforderungen daran
steigen, je größer die potenziellen Risiken einer Anwendung für Mensch und
Umwelt sind. Diesem Ansatz folgt zu Recht auch der europäische
Gesetzgeber.

Unabhängige Expert:innen sollten die Risiken von KI beurteilen, so der
Vorschlag.

Solche unabhängigen Prüfungen sind ein sehr wichtiges Instrument, gerade
bei Anwendungen, die erheblichen Einfluss auf Menschen haben können. Das
ist im Übrigen keine neue Idee: Von KFZ-Zulassungsverfahren bis TÜV und
Buchprüfung haben wir in verschiedensten Lebensbereichen solche
Prüfungsverfahren und Instanzen im Einsatz. Bei bestimmten KI-Methoden und
-Anwendungen ist die Herausforderung allerdings ungleich größer, auch weil
sich gewisse Systeme mit der Anwendung selbst weiterentwickeln, also
dynamisch sind. Daneben ist es wichtig zu sehen, dass Expert:innen allein
nicht alle gesellschaftlichen Wirkungen gut bewerten können. Wir brauchen
auch neuartige Mechanismen, die etwa benachteiligte und
unterrepräsentierte Gruppen in die Diskussion um KI-Folgen miteinbezieht.
Das ist keine leichte Aufgabe, für die ich mir mehr Aufmerksamkeit
wünschen würde.

Auch die Politik wird von den Autor:innen angesprochen. Sie müsste ja
einen solchen „KI-TÜV“ verankern.

In der Tat brauchen wir klare Spielregeln für Künstliche Intelligenz. Auf
EU-Ebene wird derzeit das KI-Gesetz finalisiert, mit dem gewährleistet
werden soll, dass die Technologien sicher sind und die Grundrechte wahren.
Der Entwurf sieht die Einstufung von KI-Technologien nach ihrem Risiko für
diese Prinzipien vor, mit der möglichen Konsequenz von Verboten oder
Transparenzpflichten. Geplant ist zum Beispiel das Verbot, Privatpersonen
in ihrem Sozialverhalten zu bewerten, wie wir es aus China kennen. In den
USA ist der politische Prozess im Kongress auf diesem Gebiet blockiert. Es
wäre hilfreich, wenn sich die prominenten Brief-Autor:innen dafür
einsetzen, dass der US-Gesetzgeber auf Bundesebene ähnlich aktiv wird,
statt zu fordern, die Technologieentwicklung vorübergehend zu stoppen.

Zur Person:
Prof. Dr. Urs Gasser leitet seit 2021 den Lehrstuhl für Public Policy,
Governance and Innovative Technology an der Technischen Universität
München (TUM). Er ist Dekan der TUM School of Social Sciences and
Technology und Rektor der Hochschule für Politik München (HfP) an der TUM.
Zuvor war er Executive Director des Berkman Klein Center for Internet &
Society an der Harvard University und Professor an der dortigen Harvard
Law School.