„KI Lectures“: Die Frage nach der Verantwortung
• LMU-Forscherinnen und -Forscher diskutieren im Rahmen der KI
Lectures ethische Herausforderungen durch Künstliche Intelligenz.
• Im Zentrum der Veranstaltung stand die Frage, wer Verantwortung
für KI-gesteuerte Handlungen trägt und was vertrauenswürdige KI ausmacht.
• An KI selbst kann Verantwortung nicht delegiert werden, da sie
durch Algorithmen gesteuert ist und keine eigenen Entscheidungen trifft.
Stattdessen sollte von Verantwortungsdiffusion und kollektiver
Verantwortung gesprochen werden.
Im Rahmen der virtuellen Veranstaltungsreihe „KI Lectures“ an der LMU
diskutierten LMU-Wissenschaftlerinnen und -Wissenschaftler über ethische
Aspekte von Künstlicher Intelligenz. Zentrales Thema war dabei die Frage
nach der Verantwortung. Um sie beantworten zu können, ist es hilfreich,
sich mit dem Unterschied zwischen Mensch und Maschine aus philosophischer
Sicht auseinanderzusetzen, wie Timo Greger, Wissenschaftlicher Koordinator
an der Fakultät für Philosophie, Wissenschaftstheorie und
Religionswissenschaft, ausführte. „Zusammenfassend kann man sagen, wir
Menschen sind von Gründen geleitet. Eine KI dagegen ist durch Algorithmen
gesteuert“, so Greger. „Dieser kategoriale Unterschied hilft, einordnen zu
können, wer in gewissen Fällen die Verantwortung trägt, etwa bei
Diskriminierungen oder Fehlverhalten durch Künstliche Intelligenz.“
Im Zusammenhang mit KI kommt die Frage nach der Verantwortung vor allem
dann auf, wenn es um die Folgen ihres Einsatzes geht, insbesondere wenn
Fehler eintreten. Die mit einem Forschungspreis ausgezeichnete Absolventin
Felicia Kuckertz diskutierte dieses Thema im Kontext von Militärrobotern
und anderen vollautonomen Systemen. „Um Verantwortung tragen zu können,
muss ein Subjekt im klassischen Sinne handlungsfähig sein, also
Entscheidungen treffen können“, so Kuckertz. Ihrer Ansicht nach trifft all
dies auf eine KI nicht zu, deshalb lasse sich eine Verantwortung für das
Verhalten nicht an die KI selbst delegieren. Stattdessen sieht sie
verschiedene Instanzen in der Verantwortung, zu denen unterschiedliche
Personengruppen gehören, etwa Entwickler, Hersteller sowie politische und
gesellschaftliche Akteure.
Damit möglichst wenig Fehler beim Einsatz etwa von autonomen Fahrzeugen
oder Pflegerobotern auftreten, muss KI-gesteuerte Software
vertrauenswürdig sein. Fiorella Battaglia, Privatdozentin am Lehrstuhl für
Philosophie und politische Theorie, führte aus, dass dieser Begriff mit
normativen Erwartungen verbunden ist: „Vertrauenswürdige KI zeichnet sich
durch drei Komponenten aus: Sie sollte rechtmäßig, ethisch und robust
sein.“ In der Praxis könne es allerdings zu Spannungen kommen, etwa weil
das System nicht durchschaubar ist oder es zu Diskriminierungen führt.
Die Vorträge und die Diskussion, moderiert von Prof. Dr. Dr. h.c. Martin
Wirsing, Professor für Informatik und Experte im Bereich Programmierung,
Softwaretechnik und -Entwicklung, sind ab sofort auf dem Youtube-Kanal der
LMU unter https://youtu.be/m8vPb96ZXrs zu finden.
