Zum Hauptinhalt springen

Künstliche Intelligenz: Die Gesellschaft muss sich entscheiden

Die Informatikerin Professor Alke Martens beschäftigt sich an der Universität Rostock mit ethischen Fragen bei der KI-Anwendung im Alltag.  Joachim Mangler  Universität Rostock
Die Informatikerin Professor Alke Martens beschäftigt sich an der Universität Rostock mit ethischen Fragen bei der KI-Anwendung im Alltag. Joachim Mangler Universität Rostock
Pin It
Die Informatikerin Professor Alke Martens beschäftigt sich an der Universität Rostock mit ethischen Fragen bei der KI-Anwendung im Alltag.  Joachim Mangler  Universität Rostock
Die Informatikerin Professor Alke Martens beschäftigt sich an der Universität Rostock mit ethischen Fragen bei der KI-Anwendung im Alltag. Joachim Mangler Universität Rostock

„Zentrum für Künstliche Intelligenz in MV“ an der Universität Rostock
forscht im internationalen Verbund.
Experten und Sozialwissenschaftler sind sich einig: Die Künstliche
Intelligenz (KI) wird das Leben der Gesellschaften verändern. Die Frage
ist, in welchem Maße das geschehen wird und wer darüber zu entscheiden
hat. Mit dieser Problematik beschäftigt sich das „Zentrum für Künstliche
Intelligenz in MV“. Die Informatikerin Professor Alke Martens, die sich
mit ethischen Fragen bei der KI-Anwendung im Alltag auseinandersetzt,
begleitet mit ihrer Forschung den Wandel der Gesellschaft.

Zunächst sei es wichtig, zwischen der sogenannten schwachen und starken KI
zu unterscheiden. „Bei der schwachen KI geht es um Anwendungen, die
beispielsweise in die Industrie transferiert werden können“, sagt Martens.
Dort arbeiten Computer mit großen Datenmengen und erledigen Dinge, zu
denen Menschen zwar befähigt sind, für die Erledigung aber im Gegensatz zu
den Maschinen riesige Zeiträume benötigten. Diese Methoden seien heute
schon vielfach etabliert, wenn es beispielsweise um die Beurteilung von
Herzfunktionen oder die Entdeckung eines Tumors geht. „Der Vorteil ist,
dass die KI auch so kleine Abweichungen von der Norm erkennen kann, die
einem Menschen möglicherweise verborgen bleiben“, sagt Martens. Die
Anwendungen solcher Methoden seien künftig auch für kleinere Unternehmen
essentiell, wenn sie im Wettbewerb mit den so genannten Big Playern
mithalten wollen. „Hier kann das Zentrum für Künstliche Intelligenz der
Universität Rostock beratend zur Seite stehen.“

Im Umgang mit der starken KI haben sich Forscher dagegen die Aufgabe
gestellt, menschenähnliches Verhalten nachzuvollziehen. Das sei im Moment
in seiner ganzen Dimension noch nicht fassbar, erklärt Martens. „Denn die
reale Welt lässt sich nicht in Strukturen fassen, die von einer KI
verarbeitet werden können. Sie besteht aus Ungenauigkeiten oder
Abschätzungen, aus persönlichen Erfahrungen und
Wahrnehmungsabschweifungen. Das alles kann eine KI nicht – noch nicht “.

Die Komplexität lasse sich gut am Beispiel der Pflege von dementen
Menschen darstellen, angesichts des ungeheuren Personalaufwands ein
weltweit großes Forschungsgebiet. Gibt es Möglichkeiten, pflegerische
Handlungen von einer Maschine erledigen zu lassen? So könne ein Roboter
problemlos zu einer bestimmten Uhrzeit Tabletten anbieten, das sei ein
einfacher Erinnerungsvorgang. „Aber überprüfen, ob die Tablette
tatsächlich eingenommen oder die Toilette hinuntergespült wurde, liegt
außerhalb der KI-Kompetenz“, sagt Martens. Genauso könne ein Roboter gut
aufzeichnen, ob sich ein Patient die Zähne geputzt hat. Aber
kontrollieren, ob die Qualität des Putzens ausreichend war, kann er nicht.
Gerade in der Pflege gebe es unendlich viele nicht standardisierbare
Fälle, die die KI nicht auflösen kann.

Ein anderes Beispiel für eine nur scheinbar einfache Anwendung von KI sei
die gesprochene Sprache. „Das machen schon die Unterschiede zwischen Hoch-
und Süddeutsch deutlich“, sagt die Informatikerin. So lasse die kurze
Antwort „gut“ eines eher wortkargen, weniger emotionalen Norddeutschen
völlig andere Schlüsse zu als die gleiche Replik des Süddeutschen. Das
einfache Sprachbeispiel zeige die Komplexität. Bei allen Tätigkeiten des
Alltags, bei denen es um Intuition oder Kreativität geht, sei die
Informatik noch sehr am Anfang.

Die Lösung sei, Computer mit Hilfe von neuronalen Netzen und einer
Vielzahl von Algorithmen immer weiter zu trainieren. „Wie das Ergebnis
entstanden ist, kann ein Mensch nicht mehr nachvollziehen, da hat sich der
Computer selbst feinjustiert.“ Je mehr der Mensch auch kleinste Dinge beim
Programmieren der Trainingsdaten übersieht, umso schlechter sei am Ende
die KI. „Hier greift die Ethik: Denn am Ende muss immer der Mensch
beurteilen, ob die Ergebnisse der KI korrekt sind.“

An diesem Punkt würden die Gefahren deutlich. Vielen Menschen fehle die
ausreichende Distanz zum Computer, wie der Umgang mit den Smartphones oft
beweise. Es sei unglaublich schwierig zu beurteilen, wie sicher die Daten
sind, die eine Software liefert. „Uns fehlt oft die nötige intellektuelle
Distanz.“ Ein Problem sei, dass die KI immer sage, dass ihre Antwort
perfekt sei. „Zweifel gibt es nicht.“ Dabei gebe es genügend
Fragestellungen, die die KI nicht beantworten kann. Gerade in der Politik
werde es heikel, wenn bei den Inhalten nicht mehr zwischen Realität und KI
unterschieden werden kann.
Es müsse also genau darauf geschaut werden, wer die KI trainiert und mit
welchen Inhalten, fordert Martens. „Wem möchten wir die Macht geben?“ Die
Gesellschaften müssten sich entscheiden. Das Zentrum für künstliche
Intelligenz in MV sei breit genug aufgestellt, um sich an den
internationalen Forschungen zu beteiligen.