Nachvollziehbare KI: Ergebnisse zielgruppengerecht und transparent gestalten

Mit der Verbreitung von Chatbots ist Künstliche Intelligenz (KI) für viele
Menschen greifbar geworden. Wie und warum ChatGPT und andere KI-basierte
Systeme zu ihren Ergebnissen kommen, bleibt für die Nutzenden dabei häufig
undurchsichtig. Was genau passiert in der „Black Box“ zwischen der
Modelleingabe und -ausgabe? Um die Resultate und die Entscheidungsfindung
komplexer KI-Systeme nachvollziehbar zu machen, müssen algorithmische
Entscheidungen erklärbar sein.
So lässt sich die Modellqualität verbessern
und das Vertrauen in KI stärken. Ein aktuelles Whitepaper der Plattform
Lernende Systeme zeigt, mit welchen Methoden KI-Ergebnisse erklärbar
gemacht werden und vermittelt Gestaltungsoptionen.
In vielen KI-Anwendungsgebieten wie der medizinischen Diagnostik, im
Auswahlverfahren bei Bewerbungen oder der Qualitätskontrolle in der
Produktion ist die Nachvollziehbarkeit entscheidend, um die Ergebnisse
einordnen und hinterfragen zu können. So erhalten Entwicklerinnen und
Entwickler Informationen, um KI-Systeme zu verbessern, und Nutzende können
in Erfahrung bringen, welche Faktoren für die Zu- oder Absage einer
Bewerbung entscheidend waren.
Die Forschung zum Thema Erklärbare KI (englisch: XAI) adressiert dabei
hauptsächlich zwei Bereiche: Der erste konzentriert sich auf die
Verbesserung von Daten und Modellen. In der Praxis werden XAI-Methoden
häufig von KI-Ingenieurinnen und -Ingenieuren verwendet, um KI-Modelle vor
ihrer Implementierung zu testen und um die Qualität von KI-Modellen zu
verbessern. Der zweite Bereich beschäftigt sich mit den ethischen
Kriterien für verantwortungsvolle KI. Sie dienen dazu, den Nutzenden
Erklärungen zu liefern und damit Transparenz und Vertrauen in die
Technologie zu ermöglichen.
Mit XAI Vertrauen stärken und Qualität verbessern
Transparenz ist besonders dann relevant, wenn maschinelles Lernen in
gesellschaftlichen Bereichen eingesetzt wird, in denen Vertrauen in
Personen, Institutionen oder Technologien besonders wichtig ist –wenn es
etwa um die Sicherheit von Menschen geht. In Unternehmen wiederum kann das
Wissen über das „Warum“ von KI-gestützten Vorhersagen wichtige
Erkenntnisse für die Geschäftsentwicklung liefern oder zur Verbesserung
von Produktionsprozessen beitragen. Zusätzlich ist Erklärbarkeit ein
wichtiges Kriterium bei der Einführung von KI-Technologie im Unternehmen
und für eine menschengerechte Gestaltung der KI-unterstützten Arbeitswelt.
Die Anforderungen und Erwartungen an XAI können dementsprechend sehr
unterschiedlich ausfallen. Anhand von sieben verschiedenen Personengruppen
– von KI-Spezialisten bis hin zu technisch unerfahrenen Nutzenden – zeigt
das neue Whitepaper der Plattform Lernende Systeme, wie individuelle
Rahmenbedingungen die Formen und Methoden der Erklärbarkeit beeinflussen.
"Erklärbare KI ist ein wichtiger Baustein für die Transparenz von KI-
Systemen und die Möglichkeit, nachzuvollziehen, aufgrund welcher
Information ein KI-System zu einer bestimmten Ausgabe gekommen ist", so
Prof. Dr. Ute Schmid, Inhaberin des Lehrstuhls für Kognitive Systeme an
der Otto-Friedrich-Universität Bamberg sowie Co-Autorin des neuen
Whitepapers der Plattform Lernende Systeme. "Nachvollziehbarkeit ist auch
eine wesentliche Voraussetzung für menschliche Kontrolle und Aufsicht.
Durch die Kombination von erklärbarer KI und interaktivem maschinellen
Lernen können Modelle durch Rückmeldung gezielt verbessert werden. So
können maschinelles Lernen und menschliche Expertise sinnvoll
zusammenspielen."
Die Frage nach dem „wie“ und „warum“ KI-Anwendungen zu ihren Ergebnissen
kommen, eine Chatbot-Eingabe zu einer bestimmten Wortfolge führt oder ein
Bildgenerator genau dieses und kein anderes Bild erstellt, kann mittels
erklärbarer KI beantwortet werden: XAI-Methoden können helfen,
Rückschlüsse auf die Qualität der Datenbasis zu ziehen, indem untersucht
wird, wie stark welche Merkmale die Modellausgabe beeinflussen. Sie können
im Modell Einblicke in künstliche neuronale Netzwerke gewähren, in dem sie
Aufschluss über die Funktion bestimmter Bestandteile geben. XAI-Methoden
helfen dabei, herauszufinden welche Merkmale der Daten dafür
verantwortlich sind, dass eine bestimmte Vorhersage oder Klassifikation
berechnet wird.
Forschung zu XAI-Methoden weiterentwickeln
Die Autorinnen und Autoren des Whitepapers weisen darauf hin, dass XAI –
sowohl als Basis für vertrauenswürdige KI als auch als Werkzeug zur
Verbesserung von Modellen – in der öffentlichen Diskussion als Chance
begriffen werden sollte. Um die weitere Entwicklung dieser KI-Technologie
voranzutreiben und ihr Potenzial noch besser auszuschöpfen, werden
allgemeine sowie speziell auf die Zielgruppenorientierung ausgerichtete
Gestaltungsoptionen vorgeschlagen. So sollte die Forschung etablierte
Methoden verbessern und XAI-Methoden für neue Arten von KI
weiterentwickeln. Möglich sind Instrumente zur Inspizier- und
Kontrollierbarkeit großer KI-Modelle oder Standardwerkzeugkästen für eine
Modellkorrektur auch ohne erneutes Training. In der Lehre sollte XAI im
Sinne eines Engineering-Tools stärker in KI- und Data-Science-
Studiengängen verankert werden. Unternehmen könnten vermehrt auf XAI
setzen, um beispielsweise interne Kommunikationshürden abzubauen und sich
von Wettbewerbern abzugrenzen.
Über das Whitepaper
Das Whitepaper „Nachvollziehbare KI: Erklären, für wen, was und wofür"
wurde von Mitgliedern der Arbeitsgruppe „Technologische Wegbereiter und
Data Science“ der Plattform Lernende Systeme verfasst. Es steht zum
kostenfreien Download bereit.
Ein Interview mit Wojciech Samek, Mit-Autor des Whitepapers und Mitglied
der Plattform Lernende Systeme, steht zur redaktionellen Verwendung zur
Verfügung.
Über die Plattform Lernende Systeme
Die Plattform Lernende Systeme ist ein Netzwerk von Expertinnen und
Experten zum Thema Künstliche Intelligenz (KI). Sie bündelt vorhandenes
Fachwissen und fördert als unabhängiger Makler den interdisziplinären
Austausch und gesellschaftlichen Dialog. Die knapp 200 Mitglieder aus
Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen
Positionen zu Chancen und Herausforderungen von KI und benennen
Handlungsoptionen für ihre verantwortliche Gestaltung. Damit unterstützen
sie den Weg Deutschlands zu einem führenden Anbieter von
vertrauenswürdiger KI sowie den Einsatz der Schlüsseltechnologie in
Wirtschaft und Gesellschaft. Die Plattform Lernende Systeme wurde 2017 vom
Bundesforschungsministerium auf Anregung von acatech – Deutsche Akademie
der Technikwissenschaften gegründet und wird von einem Lenkungskreis
gesteuert. Die Leitung der Plattform liegt bei Dorothee Bär
(Bundesministerin für Forschung, Technologie und Raumfahrt) und Jan Wörner
(Präsident acatech).
Originalpublikation:
https://www.plattform-lernende
systeme.de/files/Downloads/Pub
- Whitepaper "Nachvollziehbare KI: Erklären, für wen, was und wofür"