Zum Hauptinhalt springen

Verständliche Einblicke in die KI-Forschung

Professorin Dr. Britta Wrede und Professor Dr. Philipp Cimiano sind im neuen Podcast zu hören.  Foto: M. Adamski  Universität Bielefeld
Professorin Dr. Britta Wrede und Professor Dr. Philipp Cimiano sind im neuen Podcast zu hören. Foto: M. Adamski Universität Bielefeld
Pin It
Professorin Dr. Britta Wrede und Professor Dr. Philipp Cimiano sind im neuen Podcast zu hören.  Foto: M. Adamski  Universität Bielefeld
Professorin Dr. Britta Wrede und Professor Dr. Philipp Cimiano sind im neuen Podcast zu hören. Foto: M. Adamski Universität Bielefeld

Künstliche Intelligenz (KI) begegnet den Menschen in fast allen
Lebensbereichen. KI soll unterstützen, beraten und bei schwierigen
Entscheidungsfindungen objektive und optimierte Lösungsvorschläge liefern.
Wie aber können Menschen nachvollziehen, warum und wie eine KI zu ihrem
jeweiligen Ergebnis gekommen ist? Im Sonderforschungsbereich/ Transregio
(SFB/TRR) 318 der Universitäten Bielefeld und Paderborn beschäftigt sich
ein interdisziplinäres Forschungsteam mit dieser Problematik: Ziel sind
verstehbare Assistenzsysteme. Im neuen Forschungspodcast geben die
Forschenden Einblick in ihre Arbeit und erklären, warum erklärbare KI
einen wichtigen Schritt in die Zukunft der KI-Forschung darstellt.

Wissenschaftler*innen aus sechs Disziplinen – Informatik, Linguistik,
Medienwissenschaft, Psychologie, Soziologie und Wirtschaftswissenschaften
– forschen im SFB an dem Prozess des interaktiven Erklärens und wie dieser
auf KI-Systeme übertragen werden kann. Der Podcast „Explaining
Explainability“ (zu deutsch: Erklärbarkeit erklären) bringt alle
Disziplinen zusammen: Darin spricht Moderatorin Professorin Dr. Britta
Wrede mit jeweils zwei Forschenden aus unterschiedlichen Fachrichtungen
über deren aktuelle Forschung, Herausforderungen, Anwendungsbereiche und
die Relevanz der Erklärbaren KI.

Die erste Episode nähert sich dem Thema Erklärbarkeit aus Perspektiven der
Informatik und der Linguistik. Zu Gast sind die Sprecher*innen des SFB,
Professor Dr. Philipp Cimiano (Informatik) von der Universität Bielefeld
und Professorin Dr. Katharina Rohlfing (Psycholinguistik) von der
Universität Paderborn. Was heißt eigentlich Explainability, warum und in
welchen Bereichen ist sie so wichtig? Wo steht die Forschung aktuell – und
was sind die größten Herausforderungen?

Wie können hochtechnische Abläufe für jeden verständlich dargestellt
werden?
„Was die KI-Forschung im TRR so besonders macht, ist der Fokus auf die
Person, der etwas erklärt wird“, sagt Philipp Cimiano. „Wie lassen sich
hochtechnische Abläufe und Funktionen allgemein verständlich wiedergeben?
Gegensätze, Vergleiche und Abstufungen können hier Licht ins Dunkel
bringen. Wenn wir etwa den Entscheidungsprozess durch ein Maschinen-
gelerntes Modell erklären wollen, dann spielen die Eigenschaften des
Falles in dem eine Entscheidung getroffen wird, sogenannte Features, eine
wichtige Rolle. Die Entscheidung kann dadurch erklärt werden, dass die
Wichtigkeit der einzelnen Features bei der Entscheidung nachvollziehbar
gemacht wird.“ Im Podcast erklären die Wissenschaftler*innen anhand
konkreter Beispiele, worum es bei ihrer Forschung geht und geben Einblicke
in ihren Forschungsalltag.

Die weiteren Episoden folgen im zweimonatigen Rhythmus. In der nächsten
Podcast-Folge wird es um den Prozess der Alltagserklärungen gehen: Was hat
die Linguistik bislang zu den Strukturen von Alltagserklärungen
herausgefunden – und wie kann die Informatik diese Erkenntnisse für das
Design von KI-Systemen weiterverarbeiten?

Der SFB/TRR 318 „Constructing Explainability“
Wie kann KI begreifbar werden? Oft setzen technische Erklärungen Wissen
über die Funktionsweise von KI voraus und sind nur schwer nachvollziehbar.
Im Sonderforschungsbereich/Transregio Constructing Explainability
(Erklärbarkeit konstruieren, SFB/TRR 318) erarbeiten die Forschenden Wege,
die Nutzer*innen in den Erklärprozess einzubinden. Dafür untersucht das
interdisziplinäre Forschungsteam die Prinzipien, Mechanismen und sozialen
Praktiken des Erklärens und wie diese im Design von KI-Systemen
berücksichtigt werden können. Das Ziel des Projektes ist es,
Erklärprozesse verständlich zu gestalten und verstehbare Assistenzsysteme
zu schaffen.
Die Ko-Konstruktion von Erklärungen untersuchen insgesamt 22
Projektleiter*innen mit rund 40 wissenschaftlichen Mitarbeitenden aus
Linguistik, Psychologie, Medienwissenschaft, Soziologie,
Wirtschaftswissenschaft und Informatik der Universitäten Bielefeld und
Paderborn.