Künstliche Intelligenz (KI) begegnet den Menschen mittlerweile in fast allen Lebensbereichen. KI soll unterstützen, beraten und bei schwierigen Entscheidungsfindungen objektive und optimierte Lösungsvorschläge liefern. Wie aber können Menschen nachvollziehen, warum und wie eine KI zu ihrem jeweiligen Ergebnis gekommen ist? Im Sonderforschungsbereich/ Transregio (SFB/TRR) 318 der Universitäten Bielefeld und Paderborn beschäftigt sich ein interdisziplinäres Forschungsteam mit dieser Problematik: Ziel sind verstehbare Assistenzsysteme, die beispielsweise Rückfragen der Nutzer*innen beantworten und passgenaue Erklärungen liefern können. Im neuen Forschungspodcast geben die Forschenden Einblick in ihre Arbeit und erklären, warum erklärbare KI einen wichtigen Schritt in die Zukunft der KI-Forschung darstellt.
Wissenschaftler*innen aus sechs Disziplinen – Informatik, Linguistik, Medienwissenschaft, Psychologie, Soziologie und Wirtschaftswissenschaften – forschen im SFB an dem Prozess des interaktiven Erklärens und wie dieser auf KI-Systeme übertragen werden kann. Der Podcast „Explaining Explainability“ (zu deutsch: Erklärbarkeit erklären) bringt alle Disziplinen zusammen: Darin spricht Moderatorin Professorin Dr. Britta Wrede mit jeweils zwei Forschenden aus unterschiedlichen Fachrichtungen über deren aktuelle Forschung, Herausforderungen, Anwendungsbereiche und die Relevanz der Erklärbaren KI.
Die erste Episode, deren redaktionelles Konzept im Rahmen einer Masterarbeit im Studiengang Interdisziplinäre Medienwissenschaft entstanden ist, nähert sich dem Thema Erklärbarkeit aus Perspektiven der Informatik und der Linguistik. Zu Gast sind die Sprecher*innen des SFB, Professor Dr. Philipp Cimiano (Informatik) von der Universität Bielefeld und Professorin Dr. Katharina Rohlfing (Psycholinguistik) von der Universität Paderborn. Was heißt eigentlich Explainability, warum und in welchen Bereichen ist sie so wichtig? Wo steht die Forschung aktuell – und was sind die größten Herausforderungen?
Wie können hochtechnische Abläufe für jeden verständlich dargestellt werden?
„Was die KI-Forschung im TRR so besonders macht, ist der Fokus auf die Person, der etwas erklärt wird“, sagt Philipp Cimiano. „Wie lassen sich hochtechnische Abläufe und Funktionen allgemein verständlich wiedergeben? Gegensätze, Vergleiche und Abstufungen können hier Licht ins Dunkel bringen. Wenn wir etwa den Entscheidungsprozess durch ein Maschinen-gelerntes Modell erklären wollen, dann spielen die Eigenschaften des Falles in dem eine Entscheidung getroffen wird, sogenannte Features, eine wichtige Rolle. Die Entscheidung kann dadurch erklärt werden, dass die Wichtigkeit der einzelnen Features bei der Entscheidung nachvollziehbar gemacht wird.“ Im Podcast erklären die Wissenschaftler*innen anhand konkreter Beispiele, worum es bei ihrer Forschung geht und geben Einblicke in ihren Forschungsalltag.
Die weiteren Episoden, ebenfalls Teil des Masterprojekts, folgen im zweimonatigen Rhythmus. In der nächsten Podcast-Folge wird es um den Prozess der Alltagserklärungen gehen: Was hat die Linguistik bislang zu den Strukturen von Alltagserklärungen herausgefunden – und wie kann die Informatik diese Erkenntnisse für das Design von KI-Systemen weiterverarbeiten?