Neue For­schungs­grup­pe zu Er­klär­ba­rer Künst­li­cher In­tel­li­genz und de­ren Ein­fluss auf mensch­li­ches Ver­trau­en

Die Universität Bielefeld fördert für drei Jahre eine neue unabhängige Forschungsgruppe zu Erklärbarer Künstlicher Intelligenz und ihren Auswirkungen auf eine übermäßige Abhängigkeit von KI-gestützter Entscheidungsfindung. Die Gruppe „Human-Centric Explainable AI“ („Menschenzentrierte Erklärbare KI“) wird von Dr. David Johnson, Informatiker an der Universität Bielefeld, am CITEC geleitet und ergänzt die Arbeit des TRR 318. Die Universitäten Paderborn und Bielefeld unterstützen mit den „Independent Research Groups“ herausragende Nachwuchsforschende in ihrer Karriere.

Die Gruppe steht in direktem Zusammenhang mit dem TRR-Schwerpunkt der Ko-Konstruktion von Erklärungen, indem sie Theorien dazu entwickelt, wie Menschen Erklärungen von KI-Systemen verarbeiten und welche Arten von Erklärungen am besten geeignet sind, eine übermäßige Abhängigkeit von KI-Empfehlungen zu verringern. Wie der TRR verfolgt die Gruppe einen interdisziplinären Ansatz an der Schnittstelle zwischen Informatik (XAI), Psychologie (Beurteilung der psychischen Gesundheit) und Mensch-Maschine-Interaktion (menschzentriertes XAI-Design).

Innovationen im Bereich der KI seien wegweisend für die Verbesserung der Entscheidungsfindung in Bereichen wie der Beurteilung der psychischen Gesundheit, erläutert Johnson: „KI-Lösungen sind jedoch nicht perfekt und können in ihrer Entscheidungsfindung verzerrt sein. Daher sollten Anwender*innen, die KI-gestützte Entscheidungsfindungssysteme verwenden, wissen, warum eine KI eine bestimmte Diagnose empfohlen hat, damit sie die Empfehlung besser beurteilen können. Auf diese Weise können Anwender*innen fundierte Entscheidungen treffen können, anstatt der KI einfach blind zu vertrauen.“ 

So ist in den vergangenen Jahren ein Forschungsbereich entstanden, der sich „Erklärbare KI" (XAI) nennt und versucht, KI-Entscheidungen durch Erklärungen für diese Entscheidungen für die Endnutzer*innen transparenter zu machen Die Methoden zur Erzeugung von Erklärungen waren bei der bisherigen Forschung ein wichtiger Schwerpunkt. Daraus resultierend hat Dr. Johnson jetzt die tatsächliche Wirksamkeit dieser Erklärungen in realen Situationen, beispielsweise bei der Entscheidungsfindung, als wichtiges Forschungsfeld im Blick. „Die Forschung in meiner Gruppe zielt darauf ab, menschliches Wissen, Bedürfnisse und Verständnis bei der Entwicklung von XAI-basierten Systemen an erste Stelle zu setzen.“

Ziele der Gruppe sind die Verbesserung des Designs von XAI-basierten Werkzeugen und Schnittstellen durch die Einbeziehung von Nutzer*innen in den Designprozess und die Durchführung umfangreicher Evaluierungen, um besser zu verstehen, wie Menschen mit Erklärungen interagieren. Auch um herauszufinden, welche Methoden am effektivsten zur Verbesserung der KI-gestützten Entscheidungsfindung sind. Mit diesem Wissen sollen neue interaktive KI-gestützte Entscheidungsfindungssysteme für reale Probleme entworfen werden. Auch eine Kollaboration mit der Arbeitsgruppe „Multimodal Behavior Processing“ von Professorin Dr. Hanna Drimalla am Bielefelder CITEC ist geplant.

Dr. David Johnson ist wissenschaftlicher Mitarbeiter und assoziiertes Mitglied im Projekt A06 „Co-constructing social signs of understanding to adapt monitoring to diversity“ (Inklusive Ko-Konstruktion sozialer Signale des Verstehens) beschäftigt.

Weitere Information: