Achtung:

Sie haben Javascript deaktiviert!
Sie haben versucht eine Funktion zu nutzen, die nur mit Javascript möglich ist. Um sämtliche Funktionalitäten unserer Internetseite zu nutzen, aktivieren Sie bitte Javascript in Ihrem Browser.

Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen
|

Ein interdisziplinärer Blick auf erklärbare künstliche Intelligenz

Wissenschaftler*innen des Sonderforschungsbereichs „Erklärbarkeit konstruieren“ (SFB/TRR 318) der Universitäten Bielefeld und Paderborn präsentieren in einer Sonderausgabe der renommierten Zeitschrift „KI-Künstliche Intelligenz“ des Springer-Verlags ihre neuen Ansätze und Erkenntnisse. Die Informatikerin Professorin Dr.-Ing. Britta Wrede aus dem TRR 318 gibt die Ausgabe zusammen mit der Informatikerin Professorin Dr. Ute Schmid heraus. Im Mittelpunkt steht das Forschungsfeld „Erklärbare Künstliche Intelligenz“ (kurz: XAI).

„Die Forschung über erklärbare Künstliche Intelligenz befasst sich mit Ansätzen, die es Menschen ermöglichen, maschinelles Lernen und andere KI-Systeme zu verstehen und möglicherweise zu steuern“, sagt Dr.-Ing. Britta Wrede. Die Professorin für Medizinische Assistenzsysteme an der Universität Bielefeld leitet im TRR 318 die Teilprojekte A03, A05 und Ö. „Neuere Arbeiten aus dem Feld legen den Fokus auf den Prozess der Erklärung selbst – zum Beispiel, wie Erklärungen vom Menschen gemeinsam mit einer KI geschaffen werden können. Zu der Ko-Konstruktion von Erklärungen forschen wir im TRR 318. In der Sonderausgabe haben wir diese Ansätze aufgenommen und den Blick auf weitere interdisziplinäre Perspektiven auf XAI gerichtet.“

Die Informatikerin und weitere Forschende aus dem TRR 318 haben folgende Beiträge für die Sonderausgabe verfasst:

Was fehlt noch, damit XAI funktioniert?

Der Artikel der Herausgeberinnen Schmid und Wrede beschäftigt sich mit verschiedenen Perspektiven auf erklärbare KI. In ihrem Übersichtsartikel „What is missing in XAI so far? An interdisciplinary overview“ (deutsch: „Was fehlt bislang in der XAI? Ein interdisziplinärer Überblick“) bringen die Autorinnen interdisziplinäre Sichtweisen auf das Erklären und Verstehen zusammen. Der Artikel nennt bestehende offene Fragen zum Feld XAI: Unter anderem stellen die beiden Forscherinnen die Fragen heraus, wie Erklärungen in Dialogen auf speziell benötigte Informationen angepasst werden können oder welche Rolle Interaktivität bei der Modellierung von Erklärungen spielt. Zum Artikel

KI-Erklärungen in Echtzeit

Der Fachartikel „Agnostic Explanation of Model Change based on Feature Importance“ (deutsch: Agnostische Erklärung von Modellveränderungen auf Basis der Wichtigkeit von Merkmalen) ist ein Beitrag von Maximilian Muschalik, Fabian Fumagalli, Professorin Dr. Barbara Hammer und Professor Dr. Eyke Hüllermeier. Die Informatiker*innen beschäftigen sich mit erklärbaren KI-Systemen im Kontext des Online-Lernens in dynamischen Umgebungen. „Bisher wurden XAI-Methoden hauptsächlich in statischen Umgebungen eingesetzt: Hier verändern sich die Modelle nicht mit der Zeit und können ausgiebig analysiert und erklärt werden“, sagt Maximilian Muschalik. „In dynamischen Umgebungen jedoch verändern sich die Datenströme durchgehend und die Systeme müssen sich daran anpassen. Daher müssen auch die Erklärungen aktualisiert werden.“ Im Artikel stellen die Forschenden der Ludwig-Maximilians-Universität München und der Universität Bielefeld einen modellagnostischen Ansatz vor: So soll nicht wiederkehrend das komplette Modell erklärt werden, sondern nur die konkreten Veränderungen des Modells im Vergleich zum letzten Stand. Zum Artikel

Wer macht was in Erklärungen?

Die Linguistinnen Josephine B. Fisher, Vivien Lohmer unter Leitung von Prof. Dr. Katharina J. Rohlfing und Prof. Dr. Friederike Kern von den Universitäten Paderborn und Bielefeld verfassten gemeinsam den Forschungsbericht „Exploring monological and dialogical phases in naturally occurring explanations“ (deutsch: Erforschung monologischer und dialogischer Phasen in natürlich vorkommenden Erklärungen). Der Bericht entstand in Kooperation mit den Medizinern Prof. Dr. med. Winfried Barthlen und Dr. med. Sebastian Gaus des Klinikums Bethel. Das Team hat die Strukturen von natürlichen Erklärungen in medizinischen Kontexten untersucht. Der Schwerpunkt lag auf den verschiedenen Phasen einer Erklärung und den Rollen, die die Beteiligten beim Erklären einnehmen. „Indem wir die monologischen und dialogischen Phasen herausgearbeitet haben, hat sich gezeigt, dass es ein Muster in den Rollen gibt. Zum Beispiel nehmen Personen, denen etwas erklärt wird, eine aktive Rolle ein, indem sie die dialogischen Phasen initiieren“, sagt Erstautorin Fisher. „Dies hat Konsequenzen für KI-Systeme, da sie in der Lage sein müssen, ähnliche Phasen und Aktivitäten möglich zu machen.“ Zum Artikel

Sprecher*innen des TRR 318 im Interview

Die Sonderausgabe enthält auch ein Interview mit der Sprecherin des TRR 318, Prof. Dr. Katharina Rohlfing, und dem stellvertretenden Sprecher Prof. Dr. Philipp Cimiano. Sie sprechen über die Forschung im TRR 318, mit welchen Zielen der Transregio der Universitäten Paderborn und Bielefeld entstanden ist und welche wissenschaftlichen Disziplinen beteiligt sind. Zusätzlich stellen die beiden neue wissenschaftliche Konzepte zu Erklärungen vor, wie das Team im TRR 318 sie entwickelt. Zum Interview

Die wissenschaftliche Zeitschrift „KI – Künstliche Intelligenz“ wird vom Springer-Verlag veröffentlicht und ist die offizielle Zeitschrift der Fachgruppe Künstliche Intelligenz der Gesellschaft für Informatik e.V.. Die Artikel der Zeitschrift werden frei zugänglich veröffentlicht.