Achtung:

Sie haben Javascript deaktiviert!
Sie haben versucht eine Funktion zu nutzen, die nur mit Javascript möglich ist. Um sämtliche Funktionalitäten unserer Internetseite zu nutzen, aktivieren Sie bitte Javascript in Ihrem Browser.

Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen

Interpretierbares maschinelles Lernen: Erklärbarkeit in dynamischen Umgebungen (Projekt C03)

Maschinelle Lernverfahren werden heutzutage oft in dynamischen Umgebungen wie sozialen Netzwerken, Logistik und Verkehr, Handel und Finanzen oder im Gesundheitswesen verwendet, in denen kontinuierlich neue Daten erzeugt werden. Um auf mögliche Veränderungen der zugrunde liegenden Prozesse zu reagieren, und sicherzustellen, dass die gelernten Modelle weiterhin zuverlässig funktionieren, müssen diese fortlaufend adaptiert werden. Diese Veränderungen sollten, wie das Modell selbst, durch Erklärungen für Nutzer*innen transparent gehalten werden. Dabei müssen die anwendungsspezifischen Bedürfnisse berücksichtigt werden. Wie und warum sich verschiedene Arten von Modellen verändern, betrachten die Wissenschaftler*innen des Projekts C03 aus einer theoretisch-mathematischen Perspektive. Ihr Ziel ist es, Algorithmen zu entwickeln, die Modellveränderungen effizient und zuverlässig erkennen und intuitiv erklären.

In diesem Video stellen die Projektleiter*innen ihre Sicht von Ko-Konstruktion vor (auf Englisch).
Forschungsgebiete

Informatik

Projektleitung

Prof. Dr. Barbara Hammer, Universität Bielefeld

Prof. Dr. Eyke Hüllermeier, Ludwig-Maximilians Universität München

Mitarbeiter*innen

Fabian Fumagalli, Universität Bielefeld

Maximilian Muschalik, Ludwig-Maximilians Universität München

Publikationen

Muschalik, M., Fumagalli, F., Hammer, B., Hüllermeier E. (2022). Agnostic Explanation of Model Change based on Feature Importance. Künstl Intell. doi: 10.1007/s13218-022-00766-6