Interpretierbares maschinelles Lernen: Erklärbarkeit in dynamischen Umgebungen (Projekt C03)
Maschinelle Lernverfahren werden heutzutage oft in dynamischen Umgebungen wie sozialen Netzwerken, Logistik und Verkehr, Handel und Finanzen oder im Gesundheitswesen verwendet, in denen kontinuierlich neue Daten erzeugt werden. Um auf mögliche Veränderungen der zugrunde liegenden Prozesse zu reagieren, und sicherzustellen, dass die gelernten Modelle weiterhin zuverlässig funktionieren, müssen diese fortlaufend adaptiert werden. Diese Veränderungen sollten, wie das Modell selbst, durch Erklärungen für Nutzer*innen transparent gehalten werden. Dabei müssen die anwendungsspezifischen Bedürfnisse berücksichtigt werden. Wie und warum sich verschiedene Arten von Modellen verändern, betrachten die Wissenschaftler*innen des Projekts C03 aus einer theoretisch-mathematischen Perspektive. Ihr Ziel ist es, Algorithmen zu entwickeln, die Modellveränderungen effizient und zuverlässig erkennen und intuitiv erklären.
Publikationen
Muschalik, M., Fumagalli, F., Hammer, B., Hüllermeier E. (2022). Agnostic Explanation of Model Change based on Feature Importance. Künstl Intell. doi: 10.1007/s13218-022-00766-6