Projekt C03: Interpretierbares maschinelles Lernen: Erklärbarkeit in dynamischen Umgebungen

Maschinelle Lernverfahren werden heutzutage oft in dynamischen Umgebungen wie sozialen Netzwerken, Logistik und Verkehr, Handel und Finanzen oder im Gesundheitswesen verwendet, in denen kontinuierlich neue Daten erzeugt werden. Um auf mögliche Veränderungen der zugrunde liegenden Prozesse zu reagieren, und sicherzustellen, dass die gelernten Modelle weiterhin zuverlässig funktionieren, müssen diese fortlaufend adaptiert werden. Diese Veränderungen sollten, wie das Modell selbst, durch Erklärungen für Nutzer*innen transparent gehalten werden. Dabei müssen die anwendungsspezifischen Bedürfnisse berücksichtigt werden. Wie und warum sich verschiedene Arten von Modellen verändern, betrachten die Wissenschaftler*innen des Projekts C03 aus einer theoretisch-mathematischen Perspektive. Ihr Ziel ist es, Algorithmen zu entwickeln, die Modellveränderungen effizient und zuverlässig erkennen und intuitiv erklären.
Forschungsgebiete: Informatik
Publikationen
Agnostic Explanation of Model Change based on Feature Importance
M. Muschalik, F. Fumagalli, B. Hammer, E. Huellermeier, KI - Künstliche Intelligenz 36 (2022) 211–224.
“I do not know! but why?” — Local model-agnostic example-based explanations of reject
A. Artelt, R. Visser, B. Hammer, Neurocomputing 558 (2023).
SHAP-IQ: Unified Approximation of any-order Shapley Interactions
F. Fumagalli, M. Muschalik, P. Kolpaczki, E. Hüllermeier, B. Hammer, in: NeurIPS 2023 - Advances in Neural Information Processing Systems, Curran Associates, Inc., 2023, pp. 11515--11551.
Incremental permutation feature importance (iPFI): towards online explanations on data streams
F. Fumagalli, M. Muschalik, E. Hüllermeier, B. Hammer, Machine Learning 112 (2023) 4863–4903.
iSAGE: An Incremental Version of SAGE for Online Explanation on Data Streams
M. Muschalik, F. Fumagalli, B. Hammer, E. Huellermeier, in: Machine Learning and Knowledge Discovery in Databases: Research Track, Springer Nature Switzerland, Cham, 2023.
On Feature Removal for Explainability in Dynamic Environments
F. Fumagalli, M. Muschalik, E. Hüllermeier, B. Hammer, in: ESANN 2023 Proceedings, i6doc.com publ., 2023.
iPDP: On Partial Dependence Plots in Dynamic Modeling Scenarios
M. Muschalik, F. Fumagalli, R. Jagtani, B. Hammer, E. Huellermeier, in: Communications in Computer and Information Science, Springer Nature Switzerland, Cham, 2023.
Beyond TreeSHAP: Efficient Computation of Any-Order Shapley Interactions for Tree Ensembles
M. Muschalik, F. Fumagalli, B. Hammer, E. Huellermeier, Proceedings of the AAAI Conference on Artificial Intelligence 38 (2024) 14388–14396.
SVARM-IQ: Efficient Approximation of Any-order Shapley Interactions through Stratification
P. Kolpaczki, M. Muschalik, F. Fumagalli, B. Hammer, E. Huellermeier, in: S. Dasgupta, S. Mandt, Y. Li (Eds.), Proceedings of The 27th International Conference on Artificial Intelligence and Statistics, PMLR, 2024, pp. 3520–3528.
KernelSHAP-IQ: Weighted Least Square Optimization for Shapley Interactions
F. Fumagalli, M. Muschalik, P. Kolpaczki, E. Hüllermeier, B. Hammer, in: R. Salakhutdinov, Z. Kolter, K. Heller, A. Weller, N. Oliver, J. Scarlett, F. Berkenkamp (Eds.), Proceedings of the 41st International Conference on Machine Learning, PMLR, 2024, pp. 14308–14342.
Alle Publikationen anzeigen