Projekt B03: Nutzer*innen und Erklärbedürfnisse in real-weltlichen Kontexten

Das Projekt B03 untersucht, wie Lai*innen künstliche Intelligenz (KI) in ihrem Alltag verstehen. Auf der Grundlage qualitativer Daten von 63 Teilnehmer*innen in Deutschland und Großbritannien untersucht das Projekt alltägliche Erfahrungen mit KI-Technologien anhand von Umfragen, digitalen Tagebüchern, Interviews und Gruppendiskussionen. Die Forschung zeigt, wie der individuelle Kontext und Vorwissen beeinflussen, wann und warum Menschen Erklärungen zu KI für notwendig halten. Die Ergebnisse zeigen, dass Nutzer*innen sich häufig auf nicht-technisches Wissen stützen, um KI zu interpretieren, und dass politische und soziale Überlegungen oft schwerer wiegen als technische Bedenken. Durch die Untersuchung dieser Dynamiken kommt das Projekt zu dem Schluss, dass die Forschung im Bereich der erklärbaren KI (XAI) über rein technische Lösungen hinausgehen muss, um die sozialen Prozesse besser zu verstehen, durch die Menschen KI-Systeme interpretieren und bewerten.

Forschungsgebiete: Soziologie, Medienwissenschaft

Projektleitung

Prof. Dr. Tobias Matzner

Mehr zur Person

Mitarbeiter*innen

Dr Patricia Jimenez

Mehr zur Person

Patrick Henschen, M.A.

Mehr zur Person

Hilfskräfte

Jennifer Dumpich, Universität Paderborn

Jessica Stanley-Dilley, Universität Paderborn

Ehemalige Mitglieder

Prof. Dr. Ilona Horwath, Projektleitung

Dr. Christian Schulz, Wissenschaftlicher Mitarbeiter

Leonie von Egloffstein, Universität Paderborn

Esma Gökal, Universität Paderborn

Merle Mahne, Universität Paderborn

Lea Biere, Universität Paderborn

Pu­bli­ka­ti­o­nen

Structures Underlying Explanations

P. Jimenez, A.L. Vollmer, H. Wachsmuth, in: K. Rohlfing, K. Främling, B. Lim, S. Alpsancar, K. Thommes (Eds.), Social Explainable AI: Communications of NII Shonan Meetings, Springer Singapore, n.d.


Healthy Distrust in AI systems

B. Paaßen, S. Alpsancar, T. Matzner, I. Scharlau, ArXiv (2025).


Investigating Co-Constructive Behavior of Large Language Models in Explanation Dialogues

L. Fichtel, M. Spliethöver, E. Hüllermeier, P. Jimenez, N. Klowait, S. Kopp, A.-C. Ngonga Ngomo, A. Robrecht, I. Scharlau, L. Terfloth, A.-L. Vollmer, H. Wachsmuth, ArXiv:2504.18483 (2025).


Investigating Co-Constructive Behavior of Large Language Models in Explanation Dialogues

L. Fichtel, M. Spliethöver, E. Hüllermeier, P. Jimenez, N. Klowait, S. Kopp, A.-C. Ngonga Ngomo, A. Robrecht, I. Scharlau, L. Terfloth, A.-L. Vollmer, H. Wachsmuth, in: Proceedings of the 26th Annual Meeting of the Special Interest Group on Discourse and Dialogue, Association for Computational Linguistics, Avignon, France, n.d.


A new algorithmic imaginary

C. Schulz, Media, Culture & Society 45 (2023) 646–655.


Vernacular Metaphors of AI

C. Schulz, A. Wilmes , in: ICA Preconference Workshop “History of Digital Metaphors”, University of Toronto, May 25 , n.d.


Forms of Understanding for XAI-Explanations

H. Buschmeier, H.M. Buhl, F. Kern, A. Grimminger, H. Beierling, J.B. Fisher, A. Groß, I. Horwath, N. Klowait, S.T. Lazarov, M. Lenke, V. Lohmer, K. Rohlfing, I. Scharlau, A. Singh, L. Terfloth, A.-L. Vollmer, Y. Wang, A. Wilmes, B. Wrede, (n.d.).


(De)Coding social practice in the field of XAI: Towards a co-constructive framework of explanations and understanding between lay users and algorithmic systems

J. Finke, I. Horwath, T. Matzner, C. Schulz, in: Artificial Intelligence in HCI, Springer International Publishing , Cham, 2022, pp. 149–160.


(De)Coding Social Practice in the Field of XAI: Towards a Co-constructive Framework of Explanations and Understanding Between Lay Users and Algorithmic Systems

J. Finke, I. Horwath, T. Matzner, C. Schulz, in: Artificial Intelligence in HCI, Springer International Publishing, Cham, 2022, pp. 149–160.


Alle Publikationen anzeigen