Projekt B05: Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter
Projekt B05 erforscht, wie ein ko-konstruktives Training mit einem Roboter gestaltet werden kann, der sich an die Nutzer*innen und ihr Verständnis anpasst. Im Mittelpunkt steht eine Doppelschleife aus Lernen und Verstehen: Der Roboter passt sein Verhalten kontinuierlich an, während die Nutzer*innen Einblicke in seine Lernmechanismen gewinnen. Ziel ist es, dass am Ende des Lernprozesses jede*r in der Lage ist, einen Roboter zu trainieren. Der Fokus liegt auf Anwendungen im Gesundheitsbereich, in denen auch Lai*innen mit geringer Technikaffinität mit Roboter in Kontakt treten.
Um dieses Ziel zu erreichen, wird zunächst ein Erklärmodell entwickelt, aus dem verschiedene Erklärelemente abgeleitet und technisch umgesetzt werden. Das Verhalten der Nutzer*innen wird in einer Onlinestudie untersucht. Basierend auf den Ergebnissen soll das KI-System lernen, welche Erklärelemente den Nutzer*innen zu welchem Zeitpunkt angezeigt werden sollten. Während des Trainings werden die Nutzer*innen genau beobachtet und unterstützt (Monitoring und Scaffolding). Gleichzeitig passen sie ihre Eingaben und Aktionen an, indem sie die Reaktionen des Roboters beobachten. Auf diese Weise lernen die Nutzer*innen, wie sie den Roboter effektiver trainieren können.
Forschungsgebiete: Informatik, Didaktik der Informatik
Hilfskräfte
Anna-Lena Rinke, Universität Bielefeld
Arthur Maximilian Noller, Universität Bielefeld
Mathis Tibbe, Universität Bielefeld
Publikationen
Components of an explanation for co-constructive sXAI
A.-L. Vollmer, H.M. Buhl, R. Alami, K. Främling, A. Grimminger, M. Booshehri, A.-C. Ngonga Ngomo, in: K.J. Rohlfing, K. Främling, S. Alpsancar, K. Thommes, B.Y. Lim (Eds.), Social Explainable AI, Springer, n.d.
Practices: How to establish an explaining practice
K.J. Rohlfing, A.-L. Vollmer, A. Grimminger, in: K. Rohlfing, K. Främling, K. Thommes, S. Alpsancar, B.Y. Lim (Eds.), Social Explainable AI, Springer, n.d.
The power of combined modalities in interactive robot learning
H. Beierling, R. Beierling, A.-L. Vollmer, Frontiers in Robotics and AI 12 (2025).
Human-Interactive Robot Learning: Definition, Challenges, and Recommendations
K. Baraka, I. Idrees, T.K. Faulkner, E. Biyik, S. Booth, M. Chetouani, D.H. Grollman, A. Saran, E. Senft, S. Tulli, A.-L. Vollmer, A. Andriella, H. Beierling, T. Horter, J. Kober, I. Sheidlower, M.E. Taylor, S. van Waveren, X. Xiao, Transactions on Human-Robot Interaction (n.d.).
Forms of Understanding for XAI-Explanations
H. Buschmeier, H.M. Buhl, F. Kern, A. Grimminger, H. Beierling, J.B. Fisher, A. Groß, I. Horwath, N. Klowait, S.T. Lazarov, M. Lenke, V. Lohmer, K. Rohlfing, I. Scharlau, A. Singh, L. Terfloth, A.-L. Vollmer, Y. Wang, A. Wilmes, B. Wrede, Cognitive Systems Research 94 (2025).
What you need to know about a learning robot: Identifying the enabling architecture of complex systems
H. Beierling, P. Richter, M. Brandt, L. Terfloth, C. Schulte, H. Wersing, A.-L. Vollmer, Cognitive Systems Research 88 (2024).
Advancing Human-Robot Collaboration: The Impact of Flexible Input Mechanisms
H. Beierling, K. Loos, R. Helmert, A.-L. Vollmer, Advancing Human-Robot Collaboration: The Impact of Flexible Input Mechanisms, Proc. Mech. Mapping Hum. Input Robots Robot Learn. Shared Control/Autonomy-Workshop RSS, 2024.
Technical Transparency for Robot Navigation Through AR Visualizations
L. Dyck, H. Beierling, R. Helmert, A.-L. Vollmer, in: Companion of the 2023 ACM/IEEE International Conference on Human-Robot Interaction, ACM, 2023, pp. 720–724.
Forms of Understanding of XAI-Explanations
H. Buschmeier, H.M. Buhl, F. Kern, A. Grimminger, H. Beierling, J. Fisher, A. Groß, I. Horwath, N. Klowait, S. Lazarov, M. Lenke, V. Lohmer, K. Rohlfing, I. Scharlau, A. Singh, L. Terfloth, A.-L. Vollmer, Y. Wang, A. Wilmes, B. Wrede, ArXiv:2311.08760 (2023).
Alle Publikationen anzeigen