Projekt A01: Adaptives Erklären

Wenn Menschen etwas erklären, berücksichtigen sie in der Regel die Reaktionen ihrer Gesprächspartner*innen und passen daraufhin ihre Erklärungen an. Die Forscher*innen aus Linguistik, Psychologie und Informatik untersuchen im Projekt A01 zwei Komponenten der Anpassung: die kognitive Adaptivität und die interaktive Adaptivität. Das erste Konzept meint, dass Erklärer*innen eine Vorstellung von ihren Adressat*innen haben, ein sogenanntes Partnermodell, das sich im Laufe des Erklärprozesses verändert. Die interaktive Adaptivität beschreibt, wie die erklärende Person ihre Erklärungen verändert und die Formulierungen im Verlauf des Dialogs anpasst. Das interdisziplinäre Team untersucht, wie die beiden Formen der Adaptivität ineinandergreifen und wie beispielsweise das Partnermodell als Ressource genutzt wird, um Formulierungen anzupassen. Für ihre Forschung beobachtet und befragt das interdisziplinäre Team rund 300 Gesprächspartner*innen in Erklärsituationen. Mithilfe der gewonnenen Daten erstellen die Forschenden ein dynamisches computergestütztes Modell des adaptiven Erklärens.

 

Forschungsgebiete: Psychologie, Informatik, Linguistik

Projektleitung

Prof. Dr. Heike M. Buhl

Mehr zur Person

Prof. Dr.-Ing. Stefan Kopp

Mehr zur Person

Prof. Dr. Katharina Rohlfing

Mehr zur Person

Mitarbeiter*innen

Josephine Beryl Fisher

Mehr zur Person

Amelie Robrecht, M.A.

Mehr zur Person

Erick Ronoh, M.Sc.

Mehr zur Person

Hilfskräfte

Vincent Emmerling. Universität Bielefeld

Alessia Heimsath, Universität Paderborn

Christoph Kowalski, Universität Bielefeld

Celina Nitschke, Universität Paderborn

Marco Verwiebe, Universität Paderborn

Marie Weise, Universität Paderborn

Jonna Wilkens, Universität Paderborn

Pos­ter

Konferenz-Poster präsentiert auf der CogSci 2024 zur Publikation "Changes in Partner Models - Effects of Adaptivity in the Course of Explanations" von Heike M. Buhl, Josephine B. Fisher und Katharina J. Rohlfing.

Konferenz-Poster präsentiert auf der 4. Summer School on Social Human-Robot Interaction mit dem Titel "Substantiveness in explanation" von Josephine B. Fisher.

Pu­bli­ka­ti­o­nen

Exploring Monological and Dialogical Phases in Naturally Occurring Explanations

J.B. Fisher, V. Lohmer, F. Kern, W. Barthlen, S. Gaus, K. Rohlfing, KI - Künstliche Intelligenz 36 (2022) 317–326.



SNAPE: A Sequential Non-Stationary Decision Process Model for Adaptive Explanation Generation

A. Robrecht, S. Kopp, in: Proceedings of the 15th International Conference on Agents and Artificial Intelligence, SCITEPRESS - Science and Technology Publications, 2023, pp. 48–58.


SNAPE: A Sequential Non-Stationary Decision Process Model for Adaptive Explanation Generation

A. Robrecht, S. Kopp, in: Proceedings of the 15th International Conference on Agents and Artificial Intelligence, SCITEPRESS - Science and Technology Publications, 2023.


A Study on the Benefits and Drawbacks of Adaptivity in AI-generated Explanations

A. Robrecht, M. Rothgänger, S. Kopp, in: Proceedings of the 23rd ACM International Conference on Intelligent Virtual Agents, ACM, 2023.


Exploring the Semantic Dialogue Patterns of Explanations – a Case Study of Game Explanations

J. Fisher, A. Robrecht, S. Kopp, K. Rohlfing, in: Proceedings of the 27th Workshop on the Semantics and Pragmatics of Dialogue , 2023.



Changes in partner models – Effects of adaptivity in the course of explanations

H.M. Buhl, J.B. Fischer , K. Rohlfing, Proceedings of the Annual Meeting of the Cognitive Science Society 46 (2024).


Alle Publikationen anzeigen