Projekt A06: Erklärungen des multimodalen Ausdrucks von Stress in klinischen Erklärungen

Wenn eine Person erklärt, versucht sie in der Regel zu erkennen, ob ihr Gesprächspartner die Erklärung versteht. Dafür nimmt sie nonverbale Signale des Gegenübers wahr und passt ihre Erklärung gegebenenfalls an. Individuelle und situative Faktoren können diese sozialen Signale beeinflussen. So können Feedback-Signale bei Menschen mit psychischen Erkrankungen oder bei Menschen, die unter Stress stehen, anders ausfallen als bei Personen ohne psychische Erkrankungen in neutralen Situationen. Diese Diversität sollte auch von Systemen mit Künstlicher Intelligenz (KI) berücksichtig werden, wenn sie Menschen etwas erklären.

In der ersten Förderphase haben die Forschenden aus Psychologie und Informatik den Einfluss von Stress und psychischen Gesundheitszuständen in Erklärsituationen untersucht und konnten zeigen, wie sich non-verbale Signale, die Verstehen ausdrücken, intra- und inter-individuell unterscheiden. In der zweiten Förderphase entwickelt das Team Techniken, um klinisches Personal zu schulen, Stressanzeichen in Erklärsituationen zu erkennen. Die Erkenntnisse sollen helfen, Erklärungen an den Erklärkontext anzupassen und Erklärtechniken inklusiver zu entwickeln.

 

Forschungsgebiete: Informatik, Linguistik, Psychologie

Projektleitung

Prof. Dr. Hanna Drimalla

Mehr zur Person

Prof.Dr. Petra Wagner

Mehr zur Person

Mitarbeiter*innen

Jonas Paletschek, M. Sc

Mehr zur Person

Jana Wiechmann, M.Sc.

Mehr zur Person

Assoziiertes Mitglied

Dr. David Johnson, Universität Bielefeld

Hilfskräfte

Leonard Krause, Universität Bielefeld

Cem Sarigül, Universität Bielefeld

Pu­bli­ka­ti­o­nen

A Paradigm to Investigate Social Signals of Understanding and Their Susceptibility to Stress

J. Paletschek, in: 12th International Conference on  Affective Computing & Intelligent Interaction, IEEE, 2024.


Explainable AI for Audio and Visual Affective Computing: A Scoping Review

D. Johnson, O. Hakobyan, J. Paletschek, H. Drimalla, IEEE Transactions on Affective Computing 16 (2024) 518–536.



Alle Publikationen anzeigen