Projekt A06: Erklärungen des multimodalen Ausdrucks von Stress in klinischen Erklärungen
Wenn eine Person erklärt, versucht sie in der Regel zu erkennen, ob ihr Gesprächspartner die Erklärung versteht. Dafür nimmt sie nonverbale Signale des Gegenübers wahr und passt ihre Erklärung gegebenenfalls an. Individuelle und situative Faktoren können diese sozialen Signale beeinflussen. So können Feedback-Signale bei Menschen mit psychischen Erkrankungen oder bei Menschen, die unter Stress stehen, anders ausfallen als bei Personen ohne psychische Erkrankungen in neutralen Situationen. Diese Diversität sollte auch von Systemen mit Künstlicher Intelligenz (KI) berücksichtig werden, wenn sie Menschen etwas erklären.
In der ersten Förderphase haben die Forschenden aus Psychologie und Informatik den Einfluss von Stress und psychischen Gesundheitszuständen in Erklärsituationen untersucht und konnten zeigen, wie sich non-verbale Signale, die Verstehen ausdrücken, intra- und inter-individuell unterscheiden. In der zweiten Förderphase entwickelt das Team Techniken, um klinisches Personal zu schulen, Stressanzeichen in Erklärsituationen zu erkennen. Die Erkenntnisse sollen helfen, Erklärungen an den Erklärkontext anzupassen und Erklärtechniken inklusiver zu entwickeln.
Forschungsgebiete: Informatik, Linguistik, Psychologie
Assoziiertes Mitglied
Dr. David Johnson, Universität Bielefeld
Hilfskräfte
Leonard Krause, Universität Bielefeld
Cem Sarigül, Universität Bielefeld
Publikationen
A Paradigm to Investigate Social Signals of Understanding and Their Susceptibility to Stress
J. Paletschek, in: 12th International Conference on Affective Computing & Intelligent Interaction, IEEE, 2024.
Explainable AI for Audio and Visual Affective Computing: A Scoping Review
D. Johnson, O. Hakobyan, J. Paletschek, H. Drimalla, IEEE Transactions on Affective Computing 16 (2024) 518–536.
Towards Interpretability in Audio and Visual Affective Machine Learning: A Review
D. Johnson, O. Hakobyan, H. Drimalla, (2023).
Alle Publikationen anzeigen