Ers­te Dis­pu­ta­ti­o­nen der TRR 318-Dok­to­ran­d*in­nen

Von Wirtschaftswissenschaften über Informatik und Soziologie bis zur Psycholinguistik: Die ersten Promovierenden des TRR 318 haben ihre Dissertationen erfolgreich abgeschlossen und geben Einblicke in ihre Forschung.

Dr. Jaroslaw Kornowicz, Projekt C02, Wirtschaftswissenschaften

In seiner Arbeit mit dem Titel „Human Integration in AI: Calibrating Trust and Improving Performance in Decision Support Systems“ hat Dr. Jaroslaw Kornowicz erforscht, wie die Zusammenarbeit zwischen Mensch und Künstlicher Intelligenz verbessert werden kann. Besonders interessiert hat ihn, welchen Einfluss die Vermenschlichung von KI, die Integration von Expert*innenwissen und ko-konstruktive Ansätze auf das Vertrauen und die Genauigkeit von KI-gestützten Entscheidungshilfen haben.

Größte Erkenntnis:
Ko-konstruktive, menschenzentrierte KI-Systeme steigern gleichzeitig Leistung und Vertrauen, erfordern aber weitere empirische Validierung.

Bedeutung für den TRR 318:
Da Ko-Konstruktion nicht nur Erklärbarkeit, sondern auch Entscheidungsqualität verbessert, braucht der TRR 318 enge interdisziplinäre Zusammenarbeit und human-zentrierte Studien, um solche Systeme ganzheitlich zu erforschen.

Einfluss auf die (KI-)Praxis:
Eine gezielte „Vermenschlichung“ der KI sowie die aktive Einbindung von Nutzenden und Expert*innen erhöhen die Akzeptanz im Feld und verbessern nachweislich die Ergebnisgenauigkeit. 


Dr. Fabian Fumagalli, Projekt CO3, Informatik

In seiner Dissertation hat sich Dr. Fabian Fumagalli mit den mathematischen Grundlagen von Feature-basierten Erklärmethoden befasst. Ein Schwerpunkt war die Entwicklung eines Frameworks, das die Unterschiede und Interpretationen verschiedener Erklärmethoden strukturiert und beschreibt. Außerdem hat er untersucht, wie sich Features gegenseitig beeinflussen, und wie Erklärungen angepasst werden können, wenn sich das Modell oder die Daten im Laufe der Zeit ändern.

Größte Erkenntnis:
Erklärmethoden unterscheiden sich in der Praxis erheblich, daher ist eine fundierte mathematische Grundlage absolut notwendig.

Bedeutung für den TRR 318:
Die mathematisch-statistische Einordnung von Erklärmethoden bildet eine notwendige Grundlage für die Ko-Konstruktion von Erklärungen mit Anwender*innen.

Einfluss auf die (KI-)Praxis:
Das vertiefte Verständnis der Unterschiede und Interpretationen von Erklärmethoden hilft dabei, Modelle und ihre Entscheidungen klarer zu verstehen.


Dr. Olesja Lammert, Projekt A03, Wirtschaftswissenschaften

In ihrer Dissertation mit dem Titel „Human Factors in XAI: Enhancing User Reliance Through Emotional Alignment in Decision-Making“ hat Dr. Olesja Lammert erforscht, wie sich die Berücksichtigung von Emotionen in KI-gestützter Entscheidungsfindung auf das Vertrauen und auf die User Reliance auswirkt, verstanden als das Ausmaß, wie stark sich Nutzer*innen auf Empfehlungen des Systems verlassen. Ziel ihrer Arbeit war es, emotionale Faktoren so in erklärbare KI-Systeme zu integrieren, dass rationalere Entscheidungen gefördert und emotionale Fehlinterpretationen von KI-Erklärungen vermieden werden.

Größte Erkenntnis:
Erklärungen in KI-gestützten Entscheidungssituationen sind geprägt von Emotionen und kognitiven Prozessen. Manche Erklärstrategien können das Vertrauen der Nutzer*innen stärken, während zu viel Transparenz häufig zu Überforderung und Ablehnung führt. Deshalb sollten emotionale und kognitive Faktoren als zentrale Bestandteile einer menschenzentrierten Forschung zu erklärbarer KI verstanden werden.

Bedeutung für den TRR 318:
Die Erforschung des Zusammenspiels von Emotion und Kognition in KI-gestützten Entscheidungssituationen trägt dazu bei, Erklärbarkeit besser zu verstehen. Interdisziplinäre Ansätze, Feldstudien in emotional belastenden Kontexten und Langzeitstudien zu XAI, Emotionen, Verständnis und Vertrauen können hierfür einen wichtigen Beitrag leisten.

Einfluss auf die (KI-)Praxis:
XAI-Systeme können besonders hilfreich sein, wenn sie adaptiv und interaktiv gestaltet sind. Ihre Erklärungen sollten sich an die jeweilige Situation und an die Emotionen der Nutzenden anpassen und kognitive Überlastung vermeiden. Auf diese Weise unterstützen sie Menschen in komplexen Entscheidungssituationen und tragen dazu bei, gut begründete Entscheidungen zu treffen.


Dr. Stefan Lazarov, Projekt A02, Psycholinguistik

In seiner Dissertation mit dem Titel „The reflection of interactional monitoring in the dynamics of verbal and nonverbal explaining behavior” hat Dr. Stefan Lazarov untersucht, wie Menschen ihr Erklärverhalten an ihr Gegenüber anpassen.

Größte Erkenntnis: 
Menschen strukturieren ihre Erklärungen auf Grundlage kurzer multimodaler Rückmeldungen wie Blick- oder Kopfbewegungen. Wie Erklärende Gesten einsetzen, hängt dabei stark davon ab, wie die Zuhörenden folgen können – und ob das zu erklärende Objekt gerade physisch präsent ist oder nicht.

Bedeutung für den TRR 318: 
Die Arbeit macht deutlich, wie wichtig Beobachtungsprozesse für Erklärungen sind und wie sich dadurch multimodales, adaptives Erklärverhalten besser nachvollziehen lässt.

Einfluss auf die (KI-)Praxis:
Damit KI-Systeme erfolgreich erklären können, müssen sie lernen, multimodales Feedback wahrzunehmen und richtig zu deuten.


Dr. Nils Klowait, Projekt Ö, Soziologie

Dr. Nils Klowait hat in seiner Dissertation herausgearbeitet, wie interaktive Technologien wie ChatGPT soziale Interaktionen beeinflussen und wie Menschen durch ihre multimodalen Handlungen diesen Einfluss mitbestimmen, ihm widerstehen oder ihn transformieren.

Größte Erkenntnis: 
„Kontext“ ist keine feste Eigenschaft der Umgebung, sondern etwas, das Teilnehmende aktiv nutzen und in der Interaktion relevant machen. Dies wird sichtbar in Analysen dazu, wie Menschen mit nicht-menschlichen Gesprächspartnern wie ChatGPT umgehen.

Bedeutung für den TRR 318: 
Im Fokus steht der Prozess: Entscheidend ist nicht nur, wie ein System gebaut wird, sondern auch, wie seine Elemente in realen Interaktionen für die Beteiligten Bedeutung und Verwendbarkeit erlangen.

Einfluss auf die (KI-)Praxis: 
Für den erfolgreichen Einsatz von KI braucht es beides – sorgfältiges, menschenzentriertes Systemdesign und detaillierte empirische Studien zum tatsächlichen Umgang mit KI im Alltag.


Dr. Josephine Beryl Fisher, Projekt A01, Psycholinguistik

In ihrer Dissertation „Adaptive Explanations: The Involvement of Explainees“ ist Dr. Josephine Beryl Fisher der Frage nachgegangen, wie Gesprächspartner*innen verbal in Erklärungen aufeinander eingehen. Besonders interessierte sie, wie Personen, denen etwas erklärt wird, den Erklärprozess aktiv mitgestalten. Das verbale Verhalten analysierte sie dabei im Hinblick auf Erklärstrategien und die inhaltliche Elemente.

Größte Erkenntnis:
Personen, denen etwas erklärt wird, gestalten Erklärungen durch ihr substantielles verbales Verhalten aktiv mit. Je geringer ihre Beteiligung, desto weniger Themen greifen die Erklärenden auf.

Bedeutung für den TRR 318:
Die Ko-Konstruktion von Erklärungen wird durch die inhaltlichen Beiträge der Personen, denen etwas erklärt wird, angetrieben.

Einfluss auf die (KI-)Praxis:
XAI-Systeme sollten Nutzer*innen ermöglichen, sich flexibel und aktiv am Erklärprozess zu beteiligen.

 

v.l.: Dr. Nils Klowait, Dr. Josephine Beryl Fisher, Dr. Fabian Fumagalli, Dr. Olesja Lammert, Dr. Jaroslaw Kornowicz, Dr. Stefan Lazarov