Dis­pu­ta­ti­o­nen der TRR 318-Dok­to­ran­d*in­nen – Fol­ge 2

Zum Ende der ersten Förderphase des TRR 318 haben weitere Promovierende ihre Dissertationen erfolgreich abgeschlossen. In der zweiten Folge der Promotionsvorstellungen geben Wissenschaftler*innen aus Informatik und Psychologie Einblicke in ihre Forschungsergebnisse.
 


Dr. André Groß, Projekt A05, Informatik

In seiner Dissertation untersuchte Dr. André Groß, wie adaptives verbales Scaffolding mit negationsbasierten Erklärungen das Verständnis und die Leistung in Mensch-Roboter-Aufgaben verbessert. Dazu entwickelte er Modelle und Robotersysteme, die ihre Erklärungen an Aufmerksamkeit und Leistung der Nutzer*innen anpassen.

Größte Erkenntnis:
Adaptive, auf Negation basierende Erklärungen können das Verständnis und die Aufgabenleistung in Mensch-Roboter-Interaktionen verbessern, wenn sie auf den kognitiven Zustand der Nutzer*innen abgestimmt sind.

Bedeutung für den TRR 318:
Die Dissertation hat ein Konzept für adaptive Erklärungen in interaktiven KI-Systemen entwickelt. Mithilfe von Negation und einem Rechenmodell werden Aufmerksamkeit und Verständnis der Nutzer*innen erfasst und zur Anpassung der Erklärungen genutzt.

Einfluss auf die (KI-)Praxis:
Die Arbeit zeigt, dass adaptive, negationsbasierte Erklärungen intelligente Systeme verständlicher und nutzer*innenfreundlicher machen können.



Dr. Tobias Peters,Projekt C01, Psychologie

In seiner Promotion hat sich Dr. Tobias Peters mit gesundem Misstrauen – einer kritischen, abwartenden Haltung, die gerechtfertigt sein kann – im KI-Kontext beschäftigt. Neben der grundlegenden konzeptionellen Klärung von gesundem Misstrauen und verwandten Konzepten hat er untersucht, wie sich gesundes Misstrauen messbar machen lässt und inwiefern es in Mensch-KI-Interaktionen gefördert werden kann.

Größte Erkenntnis:
Die bisherige, typische Konzeptionalisierung von Vertrauen im KI-Kontext greift oft zu kurz. Zudem stellen die empirischen Ergebnisse infrage, ob ein Disclaimer vor der Interaktion überhaupt einen Effekt hat.

Bedeutung für den TRR 318:
Gesundes Misstrauen steht in engem Zusammenhang mit einem der Ziele des TRR, nämlich Menschen zu befähigen, die Qualität der Ergebnisse eines Systems zu beurteilen und den Algorithmus mitzugestalten. Darüber hinaus entwickeln sich Vertrauen und Misstrauen dynamisch und eröffnen damit eine spannende Perspektive auf Mensch-KI-Interaktionen im TRR.

Einfluss auf die (KI-)Praxis:
Die Arbeit schlägt vor, nicht nur auf die Förderung von Vertrauen, sondern auch auf die Förderung von gesundem Misstrauen zu achten. Außerdem stellen die Ergebnisse einer empirischen Studienreihe die Nützlichkeit sogenannter Disclaimer infrage, wie man sie beispielsweise von ChatGPT kennt.



Dr. Amelie Robrecht, Projekt A01, Informatik

Wenn Menschen einander etwas erklären, haben sie ein Bild vom Gegenüber, das anhand von Verhalten und Feedback angepasst wird – ein sogenanntes Partnermodell. In ihrer Promotion hat Dr. Amelie Robrecht untersucht, was passiert, wenn auch ein künstlicher Erklärer ein solches Modell aufbaut und nutzt, um seine Erklärungen an die Nutzer*innen anzupassen. Dabei konnte sie zeigen, dass diese Anpassung einen positiven Effekt auf das Verständnis der Nutzer*innen bei Erklärungen des Brettspiels „Quarto!“ hat.

Größte Erkenntnis:
Aktuelle Entwicklungen in der KI, insbesondere im Bereich der generativen KI und großer Sprachmodelle, erfordern interdisziplinäre Teams, um ihre Effekte auf unterschiedlichen Ebenen erfassen und beleuchten zu können.

Bedeutung für den TRR 318:
Die Promotionsarbeit untermauert die These, dass eine optimale Erklärung individuell ist.

Einfluss auf die (KI-)Praxis:
KI-Systeme sollten in der Lage sein, Erklärungen gemeinsam mit den Nutzer*innen dialogisch zu erarbeiten. Dies hat vielfältige Implikationen für die Entwicklung neuer Systeme und bringt zugleich neue Herausforderungen mit sich.
 

 

v.l.: Dr. André Groß, Dr. Amelie Robrecht, Dr. Tobias Peters

Mehr zum Thema

08.10.2025

Ers­te Dis­pu­ta­ti­o­nen der TRR 318-Dok­to­ran­d*in­nen

Mehr erfahren