Tobias Peters und Professorin Dr. Ingrid Scharlau vom Projekt C01 widmen sich in ihrer aktuellen Studie den Fragen, wie Menschen mit fehlerhaften Empfehlungen von KI-Systemen umgehen, und ob gezielt gefördertes Misstrauen ihre Leistung im Umgang mit diesen Systemen verbessern kann. Das zentrale Ergebnis: Eine Aufforderung zur Skepsis steigert die Leistung nicht, sondern verschlechtert diese tendenziell sogar. Die Studie mit dem Titel „Interacting with fallible AI: Is distrust helpful when receiving AI misclassifications?“ wurde in der Fachzeitschrift „Frontiers in Psychology“ veröffentlicht.
In zwei experimentellen Szenarien zur Bildklassifizierung erhielten Versuchspersonen Empfehlungen einer KI, deren Genauigkeit sich im Laufe des Versuchs gezielt verschlechterte. Sie sollten entscheiden, ob geometrische Formen bestimmten Kategorien zugeordnet werden können und ob Bilder echt oder KI-generiert waren. Während des Experiments wurden die Versuchspersonen regelmäßig befragt, wie sehr sie der KI vertrauten oder misstrauten. So konnten die Psycholog*innen untersuchen, wie stark sich die Versuchspersonen durch fehlerhafte KI-Ratschläge beeinflussen ließen.
Ein besonderer Fokus lag darauf, ob eine explizite Aufforderung zur Skepsis – also der Hinweis, jeden KI-Vorschlag kritisch zu hinterfragen – im Vergleich zu einer neutralen Anweisung die Leistung verbessert. Dazu Tobias Peters: „In der Interaktion mit einer KI, die Fehler macht, hat unsere Aufforderung, misstrauisch zu sein, überraschenderweise nicht geholfen. Das bedeutet, dass diese Anweisung kaum Einfluss auf die Nutzung der KI-Unterstützung hatte.“
Ergänzend zur experimentellen Untersuchung entwickelte Tobias Peters gemeinsam mit seinem Kollegen Kai Biermeier eine Bayes'sche Analyse auf Basis der Signalentdeckungstheorie. Diese berücksichtigt auch Unsicherheiten in den Daten und misst, wie gut die Versuchspersonen zwischen korrekten und fehlerhaften KI-Ratschlägen unterscheiden konnten. Deutlich wurde, dass sie die zunehmenden Fehler der KI wahrnahmen und darauf reagierten: „Sobald die Ratschläge der KI schlechter wurde, haben die Versuchspersonen der KI weniger vertraut und mehr misstraut“, berichtet Peters. „Auch als die KI-Leistung wieder besser wurde, ist das Vertrauen nicht auf das ursprüngliche Niveau zurückgekehrt.“
Der methodische Ansatz ermöglicht es zukünftigen Studien Vertrauen und Misstrauen im Umgang mit KI differenziert zu untersuchen. „Unsere Ergebnisse liefern wichtige Impulse für den aktuellen Diskurs über den Umgang mit Fehleranfälligkeit und Misstrauen gegenüber KI-Systemen – insbesondere mit Blick auf Warnhinweise, sogenannte Disclaimers, vor der Nutzung von LLM-basierten Chatbots wie ChatGPT“, fasst Tobias Peters zusammen.
Zur Publikation:
Peters TM and Scharlau I (2025) Interacting with fallible AI: is distrust helpful when receiving AI misclassifications? Front. Psychol. 16:1574809. doi: 10.3389/fpsyg.2025.1574809