For­schen­de des TRR 318 auf der XAI Con­fe­rence 2024 ver­tre­ten

Die jährliche World Conference on Explainable Artificial Intelligence (XAI) bringt Expert*innen aus verschiedenen Forschungsfeldern zusammen, um Wissen, Erfahrungen und Innovationen im Bereich der Erklärbaren Künstlichen Intelligenz auszutauschen und zu diskutieren. Wie im vergangenen Jahr werden auch in diesem Sommer viele Forschende des TRR 318 auf der XAI Conference vertreten sein und ihre neuesten Publikationen vorstellen.

Forschende aus den Projekten A03, A04 und C05 präsentieren ihre Forschungsergebnisse im Bereich der Erklärbaren Künstlichen Intelligenz und haben die Gelegenheit, sich mit internationalen Kolleg*innen auszutauschen.

Das Projekt A03 stellt ein Paper vor, das untersucht, wie verschiedene XAI-Strategien abhängig von der emotionalen Erregung der Nutzer wahrgenommen werden. Die Studie „Human Emotions in AI Explanations“ („Menschliche Emotionen in KI-Erklärungen“) zeigt, dass Personen in einem stark erregten Zustand am besten auf begründete Erklärungen reagieren. „Wir freuen uns, unser Paper auf der XAI-Konferenz vorzustellen und uns mit anderen Wissenschaftler*innen über die Bedeutung der Berücksichtigung dynamischer Faktoren wie Emotionen in XAI auszutauschen“, sagt Olesja Lammert.

Michael Erol Schaffer aus dem A04-Projekt wird vorstellen, wie Erklärer*innen das Wissen und die Interessen der Adressaten wahrnehmen und berücksichtigen. Die Studie „Perception and Consideration of the Explainees’ Needs for Satisfying Explanations“ („Wahrnehmung und Berücksichtigung des Bedürfnisses der Erklärenden nach befriedigenden Erklärungen“) ergab, dass Erklärungen sowohl auf beobachtbare Merkmale als auch auf interpretierbare Aspekte eingehen sollten. „Ich erhoffe mir von der Konferenzteilnahme vor allem eine gute Vernetzung und Anregungen, wie die Ergebnisse meiner Forschung tatsächlich in XAI implementiert werden könnten", erläutert Schaffer.

„Interessante Vorträge und Diskussionen sowie neue Kooperationen und konstruktives Feedback zu meiner vorgestellten Arbeit", sind die Aspekte, die sich Felix Liedeker aus dem Projekt C05 von seiner Konferenzteilnahme wünscht. Liedeker stellt auf der Konferenz das Paper „An Empirical Investigation of Users' Assessment of XAI Explanations: Identifying the Sweet-Spot of Explanation Complexity“ („Eine empirische Untersuchung der Bewertung von XAI-Erklärungen durch die Nutzer*innen: Identifizierung des Sweet-Spots der Erklärungskomplexität“) vor. Hierin wird untersucht, wie verschiedene Arten von Erklärungen (einfache und komplexe kontrafaktische Erklärungen) von Nutzer*innen in wichtigen Entscheidungssituationen wahrgenommen werden.

Von links nach rechts: Felix Liedeker (C04), Michael Schaffer (A04) und Olesja Lammert (A03) präsentieren ihre Forschungsergebnisse.