Projekte
Die Ko-Konstruktion von Erklärungen untersuchen insgesamt 22 Projektleiter*innen mit rund 40 wissenschaftlichen Mitarbeiter*innen aus Linguistik, Psychologie, Medienwissenschaft, Soziologie, Wirtschaftswissenschaft, Philosophie und Informatik der Universitäten Bielefeld und Paderborn.
Die Forschungsbereiche des TRR 318 gliedern sich in A „Erklärprozess“, B „Erklären als soziale Praktik“ und C „Darstellung und Berechnung von Erklärungen“. Die drei Bereiche wiederum teilen sich in interdisziplinäre Teilprojekte auf. Übergreifend schafft das INF-Projekt eine Forschungsstruktur, das WIKO-Projekt sorgt für einen Austausch mit der Öffentlichkeit, das Z-Projekt verwaltet die Organisation und Finanzen und das RTG-Projekt sorgt für die Ausbildung der Doktorand*innen und Postdoktorand*innen.
Übersicht
Bereich A - Erklärprozess
| Kürzel | Name |
| A01 | Adaptives Erklären |
| A02 | Verstehensprozess einer Erklärung beobachten und auswerten |
| A03 | Ko-Konstruktion von Erklärungen zwischen KI-Erklärer*in und menschlichen Erklärungsempfänger*innen mit und ohne Erregung |
| A04 | Ko-Konstruktion von dualitätsgestützten Erklärungen |
| A05 | Kontextualisiertes Scaffolding im Mensch-Roboter-Erklärdialog |
| A06 | Erklärungen des multimodalen Ausdrucks von Stress in klinischen Erklärungen |
Bereich B - Erklären als soziale Praktik
| Kürzel | Name |
| B01 | Modelle des maschinellen Lernens mit einem dialogbasierten Ansatz erklären |
| B03 | Nutzer*innen und Erklärbedürfnisse un real-weltlichen Kontexten |
| B05 | Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter |
| B06 | Ethik und Normativität der erklärbaren KI |
| B07 | Kommunikative Praktiken des Erfragens von Informationen und Erklärungen von LLM-basierten Agenten |
Bereich C - Darstellung und Berechnung von Erklärungen
| Kürzel | Name |
| C01 | Erklärungen zur Unterstützung gesunden Misstrauens in Large Language Models |
| C02 | Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen |
| C03 | Interpretierbares maschinelles Lernen: Veränderung erklären |
| C04 | Metaphern als Mittel zur Erklärung |
| C05 | Erklärbare Entscheidungen in kooperativer Mensch-Maschine-Interaktion finden |
| C06 | Technisch unterstütztes Erklären von Stimmencharakteristika |
| C07 | Ko-Konstruktions-optimierte große Sprachmodelle für Erklärungen |
Übergreifende Projekte
Assoziierte Projekte
| Titel | Verortung |
| Entwicklung symmetrischer mentaler Modelle | Unabhängige Forschungsgruppe an der Universität Paderborn |
| Human-Centric Explainable AI | Unabhängige Forschungsgruppe an der Universität Bielefeld |