Projekte

Die Ko-Konstruktion von Erklärungen untersuchen insgesamt 23 Projektleiter*innen mit rund 40 wissenschaftlichen Mitarbeitenden aus Linguistik, Psychologie, Medienwissenschaft, Soziologie, Wirtschaftswissenschaft, Philosophie und Informatik der Universitäten Bielefeld und Paderborn.

Die Forschungsbereiche des TRR 318 gliedern sich in A „Erklärprozess“, B „Soziale Praxis“ und C „Darstellung und Berechnung von Erklärungen“. Die drei Bereiche wiederum teilen sich in interdisziplinäre Teilprojekte auf. Übergreifend schafft das INF-Projekt eine Forschungsstruktur, das Ö-Projekt sorgt für einen Austausch mit der Öffentlichkeit, das Z-Projekt verwaltet die Organisation und Finanzen und das RTG-Projekt sorgt für die Ausbildung der Doktorand*innen und Postdoktorand*innen.

Übersicht

Bereich A - Erklärprozess

Kürzel Name
A01 Adaptives Erklären
A02 Verstehensprozess einer Erklärung beobachten und auswerten
A03 Ko-Konstruktion von Erklärungen mit emotionaler Ausrichtung zwischen KI-Erklärer*in und menschlichen Erklärungsempfänger*innen
A04 Integration des technischen Modells in das Partnermodell beim Erklären von digitalen Artefakten
A05 Echtzeitmessung der Aufmerksamkeit im Mensch-Roboter-Erklärdialog
A06 Inklusive Ko-Konstruktion sozialer Signale des Verstehens

 

Bereich B - Soziale Praxis

Kürzel Name
B01 Modelle des maschinellen Lernens mit einem dialogbasierten Ansatz erklären
B03 Nutzer*innen und Erklärbedürfnisse un real-weltlichen Kontexten
B05 Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter
B06 Ethik und Normativität der erklärbaren KI

 

Bereich C - Darstellung und Berechnung von Erklärungen

Kürzel Name
C01 Gesundes Misstrauen in und durch Erklärungen
C02 Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen
C03 Interpretierbares maschinelles Lernen: Erklärbarkeit in dynamischen Umgebungen
C04 Metaphern als Mittel zur Erklärung
C05 Erklärbare Entscheidungen in kooperativer Mensch-Maschine-Interaktion finden
C06 Technisch unterstütztes Erklären von Stimmencharakteristika

 

Übergreifende Projekte

Kürzel Name
Z Zentrales Verwaltungsprojekt
RTG Integriertes Graduiertenkolleg
Ö Fragen zu erklärbaren Technologien
INF Kriterien für die Bewertung von Erklärungsqualität

 

Assoziierte Projekte

Titel Verortung
Entwicklung symmetrischer mentaler Modelle Unabhängige Forschungsgruppe an der Universität Paderborn

Bereich A - Erklärprozess

A01

Adaptives Erklären

Mehr erfahren

A02

Verstehensprozess einer Erklärung beobachten und auswerten

Mehr erfahren

A03

Ko-Konstruktion von Erklärungen mit emotionaler Ausrichtung

Mehr erfahren

A04

Integration des technischen Modells in das Partnermodell beim Erklären von digitalen Artefakten

Mehr erfahren

A05

Echtzeitmessung der Aufmerksamkeit im Mensch-Roboter-Erklärdialog

Mehr erfahren

A06

Inklusive Ko-Konstruktion sozialer Signale des Verstehens

Mehr erfahren

Bereich B - Soziale Praxis

B01

Modelle des maschinellen Lernens mit einem dialogbasierten Ansatz erklären

Mehr erfahren

B03

Nutzer*innen und Erklärbedürfnisse in real-weltlichen Kontexten

Mehr erfahren

B05

Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter

Mehr erfahren

B06

Ethik und Normativität der erklärbaren KI

Mehr erfahren

Bereich C - Darstellung und Berechnung von Erklärungen

C01

Gesundes Misstrauen in und durch Erklärungen

Mehr erfahren

C02

Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen

Mehr erfahren

C03

Interpretierbares maschinelles Lernen: Erklärbarkeit in dynamischen Umgebungen

Mehr erfahren

C04

Metaphern als Mittel zur Erklärung

Mehr erfahren

C05

Erklärbare Entscheidungen in kooperativer Mensch-Maschine-Interaktion finden

Mehr erfahren

C06

Technisch unterstütztes Erklären von Stimmcharakteristika

Mehr erfahren

Übergreifende Projekte

INF

Kriterien für die Bewertung von Erklärungsqualität

Mehr erfahren

Ö

Fragen zu erklärbaren Technologien

Mehr erfahren

RTG

Integriertes Graduiertenkolleg

Mehr erfahren

Z

Zentrales Verwaltungsprojekt

Mehr erfahren