Erklärungen gemeinsam entwickeln
Wie können Menschen Entscheidungen von Maschinen nachvollziehen? Was sagen die algorithmischen Ansätze aus? Wie kann künstliche Intelligenz (KI) begreifbar werden?
Oft setzen technische Erklärungen Wissen über die Funktionsweise von KI voraus und sind nur schwer nachvollziehbar. Im Sonderforschungsbereich/Transregio Constructing Explainability (Erklärbarkeit konstruieren) erarbeiten die Forschenden Wege, die Nutzer*innen in den Erklärprozess einzubinden.
Dafür untersucht das interdisziplinäre Forschungsteam die Prinzipien, Mechanismen und sozialen Praktiken des Erklärens und wie diese im Design von KI-Systemen berücksichtigt werden können. Das Ziel des Projektes ist es, Erklärprozesse verständlich zu gestalten und verstehbare Assistenzsysteme zu schaffen.
Die Ko-Konstruktion von Erklärungen untersuchen insgesamt 22 Projektleiter*innen mit rund 40 wissenschaftlichen Mitarbeitenden aus Linguistik, Psychologie, Medienwissenschaft, Soziologie, Wirtschaftswissenschaft und Informatik der Universitäten Bielefeld und Paderborn.