Die unabhängige Forschungsgruppe "Entwicklung symmetrischer mentaler Modelle" unter der Leitung von Christian Schulz forscht nach neuen Möglichkeiten der Erzeugung mentaler Modelle durch Erklärbare Künstliche Intelligenz.
Die unabhängige Forschungsgruppe "Human-Centric Explainable AI" unter der Leitung von Dr. David Johnson untersucht die kognitive Verarbeitung von KI-generierten Erklärungen in hochsensiblen Situationen.
SAIL ist eine interdisziplinäre interinstitutionale Forschungskooperation der Universität Bielefeld, der Hochschule Bielefeld und der TH OWL. Die Einrichtung fokussiert sich auf eine nachhaltige, ganzheitliche Einführung von KI-Technologien. Dabei soll der komplette Lebenszyklus der Systeme beachtet werden.
Das Ziel des Bielefelder-Paderborner Joint Artificial Intelligence Institute (JAII) ist es die Grundlagen für menschenzentrierte KI-Systeme zu legen, die als kompetente Partner agieren können und in der Lage sind, real-weltliche Probleme in bestimmen Domänen zu lösen. Das Institut organisiert eine Vortragsreihe über verschiedene KI-Themen.
Für die Forschung zu Erklärbarer Künstlicher Intelligenz in medizinischen Anwendungsfällen arbeitet der TRR 318 mit Mediziner*innen aus dem evangelischen Krankenhaus Bethel zusammen.
Der TRR 318 arbeitet mit der Lehr- und Forschungseinheit Künstliche Intelligenz und Maschinelles Lernen der Ludwig-Maximilians-Universität Münschen zusammen. Sie wird von Prof. Dr. Eyke Hüllermeier geleitet.
Der TRR 318 kooperiert mit der Arbeitsgruppe Natural Language Processing unter der Leitung von Prof. Dr. Henning Wachsmuth. Die Arbeitsgruppe ist am Institut für Künstliche Intelligenz der Leibniz Universität Hannover angesiedelt.