Für einen so­zi­a­le­ren An­satz in der KI-For­schung

Explainable AI muss soziale Aspekte berücksichtigen, fordert ein internationales Team von Forschenden, darunter Mitglieder des TRR 318. In dem neuen Buch „Social Explainable AI: Communications of NII Shonan Meetings“ wenden sie soziale Konzepte auf erklärbare künstliche Intelligenz an und entwickeln Vorschläge für ihre praktische Umsetzung. Die Herausgeber*innen möchten sowohl die Entwicklung einer menschenzentrierten Technologie als auch den interdisziplinären Diskurs dazu fördern.

Im derzeit intensiv erforschten Feld der erklärbaren KI (XAI) geht es darum, Nutzer*innen durch nachvollziehbare Informationen zu befähigen, KI-Systeme zu verstehen und ihre Entscheidungen zu hinterfragen oder sie zu akzeptieren. Erklärbarkeit wird zunehmend als Grundvoraussetzung für eine faire, verantwortungsvolle und vertrauenswürdige KI angesehen. „XAI soll das Problem der Undurchsichtigkeit von KI-Systemen und ihrer Akzeptanz lösen, doch soziale Aspekte bleiben oft außen vor, weil sie für die Entwickler*innen von Technologien schwer greifbar sind“, erläutert Prof. Dr. Katharina Rohlfing, Sprecherin des TRR 318.

Erklärungen erfordern Interaktion. Unter Menschen sind Erklärungen komplexe Prozesse, die Mustern und Regeln folgen, auf vorherigen Äußerungen aufbauen und verschiedene Kommunikationsmodalitäten gleichzeitig nutzen. „Das bedeutet, dass auch Erklärungen von und mit KI-Systemen den gesamten sozialen Kontext berücksichtigen müssen“, sagt Rohlfing. Die Vielfalt relevanter sozialer Aspekte und die Herausforderung, sie zu operationalisieren, können viele Forschende davon abhalten, die soziale Dimension in XAI zu integrieren. Dennoch wächst der Druck auf die Forschung: „Es zeigt sich zunehmend, dass erklärbare Systeme wenig nützen, wenn sie kein Kontext- oder Situationsbewusstsein haben und nicht mit Nutzer*innen interagieren. Jede*r User*in benötigt ein unterschiedliches Maß an Erklärung.“

Das Buch „Social Explainable AI“ (sXAI) stellt zentrale Konzepte des Forschungsfeldes vor, beleuchtet die soziale Interaktion mit erklärbaren Systemen und bietet Zugang zu relevanten sozialen Konzepten. Inspiriert durch soziale Interaktionen definieren die Herausgeber*innen sXAI als Systeme, die sich interaktiv an die Nutzer*innen anpassen, um gemeinsam zufriedenstellende Erklärungen zu entwickeln. Darüber hinaus diskutiert die Publikation ethische Fragestellungen im Zusammenhang mit sXAI. Sie richtet sich an eine interdisziplinäre Leserschaft – nicht nur an Technologieentwickler*innen, sondern auch an Forschende aus soziotechnischen Disziplinen. „Das Buch ist eine Einladung zum Austausch und zur Weiterentwicklung des sXAI-Feldes“, schreiben die Herausgeber*innen.

Die Publikation ist das Ergebnis der Shonan-Tagung 2023 in Japan, bei der Wissenschaftler*innen unterschiedlicher Disziplinen und unterschiedlichen Ländern zusammenkamen, um zu untersuchen, wie Erklärungen auf die Bedürfnisse und Ziele verschiedener Nutzer*innen zugeschnitten werden können. Das Team der Herausgeber*innen der im Springer-Verlag veröffentlichen Publikation besteht aus Prof. Kary Främling (Umeå Universität, Schweden), Prof. Brian Lim (National University of Singapore) sowie den TRR-Forscherinnen Prof. Kirsten Thommes Prof. Dr. Suzana Alpsancar und Prof. Katharina Rohlfing. „Social Explainable AI“ ist ab sofort als englischsprachiges Open-Access-Buch verfügbar.

Zur Publikation: 
Social Explainable AI: Communications of NII Shonan Meetings (Open Access)

Zum Shonan Meeting 2023: 
Social Explainable AI: Designing Multimodal and Interactive Communication to Tailor Human-AI Collaborations