Mit KI die psy­chi­sche Ge­sund­heit be­ur­tei­len – Her­aus­for­de­run­gen beim Af­fec­ti­ve Com­pu­ting

Affective Computing befasst sich mit der computergestützten Erkennung menschlicher Emotionen. Im TRR 318 forscht dazu das Team aus dem Projekt A06 „Inklusive Ko-Konstruktion sozialer Signale des Verstehens“. Dr. David Johnson, Jonas Paletschek und Prof. Dr. Hanna Drimalla haben nun in Zusammenarbeit mit Olya Hakobyan einen Artikel zur Relevanz Erklärbarer Künstliche Intelligenz (XAI) für Affective Computing im Magazin „IEEE Transactions on Affective Computing“ veröffentlicht.

TRR 318: Warum gewinnt XAI an Relevanz für Affective Computing?

David Johnson: „KI-Systeme, die Emotionen erkennen können, sind nun durch das EU AI Act stark reguliert und unterliegen strengen Anforderungen an Transparenz und Interpretierbarkeit. Da sich das Affektive Computing mit sensiblen Anwendungen in Bereichen wie Bildung und Gesundheit befasst, ist das Verständnis der Modellvorhersagen von entscheidender Bedeutung, um eine faire und genaue Entscheidungsfindung zu gewährleisten. So könnten diese Methoden beispielsweise eine KI-gestützte Beurteilung der psychischen Gesundheit ermöglichen, jedoch müssen Praktiker*innen sicher sein, dass die Diagnoseempfehlungen für alle von ihnen behandelten Gruppen zutreffend sind.“

Warum fehlt es hier noch an Forschungsergebnissen?

„Obwohl das Forschungsgebiet an Interesse gewinnt, gibt es nur eine begrenzte Variabilität bei den Arten von Erklärungen, die erzeugt werden. Darüber hinaus fehlt es an einer Bewertung der Methoden, was bedeutet, dass Forschende und Designer*innen keine klaren Informationen darüber haben, welche Arten von Erklärungen bei Affective Computing am besten funktionieren.“

Was sind die nächsten Schritte, um die Forschung in diesem Bereich voranzutreiben?

„Verschiedene Erklärungsarten (über merkmalsbasierte Methoden hinaus) müssen in realistischen Kontexten des Affective Computing angewandt und bewertet werden, z. B. bei der KI-gestützten Bewertung der psychischen Gesundheit. Auf diese Weise können Forschende besser herausfinden, welche Arten von Methoden in realen Situationen am besten funktionieren. Darüber hinaus sollten sich die Forschenden stärker auf Erklärungen für multimodale Methoden konzentrieren, einschließlich der Forschung im Audiobereich.“

Die neue Publikation „Explainable AI for Audio and Visual Affective Computing: A Scoping Review“ untersucht den Einsatz von XAI beim audiovisuellen Affective Computing. Dieser Bereich nutzt Daten wie Gesichtsausdrücke und Stimmmuster, um emotionale Zustände zu erkennen. Die Autor*innen stellen fest, dass die Interpretierbarkeit dieser Modelle noch nicht ausreichend erforscht ist und geben Empfehlungen zur Verbesserung der Transparenz und Erklärbarkeit künftiger Affective-Computing-Anwendungen.

Diese Ergebnisse stehen in engem Zusammenhang mit den Anforderungen des neuen AI Acts (KI-Gesetzes) der EU, das Transparenz und Dokumentation in KI-Systemen betont. In sensiblen Bereichen wie dem Affektive Computing ist es von entscheidender Bedeutung, die Erklärbarkeit von Modellentscheidungen zu gewährleisten.

Dr. David Johnson, Erstautor der A06-Publikation „Explainable AI for Audio and Visual Affective Computing: A Scoping Review“.

Mehr zum Thema

16.04.2024

Neue For­schungs­grup­pe zu Er­klär­ba­rer Künst­li­cher In­tel­li­genz und de­ren Ein­fluss auf mensch­li­ches Ver­trau­en

Mehr erfahren