Ethik und Normativität der erklärbaren KI (Projekt B06)

Erklärungen zu Entscheidungen von Künstlicher Intelligenz müssen ethisch reflektiert werden. Ansonsten könnten sie dazu verwendet werden, Nutzer*innen zu manipulieren oder Akzeptanz für eine Technologie zu schaffen, die ethisch oder rechtlich inakzeptabel ist, so Teilprojektleiterin Jun.-Prof. Dr. Suzana Alpsancar. Innerhalb der zweijährigen Laufzeit wird das Projektteam die verschiedenen Zwecke, Bedürfnisse und Anforderungen von Erklärungen systematisch klassifizieren und die technologische Entwicklung innerhalb des TRR 318 ethisch reflektieren. Hierbei unterscheiden sie systematisch die ethischen Anforderungen von denen der Nutzer*innen, da diese nicht immer zusammenfallen. Der erarbeitete ethische Rahmen für das Erklären von Künstlicher Intelligenz soll dann auf konkrete Projekte innerhalb des TRR 318 angewendet werden. Die Forschenden wollen damit zum einen erklären, wie aktuelle Designentscheidungen ethische Überlegungen und Anforderungen von Nutzer*innen zusammenbringen. Zum anderen planen sie, auf Grundlage dieser Erkenntnisse konkrete Gestaltungsempfehlungen für die weitere Entwicklung zu formulieren. Das übergeordnete Ziel des Projektes ist es, eine höhere Sensibilität für soziale Kontexte zu schaffen, wenn zu Künstlicher Intelligenz geforscht wird. Dafür zeigen die Projektmitglieder Aspekte auf, die nicht technisch gelöst werden können, sondern auf sozialer oder rechtlicher Ebene angegangen werden müssen.

Forschungsgebiete

Philosophie

Projektleitung

Jun.-Prof. Dr. Suzana Alpsancar, Universität Paderborn

Prof. Dr. Tobias Matzner, Universität Paderborn

Mitarbeiter*innen

Dr. Martina Philippi

Dr. Wessel Reijers