Projekt B06: Ethik und Normativität der erklärbaren KI
Erklärungen zu Entscheidungen von Künstlicher Intelligenz müssen ethisch reflektiert werden. Ansonsten könnten sie dazu verwendet werden, Nutzer*innen zu manipulieren oder Akzeptanz für eine Technologie zu schaffen, die ethisch oder rechtlich inakzeptabel ist, so Teilprojektleiterin Jun.-Prof. Dr. Suzana Alpsancar. Innerhalb der zweijährigen Laufzeit wird das Projektteam die verschiedenen Zwecke, Bedürfnisse und Anforderungen von Erklärungen systematisch klassifizieren und die technologische Entwicklung innerhalb des TRR 318 ethisch reflektieren. Hierbei unterscheiden sie systematisch die ethischen Anforderungen von denen der Nutzer*innen, da diese nicht immer zusammenfallen. Der erarbeitete ethische Rahmen für das Erklären von Künstlicher Intelligenz soll dann auf konkrete Projekte innerhalb des TRR 318 angewandt werden. Die Forscher*innen wollen damit zum einen erklären, wie aktuelle Designentscheidungen ethische Überlegungen und Anforderungen von Nutzer*innen zusammenbringen. Zum anderen planen sie, auf Grundlage dieser Erkenntnisse konkrete Gestaltungsempfehlungen für die weitere Entwicklung zu formulieren. Das übergeordnete Ziel des Projektes ist es, eine höhere Sensibilität für soziale Kontexte zu schaffen, wenn zu Künstlicher Intelligenz geforscht wird. Dafür zeigen die Projektmitglieder Aspekte auf, die nicht technisch gelöst werden können, sondern auf sozialer oder rechtlicher Ebene angegangen werden müssen.
Forschungsgebiete: Philosophie
Publikationen
S. Alpsancar, in: International Conference on Computer Ethics 2023, 2023, pp. 1--17.
S. Alpsancar, in: R. Adolphi, S. Alpsancar, S. Hahn, M. Kettner (Eds.), Philosophische Digitalisierungsforschung Verantwortung, Verständigung, Vernunft, Macht, transcript, Bielefeld, 2024, pp. 55–113.
S. Alpsancar, T. Matzner, M. Philippi, in: Smart Ethics in the Digital World: Proceedings of the ETHICOMP 2024. 21th International Conference on the Ethical and Social Impacts of ICT, Universidad de La Rioja, 2024, pp. 31–35.
Alle Publikationen anzeigen