Achtung:

Sie haben Javascript deaktiviert!
Sie haben versucht eine Funktion zu nutzen, die nur mit Javascript möglich ist. Um sämtliche Funktionalitäten unserer Internetseite zu nutzen, aktivieren Sie bitte Javascript in Ihrem Browser.

Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen
Bildinformationen anzeigen
|

Forschende und Gäste diskutieren über Diskriminierung durch künstliche Intelligenz

Es gibt viele Beispiele für Diskriminierung durch künstliche Intelligenz (KI): Die automatische Gesichtserkennung reagiert auf Gesichter von Männern mit heller Haut am besten. Amazon hat einen Algorithmus zur Bewertung von Bewerbungen auf Stellenanzeigen entwickelt, der Frauen benachteiligte. Und ein Algorithmus, der die Rückfallwahrscheinlichkeit von Straftätern berechnen sollte, schätzte weiße Menschen zu gut und Schwarze Menschen zu schlecht ein.

Diskriminierung ist eine der am meistdiskutierten sozialen Folgen des Einsatzes von KI. Professor Dr. Tobias Matzner vom Institut für Medienwissenschaften der Universität Paderborn hat in seinem Vortrag am vergangenen Donnerstagnachmittag aufgezeigt, dass es zur Verhinderung von Diskriminierung durch KI zuerst eines angemessenen Verständnisses bedarf. Insbesondere sei Diskriminierung mehr als eine einfache Verzerrung in den Daten. Erklärungen zur Funktionsweise von KI können laut Matzner helfen, Diskriminierung seitens der KI zu verhindern, da Erklärungen verschiedene soziale Kontexte berücksichtigen. Nach dem Vortrag gab es die Gelegenheit für die Teilnehmenden Fragen zu stellen und Gedanken zu äußern.

An dem ersten durch den TRR 318 veranstalteten öffentlichen Vortrag nahmen neben den Wissenschaftler*innen des Transregios rund 40 Gäste unter anderem aus Universitäten, Schulen, Parteien und Verbänden teil.