Online-Vortrag  /  30. März 2022, 17:00 bis 18:00 Uhr

Diskriminierung durch KI – und wie Erklärungen helfen können

Es gibt viele Beispiele für Diskriminierung durch künstliche Intelligenz (KI): Die automatische Gesichtserkennung reagiert auf Gesichter von Männern mit heller Haut am besten. Amazon hat einen Algorithmus zur Bewertung von Bewerbungen auf Stellenanzeigen entwickelt, der Frauen benachteiligte. Und ein Algorithmus, der die Rückfallwahrscheinlichkeit von Straftätern berechnen sollte, schätzte weiße Menschen zu gut und Schwarze Menschen zu schlecht ein.

Diskriminierung ist eine der am meistdiskutierten sozialen Folgen des Einsatzes von KI. Der Vortrag von Prof. Dr. Tobias Matzner vom Institut für Medienwissenschaften der Universität Paderborn zeigt, dass es zur Verhinderung von Diskriminierung durch KI zuerst eines angemessenen Verständnisses bedarf. Diskriminierung ist mehr als eine einfache Verzerrung in den Daten. Anschließend geht Matzner darauf ein, wie Erklärungen zur Funktionsweise von KI dabei helfen können, Diskriminierung seitens der KI zu verhindern. Um dem im ersten Teil des Vortrags entwickelten Verständnis von Diskriminierung zu entsprechen, müssen Erklärungen verschiedene soziale Kontexte berücksichtigen.

 

Programm

17:00    Begrüßung und Einführung in den Forschungsbereich
             Prof. Dr. Katharina Rohlfing, Universität Paderborn
             Sprecherin TRR 318

17:10    Vortrag „Diskriminierung durch KI – und wie Erklärungen helfen können“
             Prof. Dr. Tobias Matzner, Universität Paderborn
             Teilprojektleiter TRR 318

17:40    Vorstellung der KI-Workshops für Schüler*innen, Medizinstudierende sowie Entscheidungsträger*innen

17:45     Diskussion

 

Über den TRR 318
Der öffentliche Vortrag ist ein Angebot des neuen Sonderforschungsbereichs/Transregios 318 „Constructing Explainability“ (deutsch: „Erklärbarkeit konstruieren“). Hier arbeiten rund 60 Forschende der Universitäten Paderborn und Bielefeld daran, KI nachvollziehbarer zu machen. Dafür untersuchen sie die Prinzipien, Mechanismen und sozialen Praktiken des Erklärens und wie diese im Design von KI-Systemen berücksichtigt werden können. Das Ziel der gemeinsamen Forschung ist es, Erklärprozesse verständlich zu gestalten und verstehbare Assistenzsysteme zu schaffen.

Im Teilprojekt „Öffentlichkeitsarbeit“ organisieren Forschende aus der Soziologie und der Informatik Workshops, in denen Bürger*innen selbst KI ergründen können. Die Workshops richten sich vornehmlich an Schüler*innen, Medizinstudierende sowie Entscheidungsträger*innen.