News

Diskriminierung durch KI: Frauen misstrauen Algorithmen

© Paavo Ruch

7.3.2024

Algorithmen können bestimmte Personengruppen benachteiligen oder bevorzugen. Der Grund liegt oft in den vorurteilsbehafteten Daten, mit denen diese Algorithmen trainiert wurden.

In zwei Experimenten, die nun in einem Aufsatz in der Fachzeitschrift International Journal of Communication veröffentlicht wurden, hat die Arbeitsgruppe Alltagsmedien von Prof. Dr. Sonja Utz untersucht, wie Vorurteile von Algorithmen von Menschen bewertet werden. „Wir wollten untersuchen, ob sich Frauen und Männer darin unterscheiden, wie sie einen Algorithmus, der Frauen benachteiligt, beurteilen“, erklärt Sonja Utz.

Während eine Gruppe einen unfairen, Männer bevorzugenden Algorithmus beurteilen sollte, beurteilte eine andere Gruppe einen geschlechterbezogen fairen Algorithmus. Die Ergebnisse zeigten unerwartete Geschlechtsunterschiede: Frauen fanden insbesondere den fairen Algorithmus diskriminierender als Männer.

Frauen erwarten offenbar Diskriminierung durch den Algorithmus
„Frauen scheinen schon davon auszugehen, dass Algorithmen Frauen oft benachteiligen. Ob das daran liegt, dass sie Berichte über diskriminierende Algorithmen aufmerksamer lesen oder weil sie öfter Diskriminierungserfahrungen machen, können wir aus dieser Studie nicht sagen“, ordnet Sonja Utz die Ergebnisse ein.
Männer fanden in dieser Studie den bevorzugenden Algorithmus zwar diskriminierender als den fairen Algorithmus; das wirkte sich allerdings nicht auf ihre Einstellung aus, ob es in Ordnung wäre, dass dieser Algorithmus im Alltag Entscheidungen trifft.

Zweite Studie mit einem zusätzlichen unfairen Algorithmus
In einer zweiten Studie gab es außerdem eine Bedingung, in der die Teilnehmenden zusätzlich zu dem fairen und dem die Männer bevorzugenden Algorithmus auch einen weiteren Algorithmus beurteilten, der verheiratete Personen bevorzugte. Damit wollten die Wissenschaftler*innen herausfinden, ob es den urteilenden Teilnehmenden bei ihrer Einschätzung vor allem um die Aufrechterhaltung bestehender Vorurteile durch Algorithmen geht, oder um die Ungerechtigkeit an sich.

Das Ergebnis: Männer beurteilten die beiden unfairen Algorithmen als diskriminierender als den fairen Algorithmus; Frauen fanden vor allem den Algorithmus, der verheiratete Paare bevorzugte, diskriminierend. „Das Ergebnis weist darauf hin, dass Frauen eine größere Gefahr darin sehen, dass durch Algorithmen auch neue Formen der Diskriminierung in die Welt kommen“, meint Sonja Utz.

Zum Aufsatz:
https://ijoc.org/index.php/ijoc/article/view/20806

Diese Seite teilen

Weitere News