Wie Algorithmen diskriminieren

Algorithmen können Rassisten sein. Oder Chauvinisten. Oder in anderer Form diskriminieren. In der Vergangenheit wurden immer wieder solche Fälle in der Öffentlichkeit bekannt.

Das Karlsruher Institut für Technologie (KIT) hat dies jetzt in einer Studie untersucht. Das Ergebnis: Wenn Algorithmen eingesetzt werden, um Entscheidungen vorzubereiten oder sogar selbst zu fällen – etwa bei der Kreditvergabe oder bei Auswahl neuer Mitarbeiter – birgt dies Risiken. „Dass dies zwangsläufig zu objektiveren und damit faireren Entscheidungen führt, erweist sich heute leider oft als Trugschluss“, sagt Carsten Orwat vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT. „Kritisch wird es insbesondere dann, wenn die Algorithmen mit tendenziösen Daten arbeiten und auf eigentlich geschützte Merkmale zurückgreifen.“ Hierzu gehörten vor allem Alter, Geschlecht, ethnische Herkunft, Religion, sexuelle Orientierung oder Behinderungen.

Kreditvergabe abhängig von Geschlecht oder Herkunft

Im Auftrag der Antidiskriminierungsstelle des Bundes hat Orwat untersucht, welche Ursachen diese Formen der Diskriminierung haben, wie sie sich auf die Gesellschaft auswirken und sich die Risiken künftig verringern lassen. In der Studie „Diskriminierungsrisiken durch Verwendung von Algorithmen“ werden auch Beispiele genannt. Dazu zählen Fälle in den USA, in denen Algorithmen dafür sorgten, dass bestimmte Personengruppen die Wohnungsanzeigen in sozialen Medien nicht zu sehen bekamen – etwa Migranten oder Menschen mit Behinderung. In Finnland benachteiligte ein Algorithmus Menschen bei der Online-Kreditvergabe aufgrund ihrer Herkunft oder ihres Geschlechts.
„Bei Systemen des maschinellen Lernens wird es häufig problematisch, wenn KI-Systeme mit Daten trainiert werden, die Ungleichbehandlungen oder Stereotypen abbilden“, erklärt Orwat. „Dann spiegeln auch die so erzeugten Algorithmen die Ungleichbehandlungen oder Stereotypen wider. Werden Daten verarbeitet, die Bewertungen von Menschen über anderer Menschen beinhalten, so können sich Ungleichheiten und Diskriminierungen sogar verbreiten oder verstärken.“
Die Studie nennt auch Lösungsmöglichkeiten. „Am sinnvollsten erscheinen präventive Maßnahmen“, so Orwat. So könnten Firmen ihr Personal beziehungsweise ihre IT-Mitarbeiter von Antidiskriminierungsstellen beraten lassen. Diese Angebote könnten auch dazu sensibilisieren, nur solche Datensätze zu verwenden, die keine diskriminierenden Praktiken oder Ungleichheiten widerspiegeln.
Das Ziel ist es laut Orwat, dass Algorithmen in Zukunft diskriminierungsfrei by design werden. Dazu müssten Programme bereits während ihrer Entwicklung geprüft werden.

Algorules sollen Transparenz schaffen

Die Bertelsmann Stiftung und der Think Tank iRights.Lab arbeiten ebenfalls an einer Lösung. Sie haben neun formale Kriterien definiert, die bei der Entwicklung vom algorithmischen Systemen beachtet werden sollen. Die so genannten Algorules sollen dafür sorgen, solche Diskriminierungen zu vermeiden.
Transparenz ist dabei das große Ziel. Die Regeln sagen nicht, was richtig oder falsch ist. Die Experten wollen mit den Rules aber die Grundlage schaffen, auf der sich beurteilen lässt, ob ein System ethisch korrekt handelt.

Wie die Algorules konkret aussehen und was die nächsten Schritte des Projekts sind, lässt sich hier nachlesen: https://barrytown.blog/2019/08/30/regeln-fuer-den-algorithmus/

Die Studie des KIT steht hier zum Download bereit: https://tinyurl.com/y6q5jfo6

Wie man rechtlich mit Künstlicher Intelligenz umgehen sollte, erklärt Anwalt Andreas Leupold im Interview: https://barrytown.blog/2019/10/07/die-rechtsunsicherheit-der-kuenstlichen-intelligenz/

Titelbild: Christina Morillo/Pexels

Kommentar verfassen

Powered by WordPress.com. von Anders Noren.

Nach oben ↑

%d Bloggern gefällt das: