Regeln für den Algorithmus

Wenn Menschen ihre Angst vor künstlicher Intelligenz äußern, geht es nicht nur darum, dass die Systeme eigenmächtig handeln könnten. Sorgen bereitet auch die Frage, WAS sie tun könnten. Also – wie lässt sich sicherstellen, dass Maschinen ethisch korrekt handeln?
Die Bertelsmann Stiftung und der Think Tank iRights.Lab wollen darauf eine Antwort finden. Sie haben neun formale Kriterien definiert, die bei der Entwicklung vom algorithmischen Systemen beachtet werden sollen. Diese beziehen sich nicht nur auf lernende Systeme – die also der KI zugeordnet werden können – sondern auch auf nicht-lernende. An der Entwicklung der Regeln haben insgesamt 400 Experten aus unterschiedlichen gesellschaftlichen Bereichen und wissenschaftlichen Disziplinen mitgewirkt. Prominentes Mitglied ist etwa die FDP-Politikerin Sabine Leutheuser-Schnarrenberger.

Die so genannten Algorules sollen dafür sorgen, dass ein algorithmisches System aus ethischer Perspektive korrekt agiert. So besagt zum Beispiel Regel Nr. 5, dass der Einsatz eines solchen Systems gekennzeichnet sein muss.
Will heißen: Wenn in einem Prozess – wie etwa einer Job-Bewerbung – eine Maschine die Entscheidungen trifft, sollte das kenntlich gemacht werden.
„Wir glauben, dass wir als Menschen den Anspruch haben dürfen zu wissen, mit wem wir interagieren“, sagt Michael Puntschuh, Policy Adisor bei iRights.Lab.
Beim Beispiel Bewerbung geht es also um die Frage: Hat ein Mensch mich abgelehnt oder ein algorithmisches System? Und an wen richte ich dann eine Beschwerde? An die Personalabteilung? Oder vielleicht an die IT-Abteilung?

Transparenz ist das große Ziel bei den Algorules. Die Regeln sagen nicht, was richtig oder falsch. Die Experten wollen mit den Rules aber die Grundlage schaffen, auf der sich beurteilen lässt, ob ein System ethisch korrekt handelt.
Regel Nr. 3 beispielsweise soll sicherstellen, dass vor dem Einsatz eines algorithmischen Systems die Ziele und die erwartete Wirkung abgewogen werden. Und anschließend soll auch eine Überprüfung stattfinden: Hat das System das gemacht, was es tun sollte? Oder gab es Nebenwirkungen, die möglicherweise ethische Normen verletzt haben?
So könnten die Algorules auch wie ein Frühwarnsystem funktionieren, das Alarm schlägt, wenn zum Beispiel bestimmte Ergebnisse diskriminierend sind. Rassistische Ausfälle von KI wie die des Microsoft-Bots Tay, die vor ein paar Jahren für Aufsehen sorgten, könnten auf diese Weise verhindert werden, hoffen die Macher der Algorules.

Transparenz in die Algorithmen soll auch eine Regel bringen, die Nachvollziehbarkeit fordert.
Es soll also nicht nur klar erkennbar sein, dass eine Maschine eine Entscheidung getroffen hat, sondern auch warum diese so ausgefallen ist.
Diese Formulierung in den Algorules sei sehr ambitioniert, meint Puntschuh. Das Problem: Lernende Systeme gleichen einer Black Box. Es ist eine besondere Eigenschaft von KI, dass eben nicht immer erkennbar ist, wie das Ergebnis zustande kam. Die Frage nach dem „Warum“ lässt sich also nicht ohne weiteres beantworten. (siehe auch das Interview mit Mario Trapp vom Fraunhofer ESK).
Immerhin: Die Forschung sitzt an dem Thema. Es gebe bereits Ansätze, um das Problem zu lösen, so Puntschuh. Als Beispiel nennt er die Arbeit von Sandra Wachter vom Oxford Internet Institute.

Wie sich die Algorules generell in konkreten Anwendungen umsetzen lassen, wird gerade geklärt – nämlich in Phase 2 des Projekts. „Wir sprechen dafür unter anderen mit Software-Entwicklern, Data Scientists, aber auch mit Führungskräften aus Unternehmen, die darüber entscheiden, welche Zielgruppe ein algorithmisches System ansprechen soll“, sagt Puntschuh. Im Herbst soll außerdem ein begleitender Leitfaden an bestimmten Einsatzszenarien getestet werden.
Wie dann sichergestellt werden kann, dass die Algorules auch tatsächlich genutzt werden, ist aber noch unklar. Die Experten von iRights.Lab würden sich dazu gerade mit verschiedenen Partnern austauschen, so Puntschuh.
Eine Möglichkeit ist, dass die Integration der Regeln verpflichtend wird. Die Algorules könnten aber auch zu einem technischen Standard werden – also zu einer IOS- oder DIN-Norm.
Wichtig sei nur, jetzt die richtigen Weichen zu stellen, damit ethische Kriterien bei der Entwicklung algorithmischer Systeme berücksichtigt werden, meint Puntschuh. Denn die Systeme würden bereits überall im Alltag eingesetzt. Und Entwicklungen wie das Social-Credit-System in China zeigten, in welche Richtung es auch gehen könnte.

Bild: Markus Spiske/Pexels

Ein Kommentar zu „Regeln für den Algorithmus

Gib deinen ab

Kommentar verfassen

Powered by WordPress.com.

Nach oben ↑

%d Bloggern gefällt das: