Leitplanken für Algorithmen

Wo Künstliche Intelligenz drin ist, muss auch Künstliche Intelligenz drauf stehen. Das ist ein Ergebnis einer Studie des TÜV-Verbands (VdTÜV). 85 Prozent der Befragten wollen, dass Produkte und Anwendungen mit Künstlicher Intelligenz (KI) klar gekennzeichnet werden. Neben der Transparenz steht auch die Sicherheit ganz oben auf der Prioritätenliste. Ebenfalls 85 Prozent sind der Meinung, dass KI-Produkte erst auf den Markt gebracht werden sollten, wenn ihre Sicherheit von unabhängigen Stellen überprüft wurde.

Für die Studie wurden 1000 Personen ab 16 Jahren befragt. Und von denen sind 78 Prozent der Meinung, dass der Staat Gesetze und Vorschriften zur Regulierung von KI verabschieden sollte. „Es gibt eine großen Wunsch in der Bevölkerung nach Leitplanken für den Einsatz von KI“, sagt Michael Fübi, Präsident des VdTÜV. Außerdem gebe es „erhebliche Regelungslücken“, wenn KI in sicherheitskritischen Bereichen genutzt wird. „Immer dann, wenn Gefahren für die Gesundheit von Menschen oder deren elementare Grundrechte bestehen, sind klare Leitlinien für die Anbieter, Entwickler und Nutzer von KI-Anwendungen notwendig.“ Das betreffe zum Beispiel hoch automatisierte Fahrzeuge, mit KI-gesteuerte Maschinen oder die medizinische Diagnostik.

Neben den sicherheitskritischen Themen sind auch ethische Fragen relevant. Manipulationen in sozialen Medien oder die Diskriminierung bestimmter Bevölkerungsgruppen sollten daher diskutiert werden, heißt es in der Studie.

Wie Algorithmen diskriminieren, hat bereits eine Studie des Karlsruher Institut für Technologie (KIT) gezeigt: https://barrytown.blog/2019/10/16/wie-algorithmen-diskriminieren/

Laut Fübi müssen außerdem Haftungsfragen bei der Verwendung von KI-Systemen geklärt werden. Dass es hier noch Nachholbedarf beim Gesetzgeber gibt, hat kürzlich auch schon Rechtsanwalt Andreas Leupold in einem Interview auf Barrytown geäußert: https://barrytown.blog/2019/10/07/die-rechtsunsicherheit-der-kuenstlichen-intelligenz/

Nutzer haben Angst vor Hackern und Manipulationen

Befragt nach den konkreten Sorgen nannten 72 Prozent Studienteilnehmer Hackerangriffe, die mit Hilfe von KI automatisiert oder personalisiert werden können. An zweiter Stelle steht mit 71 Prozent die Sorge, dass KI missbraucht wird, um Menschen zu manipulieren. Zwei von drei Befragten (67 Prozent) befürchten, dass KI-Systeme bei sicherheitskritischen Anwendungen Fehler machen – zum Beispiel bei hoch automatisierten Fahrzeugen.

Weitere Ängste drehen sich um das Thema Entmenschlichung (62 Prozent) und eine noch stärkere Abhängigkeit von digitalen Technologien (61 Prozent). 56 Prozent der Befragten haben große oder sehr große Sorgen, dass KI-Anwendungen Arbeitsplätze von Menschen ersetzen. „Diese Sorge ist berechtigt“, sagt Fübi.

Immerhin: Die KI macht nicht nur Angst. Mit 46 Prozent empfindet fast die Hälfte aller Befragten etwas Positives oder sehr Positives, wenn sie an KI denken. Weitere 21 Prozent sind neutral. Dagegen empfinden 28 Prozent eher etwas Negatives oder sehr Negatives.

KI ist noch nicht greifbar

Hauptsächlich geht es aber wohl um ein unbestimmtes Gefühl, wenn KI beurteilt wird. Denn noch ist KI für die meisten Menschen wenig greifbar. Laut der Umfrage kennen 94 Prozent der Befragten den Begriff Künstliche Intelligenz, aber nur etwa jeder Dritte (34 Prozent) kann ihre wichtigsten Eigenschaften erklären oder die Technologie sogar in all ihren Facetten beschreiben. Fast die Hälfte der Befragten (47 Prozent) kann allenfalls eine grobe Erklärung abgeben, weiß aber nichts Genaues.

„Es gibt oft die Befürchtung, dass die KI mächtiger sein wird als der Mensch“, sagt Fübi. Dafür gibt es seiner Meinung nach im Moment aber keinen Grund. Bisher seien KI-Systeme nur in der Lage singuläre Aufgaben zu erledigen. „Wir sind noch weit davon entfernt, dass KI zu allem in der Lage ist, was auch der Mensch kann.“

Nach Meinung von Professor Laurenz Wiskott von derRuhr Universität Bochum sind aktuelle KI-Systeme sogar „strohdoof“. Denn sie basieren vor allem auf statistischen Methoden. Der Grund für ihren heutigen Erfolg liege nur darin, dass jetzt größere Rechenkapazitäten und mehr Daten zur Verfügung stünden.

Doch auch wenn die KI-Systeme nicht so intelligent sind, wie vielleicht viele annehmen – die Fehlertoleranz der Menschen gegenüber solchen Technologien ist gering: 40 Prozent der in der TÜV-Studie Befragten erwarten 100 Prozent Fehlerfreiheit. 34 Prozent würden einem KI-System in Ausnahmefällen Fehler zugestehen. Strenger sind die Studienteilnehmer beim autonomen Fahren. 84 Prozent stimmen der Aussage zu, dass autonome Fahrzeuge absolut fehlerfrei arbeiten müssen. Und ebenfalls 84 Prozent sind der Meinung, dass KI-Systeme in Fahrzeugen von unabhängigen Stellen geprüft werden sollten.

Die Politik muss handeln

An die Politik hat der TÜV eine Reihe von Forderungen. Dazu zählen zum Beispiel:

  • KI-Anwendungen sollten in verschiedene Risikoklassen eingeordnet werden. In Abhängigkeit vom Risiko können sie dann zugelassen, überprüft oder sogar laufend überwacht werden.
  • Die Prüfung von KI-Systemen mit hohem oder sehr hohem Risiko sollte von unabhängigen Prüforganisationen vorgenommen werden.
  • Voraussetzung für herstellerunabhängige Prüfungen von algorithmischen Systemen ist der Zugang zu den dafür notwendigen sicherheitsrelevanten Daten. Schon heute fehlt den Prüforganisationen zum Beispiel der Zugang zu wichtigen Daten von digital gesteuerten Aufzügen oder Fahrerassistenzsystemen in Autos.
  • Für lernende KI-Systeme sind fortlaufende Prüfungen notwendig. Periodische Prüfungen alle ein oder zwei Jahre dürften im digitalen Zeitalter bald der Vergangenheit angehören.

„Jeden Tag drängen viele neue KI-Anwendungen auf den Markt“, sagte Fübi. „Die Zeit der politischen Meinungsbildung sollte zu Ende gehen. Jetzt ist politisches Handeln gefragt.“

Der Studienbericht ist hier verfügbar: www.vdtuev.de/news/ki-studie

Titelbild: Gerd Altmann/Pixabay

Ein Kommentar zu „Leitplanken für Algorithmen

Gib deinen ab

Kommentar verfassen

Powered by WordPress.com.

Nach oben ↑

%d Bloggern gefällt das: