Braucht die KI Regeln?

Titelbild: Gerd Altmann/Pixabay

Die EU-Kommission will risikobehaftete KI-Anwendungen kontrollieren, wie sie in einem Whitepaper verlautbaren lässt. Auch der TÜV sieht „erhebliche Regelungslücken“, wenn KI in sicherheitskritischen Bereichen genutzt wird. In einer Studie hat der Verband Verbraucherinnen und Verbraucher in Deutschland zu dem Thema befragt. Eines der Ergebnisse: 85 Prozent der Bundesbürger wollen, dass Produkte und Anwendungen mit Künstlicher Intelligenz klar gekennzeichnet werden.

Ich habe Experten in Sachen Künstlicher Intelligenz gefragt, wie sie solche Forderungen einschätzen. Die Liste wird in den kommenden Wochen sukzessive erweitert.

Michael Heizmann, KIT

Mario Trapp, Fraunhofer IKS

Andrea Martin, IBM

Klaus Henning, umlaut transformation

Frank Engelhardt, Salesforce

„Ich bin gegen eine Lex KI“

Professor Michael Heizmann, Leiter des Instituts für Industrielle Informationstechnik am KIT

Bild: Privat

Braucht die Künstliche Intelligenz eine Regulierung?

Ich bin gegen eine Lex KI. Man sollte diese Verfahren oder Ansätze nicht anders behandeln als klassische Systeme. Das ist nicht sinnvoll. Denn jedes technische System kann versagen. Und wenn es etwa um das automatisierte Fahren geht, dann gibt es in diesem Bereich ja bereits Prüfverfahren und -vorschriften, die sicherstellen, dass die Technik zuverlässig ist. Außerdem ist die Sonderbehandlung von KI beziehungsweise Machine Learning eine Augenwischerei. Viele Assistenzsysteme, die mit klassischer Bildverarbeitung arbeiten, besitzen Adaptivität. Sie können also auf die Umgebungssituation eingehen – zum Beispiel ob es hell ist oder ob ein Fahrzeug entgegen kommt. Sie verändern Verhalten auf Grundlage von dem, was sie erkennen. Diese Adaptivität kann man auch als einfaches Lernen verstehen.

Spezielle Anforderungen für ML-Verfahren ergeben daher keinen Sinn. Man braucht allgemeingültige Test- und Zulassungsverfahren, die jedes sicherheitskritische System betreffen. Und die gibt es ja auch.

„Mehr Aufklärung wäre besser“

Professor Mario Trapp, geschäftsführender Leiter des Fraunhofer-Instituts für Kognitive Systeme IKS

Prof. Mario Trapp, geschäftsführender Leiter Fraunhofer IKS
Bild: Fraunhofer IKS

Wie stehen Sie zu der Forderung nach mehr Transparenz? Sollten Systeme, die KI verwenden, gekennzeichnet sein?

Entscheidend für die Frage nach einer möglichen Kennzeichnung ist, welche Risiken hier transparent gemacht werden sollen. Geht es um Sicherheit im Sinn des englischen Begriffs safety – also um Sicherheit vor dem System? Oder geht es um Sicherheit im Sinne von security – also um die Sicherheit des Systems vor Angriffen von außen? Wenn es um Safety geht, kann eine Kennzeichnung leicht missverständlich und die Menschen überfordern. Es wird schwer möglich sein, Safety analog wie eine Ernährungsampel zu kennzeichnen. Besser wäre aus meiner Sicht mehr Aufklärung über die KI, ihre Chancen und Risiken und vor allem wie Wirtschaft, Wissenschaft und die Gesellschaft damit umgehen. Bezüglich der Sicherheit im Sinne von Safety müssen entsprechende Stellen Prüfungen übernehmen, auf die sich die Endverbraucher verlassen können. Heutige Prüfstellen wie der TÜV haben allerdings nicht die Kompetenz, um KI geeignet zu prüfen und müssen sich hier schnell und intensiv weiterentwickeln und umstrukturieren, um dieser Aufgabe adäquat gerecht werden zu können.

Sehen Sie ebenfalls Regelungslücken? Und wenn ja, wo?

Im Bereich safety – also der Sicherheit vor dem System – gibt es noch keine Standards oder Normen. Selbst die Frage, wann ein autonomes Fahrzeug als sicher gelten kann, ist noch offen. Bei Software im Fahrzeug ist deren Sicherheit bislang nur indirekt relevant für die Zulassung im Straßenverkehr. Diesen und anderen Fragen widmet sich der Verband der Automobilindustrie im Rahmen seiner Leitinitiative. Die Wirtschaft hat also Regelungslücken erkannt und arbeitet daran, diese zu schließen. Für die KI im Allgemeinen ist heute auch in der Forschung noch unklar, wie sich deren Sicherheit im Sinne von Safety nachweisen lässt bezeihungsweise welches Restrisiko überhaupt akzeptabel wäre. Es besteht also nicht nur eine Regelungslücke. Vielmehr gibt es noch eine Lücke in Forschung und Entwicklung – sprich es gibt noch keine technischen Lösungen, die man in Standards und Normen einfordern könnte.

„Unternehmen stehen in der Pflicht“

Andrea Martin, Leiterin des Watson IoT Center in München und Leader Watson Center München & Mitglied der KI-Kommission des Deutschen Bundestages

Bild: IBM

Wie stehen Sie zu der Forderung nach mehr Transparenz? Sollten Systeme, die KI verwenden, gekennzeichnet sein?

Auf jeden Fall! Unternehmen, die die Chancen KI-basierter Systeme nutzen möchten, stehen in der Pflicht. Sie müssen beispielsweise deutlich machen, wie diese Systeme trainiert werden und welche Daten hierzu verwendet werden. Verbraucherinnen und Verbraucher haben ein Recht zu wissen, wann sie es mit KI-Systemen zu tun haben und wie diese Systeme zu ihren Entscheidungen kommen. Offenheit und Transparenz sind notwendig, um Vertrauen in die Technologie aufzubauen.

Sehen Sie ebenfalls Regelungslücken? Und wenn ja, wo?

IBM unterstützt die Arbeiten an gemeinsamen Richtlinien auf OECD- und EU-Ebene. Wir haben deshalb aktiv in der High Level Group der EU-Kommission mitgearbeitet. Ausgehend von diesen Prinzipien sollte jegliche Regulierung präzise und risikobasiert sein. Für IBM gehört zu einem umfassenden Regulierungsansatz die Benennung eines KI-Verantwortlichen in Unternehmen, die Kenntlichmachung von KI gegenüber Nutzern, die Erklärbarkeit der KI sowie regelmäßige Untersuchung auf Verzerrungen (Bias). Vor dem Hintergrund eines risikobasierten Ansatzes muss es ferner unterschiedliche Regeln für unterschiedliche Einsatzfelder geben.

„Ich halte die Forderung für unsinnig“

Professor Klaus Henning, Senior Partner umlaut transformation

Bild: P3 Osto

Wie stehen Sie zu der Forderung nach mehr Transparenz? Sollten Systeme, die KI verwenden, gekennzeichnet sein?

Ich halte diese Forderung für unsinnig. Die Autoren haben den kulturrevolutionären Charakter von KI-Systemen nicht begriffen. Man müsste ja in wenigen Jahren alles kennzeichnen. Das macht keinen Sinn und wäre eine reine Arbeitsbeschaffungsmaßnahme für entsprechende Einrichtungen.

Sehen Sie ebenfalls Regelungslücken? Und wenn ja, wo?

Natürlich gibt es Regelungslücken, aber nicht auf der operativen
Ebene im bestehenden ethischen und rechtlichen Rahmen. Was wir gesellschaftlich dringend brauchen, ist eine Weiterentwicklung der sozialen und ethischen Wertesysteme und daraus abgeleitet eine neue Rechtsordnung, in der KI-Systeme, die starke KI enthalten – also ein eigenes Gedächtnis und perzeptives Bewußtsein haben – auch eigene Rechtspersonen werden, so wie ja auch Unternehmen eigene Rechtspersonen mit eigener Haftung sind.
Wir sollten bei der Regelungsfrage unser Augenmerk auf die Anwendungen richten, die im internationalen Kontext eine Bedrohung darstellen, nämlich die ungezügelte Entwicklung von vollautomatischem Kriegsgerät, das ohne menschliche Entscheidungskomponente mit starken KI-Systemen heute schon gebaut wird – auch in Deutschland. Hier sehe ich dringenden internationalen Handlungsbedarf.

„KI ist nicht gleich KI“

Frank Engelhardt, Vice President Enterprise Strategy, Salesforce

Bild: Salesforce

Wie stehen Sie zu der Forderung nach mehr Transparenz? Sollten Systeme, die KI verwenden, gekennzeichnet sein?

Transparenz ist wichtig. Nur damit kann Vertrauen entstehen. Für Nutzer muss erkennbar sein, dass KI eingesetzt wird. Zudem müssen KI-basierte Entscheidungen immer nachvollziehbar gestaltet werden

Sehen Sie ebenfalls Regelungslücken? Und wenn ja, wo?

Die Herausforderung ist, dass die Technologieentwicklung und der Markt, wie in vielen Bereichen, schneller voranschreiten als der Gesetzgeber. Es ist also in erster Linie an den Unternehmen, Verantwortung zu übernehmen und entsprechend verantwortungsvoll mit KI umzugehen. Dies beruht auf einem Wertekonstrukt, das Basis unserer Gesellschaft ist und somit auch ein Stück weit von der Politik vorgegeben werden kann. In Bezug auf Regulierungen gilt es zudem zu berücksichtigen, dass KI nicht gleich KI ist: Es existiert eine große Bandbreite an Anwendungsfällen, die sich von weniger auf sehr sensible Datenbereiche erstreckt. Eine One-Size-Fits-All-Regelung wird daher schwierig zu etablieren sein.

Kommentar verfassen

Powered by WordPress.com. von Anders Noren.

Nach oben ↑

%d Bloggern gefällt das: