Herr Leupold, Sie beschäftigen sich unter anderem mit den rechtlichen Aspekten von Künstlicher Intelligenz. Um welche Fragen geht es dabei?
Leupold: Es geht dabei um unterschiedliche Haftungsfragen. Ich denke da etwa an Fragen wie „Was passiert, wenn die KI nicht das tut, was sie eigentlich tun soll? Wenn es zu Verarbeitungsfehlern kommt und dann Maschinen oder auch Fahrzeuge nicht so gesteuert werden, wie man es eigentlich erwartet oder sich gewünscht hätte?“ Im Bereich des autonomen Fahrens ist dieses Thema schon ganz lange in der Diskussion. Was passiert, wenn ein autonom gesteuertes Fahrzeug einen Sachschaden oder tatsächlich einen Personenschaden erzeugt? Haftet dann der Softwareprogrammierer – also derjenige, der die Software entwickelt hat oder derjenige, der sie mit fehlerhaften Daten trainiert hat? Oder der Pkw-Hersteller, der Verkäufer des Pkws oder vielleicht sogar der Halter des Fahrzeugs? Da sprechen wir also von Produkthaftung.
Was ist mit anderen Einsatzgebieten?
Leupold: KI wird ja verstärkt auch in der Fertigung eingesetzt – etwa zur Prozessverbesserung oder für eine vorausschauende Wartung von Produktionsanlagen. Da stellen sich ähnliche Fragen. Wenn die KI zum Beispiel falsche Prognosen stellt und sagt: „Das Teil X muss in einem halben Jahr ausgetauscht werden.“ Wenn es aber tatsächlich am besten schon morgen ausgetauscht werden sollte, dann kann es zu Maschinenschäden und Standzeiten kommen. Meistens geht es in der Fertigung jedoch um Sachmängelhaftung.
Das heißt?
Leupold: Die Produkthaftung ist ein Thema, wenn durch ein Produkt ein Schaden an einer anderen Sache oder einer Person verursacht wird. Bei der Sachmängelhaftung geht es dagegen um den Sachmangel des Produkts selbst, das dadurch einen geringeren Wert hat. Das kann passieren, wenn die KI in der Fertigung fehlerhaft arbeitet und es dadurch zu Mängeln an den gefertigten Produkten kommt. Außerdem wird KI ja auch schon in der Konstruktion eingesetzt. Dort gibt es Anwendungsfälle, in denen ein Produkt nicht nur von einem Menschen, sondern tatsächlich auch von einer KI-Software konstruiert wird. Dann kann es zu Konstruktionsfehlern kommen, die jedem Serienbauteil anhaften und eine Produkthaftung des Herstellers auslösen können, wenn es dadurch zu Schäden an anderen Sachen oder Personen kommt.
Wo liegen aus Ihrer Sicht die größten Herausforderungen beim Thema Recht und KI?
Leupold: Eine der großen Herausforderungen liegt momentan noch darin, die KI-Entscheidungen nachvollziehbar oder nachprüfbar zu machen. Wenn man nicht sagen kann, auf welche Weise eine bestimmte Entscheidung zustande gekommen ist, dann ist es auch unmöglich, dafür einen Verantwortlichen zu bestimmen. Denn man weiß ja nicht, was die Ursache des Fehlers eigentlich war. Diese nachvollziehbare KI, wie man sie jetzt in deutscher Sprache auch schon nennt, steckt noch in der Entwicklung. Eigentlich wäre das die Grundvoraussetzung für den Einsatz von KI – zumindest aus juristischer Sicht.
Wenn ich vorab schon weiß, dass ich niemanden
haftbar machen kann, dann habe ich ein Problem.
Warum?
Leupold: Wenn nicht gewährleistet ist, dass Entscheidungen nachvollziehbar sind, dann weiß ich eigentlich nicht, wie KI im laufenden Betrieb von Maschinen, Anlagen oder Fahrzeugen überhaupt zugelassen werden kann. Man muss ja immer damit rechnen, dass es zu Fehlern kommen kann. Wenn ich aber vorab schon weiß, dass ich niemanden dafür haftbar machen kann, dann habe ich ein Problem.
Da gibt es also auch beim Gesetzgeber noch Nachholbedarf.
Leupold: Ich sage immer, das Recht muss Dinge möglich machen und nicht verhindern. Es muss aber Rechtssicherheit geschaffen werden, die dafür sorgt, dass Produkte möglichst gefahrlos genutzt werden können. Man sollte solche Herausforderungen daher nicht als unnötigen Bremsklotz wahrnehmen, sondern sollte die Diskussion ernst nehmen und darüber nachdenken, wie man diese Probleme lösen kann. Auch wenn das alles andere als einfach sein wird.
Gibt es weitere Beispiele, die zeigen, dass die rechtliche Situation der technischen Entwicklung noch hinterherhinkt?
Leupold: Da komme ich unweigerlich auf das Thema Daten zu sprechen. Es ist im Moment noch völlig ungeklärt, ob Daten ein Produkt im Sinne des Produkthaftungsrechts darstellen. Es ist nicht klar, ob bei fehlerhaften Daten, die in einem KI-Prozess verarbeitet werden – also zum Beispiel falsche Trainingsdaten -, tatsächlich auch eine Produkthaftung greifen kann. Das liegt daran, dass das Produkthaftungsrecht zu einem Zeitpunkt geschaffen wurde, als es diese Themen noch gar nicht gab. Der Gesetzgeber ist damals davon ausgegangen, dass es nur eine Produkthaftung für körperliche Sachen gibt, also für physische Produkte.
Es wurde schon darüber nachgedacht,
eine eigene „E-Person“ zu schaffen.
Wenn ich das alles weiter denke, dann muss es doch darauf hinauslaufen, dass Maschinen rechtlich wie Personen behandelt werden.
Leupold: Deswegen wurde tatsächlich schon darüber nachgedacht, eine eigene „E-Person“ zu schaffen – so ähnlich wie eine juristische Person. Der Vorschlag oder die Idee mag zunächst auf viele befremdlich wirken. Aber so befremdlich ist der Gedanke gar nicht. Denn wir haben ja auch im Zivilrecht juristische Personen. Das sind die GmbHs oder die Aktiengesellschaften. Diese haben sozusagen ein eigenes Leben, was gesetzlich geregelt ist. Dort gibt es Organe, die diese Gesellschaften vertreten. Nur in der Technik beziehungsweise in der KI existiert so etwas noch nicht. Daher gab es tatsächlich schon Überlegungen, so eine E-Person zu schaffen, die dann für die Schäden haften und auch mit einem Vermögen ausgestattet werden soll. Ich glaube nicht, dass der Gedanke letztlich zielführend ist. Aber er ist durchaus diskutabel. Es wäre auch ein Fehler, solche Ideen immer gleich zu verwerfen. Ich finde, den Luxus können wir uns überhaupt nicht leisten. Sondern wir müssen bereit sein, in alle Richtungen zu denken.
Titelbild: Privat