„Mit welchem Restrisiko sind wir einverstanden?“

Sebastian Hallensleben ist Kompetenzfeldleiter für Digitalisierung und KI beim VDE (Verband der Elektrotechnik, Elektronik und Informationstechnik). Bild: VDE

Künstliche Intelligenz (KI) ist unabdingbar für das autonome Fahren. Doch selbstlernende Systeme sind eine Herausforderung, wenn es um die Zulassung der Autos geht, sagt KI-Experte Sebastian Hallensleben vom VDE. Im Interview erklärt er, warum das so ist und was das Ganze mit einer Wanderung mit verbundenen Augen zu tun hat.

Herr Hallensleben, selbstlernende Systeme entwickeln sich ständig weiter. Das ist aus Ihrer Sicht für die Zertifizierung von KI eine Herausforderung. Denn ein KI-System, das heute zertifiziert wird, sei quasi morgen nicht mehr das Gleiche. Können Sie das genauer erklären?

Grundsätzlich gibt es diese Herausforderung ja bei allen Systemen, bei denen Software eine Rolle spielt und nach der Auslieferung oder nach der Inbetriebnahme aktualisiert wird. Das kann zum Beispiel Ihr Laptop oder ein Gerät in der Medizintechnik sein. Im schlimmsten Fall funktioniert das Gerät nicht mehr, weil ein Update fehlgeschlagen ist oder dieses für eine Fehlfunktion sorgt. Das Gleiche gilt grundsätzlich auch für Fahrzeuge. Daher werden in Deutschland die Software-Updates derzeit nur in Werkstätten aufgespielt. So hat man zumindest die Kontrolle darüber, dass genau das richtige Update für das passende Fahrzeuge installiert wird. Tesla macht es anders und spielt die Updates einfach per Funk auf. Doch da beginnt bereits eine Grauzone.

Warum?

Das, was das Kraftfahrt-Bundesamt mal freigegeben hat, ist nicht mehr das Gleiche wie das, was im Fahrzeug aktuell vorliegt. Das gilt vor allem dann, wenn sich die Updates auf kritische Komponenten beziehen – wie zum Beispiel die Software für das ABS-System.

Was passiert, wenn jetzt noch KI ins Spiel kommt?

Dann wird diese Herausforderung noch größer. Wir haben dann Software im Fahrzeug, die sich selbst aktualisiert. Sie verändert sich dadurch, dass sie lernt. Das ist sozusagen ein kontinuierliches, unkontrolliertes Update. Dieses kann aus zwei Richtungen kommen: zum einen durch die Erfahrungen, die ein Fahrzeug selbst macht. Das Auto lernt zum Beispiel, wie stark es vor einer bestimmten Kurve abbremsen sollte, um noch in einem sicheren Rahmen zu bleiben. Oder es hat andere Verkehrssituationen gelernt, die ursprünglich im Training nicht vorhanden waren.

Und die andere Richtung?

Das ist das Lernen in der Flotte. Das Fahrzeug wird eventuell auch dadurch upgedatet, was andere Autos der gleichen Sorte oder desselben Typs gelernt haben. In diesem Fall gibt es noch weniger Kontrolle. Stellen Sie sich vor, ein Auto ist in einem Land unterwegs, in dem rote Ampeln oder Verkehrsregeln eher weniger beachtet werden. Dann hat das nicht nur Einfluss auf die eigene Fahrweise, sondern möglicherweise auch auf die von Autos in anderen Ländern, in denen das Missachten von Verkehrsregeln nicht ganz so opportun ist.

Das Auto müsste eigentlich täglich geprüft werden

Wie geht man damit um, wenn es um die Zulassung der Fahrzeuge geht?

Was wir bisher an Zertifizierungen oder Zulassungen für sicherheitskritische Systeme haben, ist eigentlich darauf abgestellt, one-off zu sein. Das heißt: Es gibt bestimmte Normen, nach denen geprüft wird, und dann ist das Prüfobjekt zugelassen oder zertifiziert. Bei einem stark selbstlernenden System – egal, ob das ein Roboter oder ein autonomes Fahrzeug ist – müsste diese Prüfung eigentlich automatisiert werden. Sie müsste immer wieder durchgeführt werden – zum Beispiel täglich oder bei jedem Start des Fahrzeugs. Und das Ergebnis dieser Prüfung müsste auch in irgendeiner Form offiziell oder manipulationssicher festgehalten werden. Prüfhäuser wie das VDE-Prüfinstitut, der TÜV oder die DEKRA müssten also einen Kunden dauernd begleitet und bei diesem automatisierte Überwachungs- oder Prüfungseinrichtungen installieren. Das ist ein Vorgehen, das in dem Geschäftsmodell und der Betriebsweise dieser Prüfhäuser bisher nicht vorgesehen ist.

Aber selbst wenn es möglich wäre, ein solches System jeden Tag zu prüfen – lässt sich denn überhaupt erkennen, was die KI tatsächlich gelernt hat?

Das ist eine weitere große Herausforderung. Es sind ja die neuronalen Netze, die den KI-Hype der vergangenen acht oder neun Jahre ausgelöst haben. Und diese stellen quasi eine Blackbox dar, die sich zumindest bisher nicht umfassend prüfen lässt. Ein konventionelles System kann zwar auch nicht komplett geprüft werden. Aber man versteht das Innenleben des Systems gut genug, um zu wissen, welche Parameterkombinationen geprüft werden müssen, um Schwachstellen zu entdecken.

Was heißt das konkret?

Nehmen wir als Beispiel eine Waschmaschine, bei der ich prüfen möchte, dass die Rotation der Trommel sauber läuft. Dann weiß ich: Eine Trommel rotiert in einem bestimmten Drehzahlbereich und es gibt bei manchen Drehzahlen möglicherweise eine mechanische Resonanz. Man kann dann in Schritten von 100 Umdrehungen pro Minute die Maschine ein Mal durchtesten. Und wenn man dabei Auffälligkeiten erkennt, weiß man, an welcher Stelle man noch mal ein bisschen genauer nach Resonanzen schauen muss. Diese Art von Erfahrung und das Verständnis, wie ein System innen funktioniert, habe ich bei einem neuronalen Netz nicht.

Was sind die Folgen?

Es kann sein – um beim autonomen Fahren zu bleiben –, dass eine Fahrsituation super gemeistert wird von der KI und eine andere Situation, die sich nur ganz minimal unterscheidet, auf einmal das ganze System zum Umfallen bringt. Es ist im Grunde so: Ich wandere mit verbundenen Augen durch eine Landschaft und versuche mich dadurch davon zu überzeugen, dass da nirgends Klippen sind. Aber ich weiß nie, wie nah ich an der Klippenkante bin. Es kann sein, dass ich nur einen halben Schritt machen muss und abstürze. Oder es kann sein, dass die Kante einen Kilometer entfernt ist.

Können Sie dafür ein Beispiel nennen?

Es gibt inzwischen recht viele Demonstrationen, um solche Kliffkanten zu zeigen – zum Beispiel bei der Erkennung von Verkehrszeichen. Dabei identifiziert die KI ein Verkehrszeichen ganz normal als Tempo-30-Schild. Klebt man jedoch ein kleines Isolierband oder kleine Farbpunkte dazu, erkennt das neuronale Netz das Schild nicht mehr. Uns fehlt bisher das Wissen, wie man solche Situationen oder solche Schwächen eines neuronalen Netzes erkennen kann. Das ist ein Forschungsproblem.

Eine kleine Kerze für die Black Box

Gibt es denn zumindest Ansätze, um dieses Problem zu lösen?

Man weiß bisher nicht, ob es eine grundsätzlich mathematisch beweisbare Lösung gibt. Es geht letztlich nur darum, das Vertrauensniveau immer weiter hochzuschrauben, bis man sagt: ‚Mit dem Restrisiko können wir jetzt leben‘. Dazu gehört zum Beispiel, dass man aus einem neuronalen Netz Informationen herauszieht und sich etwa fragt, woran es lag, dass das Schild als Tempo-30-Schild erkannt wurde. Wenn man dann feststellt, dass das neuronale Netz nicht den Gesamteindruck des Verkehrsschildes ausgewertet hat, sondern nur, wo eine bestimmte Kante sitzt, dann könnte das eine Schwäche des Systems sein. So kann man ein bisschen mit einer kleinen Kerze durch die Blackbox laufen – auch wenn sie sich immer noch nicht richtig ausleuchten lässt. Ein zweiter Ansatz ist, den Wirkungsbereich der KI einzuschränken.

Das heißt?

Das macht man zum Beispiel bei Robotern. Die KI darf dann die Bewegungsabläufe zwar optimieren, aber nur innerhalb eines gewissen gedachten Rahmens beziehungsweise so lange kein Sensor meldet, dass ein Mensch in der Nähe ist. So entsteht eine Art Safety Wrapper um die KI herum. Dieser wird mit konventioneller Software gesetzt und lässt sich einigermaßen vollständig testen. Damit macht man Systeme auch zertifizierbar.

Wie viele Tote sind akzeptabel?

Wenn ich das richtig verstehe, würde das aber Stufe 5 des autonomen Fahrens ausschließen. Denn auf diesem Level wird ja alles in die Hände der KI gelegt.

Bei Stufe 5 des autonomen Fahrens ist es tatsächlich schwierig, sich so einen Ansatz vorzustellen. Denn: Beim Roboter lässt sich ein solcher Rahmen noch mit konventioneller Technik setzen. Beim autonomen Fahrzeug ist dies nicht möglich.

Eine Konsequenz könnte auch sein, dass man die KI einfach wie einen Menschen behandelt. Der macht ja auch nur einmal in seinem Leben den Führerschein. Und anschließend wird auch nicht mehr überprüft, ob er noch fähig ist, Auto zu fahren.

Das ist aus mehreren Gründen ein sehr interessanter Vergleich. Zum einen, weil er die Frage aufwirft, wie gut testbar ein Mensch ist. Und: Wie gut verstehen wir den Menschen, was diese Kliffkanten angeht? Inwieweit verstehen wir, wann ein Mensch sich völlig unerwartet verhält? Die andere spannende Betrachtungsweise dabei ist: Mit welchem Restrisiko sind wir einverstanden? Unser Autoverkehr verursacht ungefähr 3.000 Tote pro Jahr. Das ist viel. Das lässt man nicht vielen anderen Technologien durchgehen. Aber beim Autoverkehr ist dies gesellschaftlich akzeptiert – aus welchen Gründen auch immer. Wenn nun alle Autos in Deutschland autonom unterwegs wären, müsste man die Entscheidung treffen, was denn akzeptabel ist. 3.000 Tote wären das wahrscheinlich nicht. Null Tote sind jedoch nicht technisch zu realisieren. Wo ist also die Schwelle? Das ist etwas, das nicht technisch gelöst werden kann. Dafür müssen wir einen gesellschaftlichen Konsens finden. Ich habe den Eindruck, dass sich die Politik vor dieser Debatte noch etwas drückt.

Kommentar verfassen

Powered by WordPress.com. von Anders Noren.

Nach oben ↑

%d Bloggern gefällt das: