Herr Trapp, was ist das Problem beim Einsatz von Künstlicher Intelligenz?
Mario Trapp: KI funktioniert meistens gut. Aber das „meistens“ ist nicht genauer spezifiziert. Nutzen Sie einen Sprachassistenten?
Eher selten.
Trapp: Bei Sprachassistenten wie zum Beispiel Siri oder Alexa braucht man manchmal drei oder vier Anläufe, bis das System verstanden hat, was man wirklich meint. Das ist das Niveau, auf dem sich die KI zur Zeit bewegt. Man kann keine Garantie für ihr Funktionieren geben. Wenn es jedoch um sicherheitskritische Anwendungen geht, in denen etwa Menschenleben von der Technik abhängen, dann benötigt man Garantien.
Es besteht also bei KI derzeit noch ein relativ hohes Risiko, dass diese nicht das gewünschte Ergebnis liefert?
Trapp: Genau. Im vergangenen Jahr gab es in den USA einen Unfall eines Uber-Fahrzeugs mit einer Fußgängerin, die ein Rad schob. Diese wurde zwar als Objekt erkannt. Die KI klassifizierte die Fußgängerin aber als unkritisches Objekt, das man überfahren kann – wie zum Beispiel eine Plastiktüte. Und das ist letzten Endes die Problematik, die entstehen kann.
Heißt konkret?
Trapp: Fachlich gesprochen reden wir von einer so genannten Nichtlinearität bei der KI. Wenn wir Software testen und unsere Testfälle gut wählen, dann gehen wir davon aus, dass sie sich auch in der Realität, die sich immer irgendwo zwischen diesen Testfällen bewegen wird, sicher verhält. Davon können wir heute in der KI aber nicht ausgehen. Im Testfeld kann die KI ein Bild immer korrekt analysieren. Im realen Einsatz kann es jedoch passieren, dass nur ein kleines bisschen Rauschen in das Bild hineinkommt und auf einmal erhält man ein komplett anderes Ergebnis. Das macht die KI heute so schwer beherrschbar.
Das heißt: Herkömmliche Methoden, um Software abzusichern, funktionieren nicht, weil man nicht nachvollziehen kann, wie ein KI-System zu seinen Resultaten kommt.
Trapp: Ja, denn die Software ist ja nicht programmiert, sondern wird trainiert. Das ist so, als ob man eine physiologische Untersuchung eines menschlichen Gehirns durchführt und daraus herleiten möchte, ob dieser Mensch etwas Falsches tut. Man kann zwar die einzelnen Synapsen prüfen, aber erhält trotzdem keine Aussage darüber, warum jemand etwas Bestimmtes tut. Genauso wenig lässt sich nachvollziehen, warum ein neuronales Netz zu seiner Entscheidung kommt.
Ihr Institut arbeitet daran, die KI sicherer zu machen. Was ist Ihr Ansatz?
Trapp: Im Prinzip gibt es zwei Lösungsansätze. Beim ersten geht es darum, die KI transparenter zu machen – also wirklich von der Blackbox zur Greybox oder sogar zur Whitebox zu kommen. Dieser Ansatz befindet sich allerdings noch in den Kinderschuhen. Dafür wird noch viel Forschungsarbeit notwendig sein. Deswegen verfolgen wir derzeit einen zweiten Ansatz. Dabei konzentrieren wir uns darauf, nicht die KI selbst sicher zu machen, sondern das System sicher und zuverlässig zu machen, indem entsprechende Überwachungskanäle aufgebaut werden.
Was heißt das?
Trapp: Man setzt ja die KI genau deshalb ein, weil sie eben die Dinge tut, die nicht nachvollziehbar sind. Man hofft quasi genau auf dieses Unerwartete. Deswegen darf man die KI auch nicht zu sehr einschränken. Wir gehen nun nach dem Grundprinzip vor, dass es eigentlich immer leichter ist, einen Vorschlag zu bewerten, als konstruktiv selbst einen solchen zu machen. Das ist wie im echten Leben. Wenn Sie einen Vorschlag auf den Tisch legen, dann sind die Kollegen schnell dabei, diesen zu zerreißen. Aber einen eigenen Vorschlag zu bringen, ist eine ganz andere Geschichte. In unserem Fall nutzen wir klassische Algorithmen, um den Vorschlag der KI zu plausibilisieren. So versuchen wir, beide Welten miteinander in Einklang zu bringen. Wir nutzen die Kreativität der KI, können diese aber trotzdem noch mal überprüfen.
Aber ist es denn möglich, das innerhalb von Sekundenbruchteilen – wie es beim autonomen Fahren ja notwendig wäre – zu tun?
Trapp: Beim autonomen Fahren erhält die KI ein Kamerabild, Laserdaten, Radardaten und andere Informationen. Daraus berechnet sie dann zwei, drei Alternativen, wie die Fahrzeugtrajektorie aussehen kann.
Also, welchen Weg das Fahrzeug nimmt.
Trapp: Richtig. Mit klassischer Algorithmik überprüfen wir nun, ob sich auf der Trajektorie tatsächlich ein Hindernis befindet oder nicht. Das lässt sich sehr schnell umsetzen. Denn man muss nicht mehr alles durchsuchen, sondern überprüft nur die Trajektorien.
Wie weit sind Sie mit Ihrer Arbeit?
Trapp: Den Fehler zu erkennen, funktioniert schon recht gut. Aber das ist ja nur der erste Schritt. Die Herausforderung ist, nicht zu viele False-Positives zu produzieren. Es ist manchmal schwer zu sagen: Ist das jetzt einfach nur eine Plastiktüte, die auf der Straße liegt? Oder ist es ein kleines Kind, das auf der Straße kniet? Es gibt eine Fifty-fifty-Chance, das Kind dann als Plastiktüte zu erkennen. Und im Zweifelsfall wird man immer bremsen. Aber wenn man vor jeder Plastiktüte bremst, kommt man kaum voran. Das heißt: Wir können das System heute schon sicher machen. Es aber abzusichern, ohne die Performance der KI zu sehr einzuschränken, ist der nächste Schritt. Der übernächste Schritt ist, auch entsprechende Gegenmaßnahmen zu finden, wenn ich die Fehler erkannt habe
Wie groß ist denn überhaupt das Risiko, dass es beim autonomen Fahren zu falschen Entscheidungen kommt?
Trapp: Es sind ja noch vergleichsweise wenige autonome Fahrzeuge unterwegs. Wenn man die bisherigen Unfälle auf die über 40 Millionen Fahrzeuge, die es in Deutschland gibt, hochrechnet, dann kommt man auf eine relativ hohe Todesrate. Außerdem: Es gibt ja einen Grund, warum autonome Fahrzeuge zum Beispiel in Kalifornien und nicht in München unterwegs sind. Dort herrschen andere Straßen- und Wetterverhältnisse. Die Autos fahren mit anderen Geschwindigkeiten. Es gab Anbieter, die in den USA von San Francisco nach New York fast komplett – also zu 99,9 Prozent – autonom gefahren sind. Das gleiche haben Kollegen in Deutschland versucht und sind dabei auf 20 Prozent gekommen. Das tatsächliche Risiko lässt sich nicht beziffern, weil wir noch gar nicht wissen, wie gut die Technik ist.
Die Frage ist auch, wie viel Risiko man akzeptieren würde.
Trapp: Richtig. Woran mache ich denn fest, dass ein autonomes Fahrzeug sicher ist? Darauf gibt es noch keine Antwort. Wir haben uns noch auf keine Kriterien geeinigt. Wie viele Milliarden Kilometer müssen dafür zurückgelegt werden? Was für Kilometer müssen das sein? Muss man das simulieren? Dafür gibt es noch kein gemeinsames Verständnis. Und das akzeptierte Risiko ist eine gesellschaftliche Frage. Wo ist die Gesellschaft bereit, ein Risiko zu tragen?
An technischen Lösungen werden auch immer höhere Anforderungen in Sachen Sicherheit gestellt als an den Menschen. Damit das autonome Fahren in der Gesellschaft akzeptiert wird, muss die Technik deutlich besser funktionieren als der Mensch, der hinter dem Steuer sitzt.
Trapp: Genau. Man geht davon aus, dass die Technik mindestens um den Faktor 10 besser sein muss – eher Faktor 100. Man akzeptiert, dass Menschen Fehler machen. Aber wenn eine Maschine beispielsweise ein Kind überfährt, dann entsteht eine ganz andere gesellschaftliche Debatte.
Welches Ziel sollte aus Ihrer Sicht bei der Reduzierung des Risikos anvisiert werden?
Trapp: Beim autonomen Fahren sollte die Wahrscheinlichkeit für einen Fehler mit Todesfolge irgendwo im Bereich von einem Billionstel liegen. Wir reden hier also nicht über 99,9 Prozent, sondern über die neunte Nachkommastelle. Man muss aber grundsätzlich aufpassen, nicht die Technologie an sich zu verteufeln.
Was meinen Sie damit?
Trapp: Wir möchten dafür sensibilisieren, dass wir hier nicht von einem klassischen Softwarespielzeug reden wie einer App auf dem Smartphone, sondern dass Menschenleben von der KI abhängen. Also braucht man dafür andere Qualitätseigenschaften. Es geht aber nicht darum, neue Technologien zu blockieren, sondern sich mit den entsprechenden Lösungen zu beschäftigen. Die deutsche Industrie verfügt über eine große Ingenieurstradition. Und das bietet die Chance, sich über Intelligenz plus Qualität zu differenzieren. Die Tech-Unternehmen sind zwar in der Intelligenz gut, aber nicht unbedingt in der Qualität – zumindest nicht nach den Maßstäben, wie wir sie für Maschinen und Fahrzeuge brauchen.
Wie zuversichtlich sind Sie, dass man durch die Methoden, die Sie genannt haben, die Akzeptanz in der Gesellschaft für Künstliche Intelligenz und das autonome Fahren erhöht?
Trapp: Vielleicht wird es nicht unbedingt so schnell, wie man das manchmal hört, ein autonomes Auto geben, das sowohl durch Tokio im Stadtverkehr als auch 250 km/h über die Autobahn fährt. Es werden sich vielleicht zunächst Busse mit moderaten Geschwindigkeiten in der Stadt bewegen. Und dann sammelt man Erfahrungen und nähert sich schrittweise weiteren Anwendungen an. Man muss die Gesellschaft einfach mitnehmen und Technologieängste abbauen. Wir müssen zuerst Lösungen zeigen und uns das Vertrauen der Menschen verdienen.
Zur Person:
apl. Prof. Dr. habil. Mario Trapp ist geschäftsführender Leiter des Fraunhofer-Instituts für Eingebettete Systeme und Kommunikationstechnik ESK.