Herr Henning, Sie kritisieren, dass Künstliche Intelligenz häufig noch zu kurz gedacht wird. Was genau ist das Problem?
Klaus Henning: Maschinen müssen als Gegenüber des Menschen selbstreflexionsfähig sein – also eigenständig zu Entscheidungen kommen. So lange man Künstliche Intelligenz so mit Regeln zuzementiert, dass die Algorithmen, die dahinter stehen, nicht zur Entfaltung kommen, entsteht nichts Neues. Dafür haben wir schon adaptive Systeme.
Können Sie ein Beispiel nennen?
Henning: Ich erkläre das gerne an einem autonomen Auto. Wenn sich dieses auf einer Straße bewegt, wo seine gesamte Umgebung 70 km/h fährt, obwohl 50 km/h erlaubt sind, dann wird es in einer eigenen Entscheidung darüber nachdenken, ob es nicht doch schneller fahren sollte. Es wägt die Gründe ab, die dafür und dagegen sprechen und fällt eine Entscheidung. Es macht also die gleichen qualitativen Einschätzungsprozesse wie wir Menschen. Wenn ich aber die Entscheidungsfähigkeit der Maschine einschränke und sage „Du fährst auf keinen Fall schneller als 50“, dann mache ich die KI dumm. Wir müssen den Maschinen den gleichen Ermessensspielraum wie uns Menschen zubilligen. Wir brauchen keine digitalen Deppen.
Das geht über Machine Learning hinaus.
Henning: Platt gesagt, ist es ja wie in der Erziehung. Entweder ich mache Teach-In und bringe jemandem bei, wie er sich zu verhalten hat. Dann wird er es nachmachen. Oder er muss auf Basis von Trial-And-Error selbst denken. Was wir in der KI sehen, ist nichts anderes als der Streit von klassischer Pädagogik und der Reformpädagogik mit learning by doing. Da gibt es die Radikalen, die alles learning by doing machen und die anderen, die eine Teach-In-Methode verfolgen. Und die dritten kombinieren die beiden Konzepte.
Aber entsteht damit nicht die Gefahr, dass die KI-Systeme nicht mehr kontrolliert werden können?
Henning: Wir haben überhaupt nicht verstanden, was der Kern von KI ist, wenn wir KI über Standardisierung und Sicherheitsphilosophie so begrenzen, dass sie am Ende nichts anderes als der ausführende Sklave ist. Deswegen spielen ethische Leitlinien in intelligenten Algorithmen eine große Rolle. Weil man diesen Automaten so etwas Ähnliches beibringen muss wie ein Gewissen, das sie als Rahmen für ihre Entscheidungen nehmen. Das ist etwas anderes als ein Standard. Im Grunde muss ein solches Gebilde eine eigene Rechtspersönlichkeit sein.
Was ist dabei konkret die Rolle des Menschen?
Henning: Seine Aufgabe ist, den Gestaltungsrahmen zu definieren. Und in diesem systemischen Sinn Chef der Systeme zu bleiben. Wenn jemand zum Beispiel eine Hundezucht betreibt, dann ist er diesen Tieren als Einzelner unterlegen. Denn Hunde sind ziemlich gut koordiniert und sehr intelligent. Trotzdem übernimmt der Mensch die Führungsaufgaben dieser intelligenten Wesen. Das ist für mich das Leitparadigma für den Umgang mit intelligenten Maschinen. Ob Maschinen die Herrschaft übernehmen können? Ja, wenn wir nicht aufpassen, tun sie das. Aber wir wollen ein System, in dem wir die Rahmenbedingungen gestalten. Und in diesem gibt es drei zentrale Begriffe: Vertrauen, Agilität und Achtsamkeit.
Das heißt?
Henning: Wenn ich etwas werteorientiert und kontrolliert verändern will, dann muss ich eine Kultur des Vertrauens vertikal und horizontal über alle Strukturen, Abteilungen und Menschen hinweg schaffen. Das muss man einüben. Ein Beispiel: In Rio haben sich alle Leute längst an den vollautomatischen Bus gewöhnt. Der verkehrt dort seit mehreren Jahren vollkommen autonom – auf speziell zugelassenen Straßen. Daran haben sich alle gewöhnt. Es ist Vertrauen entstanden. Man muss einen Prozess entstehen lassen, in dem Menschen lernen können, ob sie Vertrauen in eine Technologie haben oder nicht.
Was hat es mit den anderen beiden Begriffen – also Agilität und Achtsamkeit – auf sich?
Henning: Agilität bedeutet, dass wir wechselfähiger und schneller werden müssen. Und wir müssen von den Grundsatzdiskussionen wegkommen. Wenn eine neue Idee entsteht, sollte man diese einfach mal ausprobieren, statt zuerst Gesetze zu erlassen. Auf der anderen Seite müssen wir lernen, auf die Nebenwirkungen einer technologischen Entwicklung zu schauen. Dafür steht Achtsamkeit.
KI macht vielen Menschen auch Angst, weil sie Arbeitsplätze vernichten wird.
Henning: Jede Innovationswelle kostet Jobs und schafft neue. Das ist kein neues Thema. Nehmen Sie nur dieses etwas abgedroschene Beispiel vom Übergang von der Pferdekutsche zum Automobil. Das Phänomen, dass schlagartig ganze Berufsgruppen wegfallen, ist nicht neu. Wenn ich aber weiß, dass die Maschine meinen Job in drei Jahren besser kann als ich, dann sollte ich mir jetzt überlegen, was ich mit ihr gemeinsam machen kann – im Sinne eines neuen Business-Modells. Beispiel ist die vorausschauende Wartung, die durch KI-Systeme in einer anderen Dimension möglich geworden ist. Es wird auf ein kreatives Zusammenspiel von menschlicher und maschineller Intelligenz hinauslaufen. Und genau in solchen speziellen Produkten und Dienstleistungen liegt die zukünftige Chance des Exportstandorts Deutschland.
Wie wird sich der Mensch in Zukunft von der Maschine unterscheiden können? Ist es Kreativität?
Henning: Vorsicht, auch Maschinen können kreativ sein. Denn was ist Kreativität? Ich gebe jemandem eine Aufgabe, zu der er keine Erfahrung hat. Und durch Weiterentwicklung der alten Erfahrung kommt er auf eine neue Idee und kann die Aufgabe lösen. Ein Navigationssystem ist wahrscheinlich schon in Kürze wesentlich kreativer als ich darin herauszufinden, wie man unter ganz bestimmten Bedingungen von Aachen nach Köln kommt.
Welche Stärken kann der Mensch stattdessen ausspielen?
Henning: Der Mensch ist sehr gut in seiner Reflexionsfähigkeit und im Umgang mit komplexen Situationen mit einem hohem Chaosgrad. Davon sind die Maschinen noch meilenweit entfernt. Menschen können in solchen Situationen extrem emotionale und oft richtige Entscheidungen treffen. Da geht es um Dinge wie emotionale Intelligenz.
Die technologische Entwicklung ist extrem schnell. Haben wir denn überhaupt noch die Zeit, uns als Gesellschaft zu verändern und die notwendigen Rahmenbedingungen zu schaffen?
Henning: Es gibt eine Studie mit einem großen Fahrzeughersteller zum Durchdringungsgrad und der Marktreife von KI. Dabei kam heraus, dass wir circa 15 Jahre Zeit haben – also eine halbe Generation. Wenn es aber um veränderte Rechtssysteme oder ein neues politisches Verständnis einer Gemeinde geht, dann sind 15 Jahre verdammt knapp. Das gilt erst recht, wenn man bedenkt, dass ein heute 25-Jähriger Mühe hat zu verstehen, was sein fünfjähriger Neffe tut. Wir müssen uns also beeilen. Aber wir Ingenieure und Informatiker haben die Pflicht und Schuldigkeit, den Prozess zu prägen, wie durch KI auch die Gesellschaft neu gestaltet werden kann.
Zur Person:
Professor Klaus Henning ist Senior Partner beim Beratungsunternehmen P3 OSTO und Vorstandsmitglied des Instituts für Unternehmenskybernetik an der RWTH Aachen. Im November erscheint sein neues Buch “Smart und digital”.
Kommentar verfassen