„Wir können uns die Möglichkeiten heute noch gar nicht vorstellen“

Bild: Wandelbots

Das Dresdner Startup Wandelbots will den Einsatz von Robotern deutlich vereinfachen. Mit Hilfe eines Stifts zeigt der Nutzer dem Roboter, welche Bewegung dieser ausführen soll. Mit der universellen Programmiersprache Wandelscript, die das Unternehmen entwickelt hat, soll es außerdem künftig möglich sein, alle Roboter zu steuern – unabhängig von Hersteller oder Modell. Im Interview erklärt CEO Christian Piechnick, wie Roboter uns im Haushalt helfen werden, welche Hürden der Künstlichen Intelligenz im Weg stehen und warum der Mensch der Maschine noch überlegen ist.

Herr Piechnick, wie sehen Sie unsere Zukunft mit Robotern?

Ich glaube ganz fest daran, dass wir irgendwann so etwas wie Personal Robots haben werden. Das werden eher kleinere Roboter sein, die man mit sich herumträgt und die verschiedene Aufgaben im Haushalt übernehmen. Sie helfen zum Beispiel in der Küche, werden bei Bedarf zum 3D-Drucker oder reparieren das Smartphone. Vielleicht hat man dann zu Hause einen großen Schrank mit Equipment für den Roboter, um ihn für die jeweilige Aufgabe auszurüsten.

Wird der Einsatz von Robotern im privaten Umfeld der gesamten Entwicklung einen Schub geben?

Der Consumer-Bereich wird aus meiner Sicht ein großes Zugpferd in der Robotik in den kommenden 30 Jahren sein. Davon bin ich felsenfest überzeugt. Das ist auch eine Generationsfrage. Meine Kinder beispielsweise sind durch Wandelbots von frühen Tagen an mit Robotern konfrontiert. Und wenn wir jetzt etwa am Abendbrottisch sitzen, sprechen wir auch darüber, wie cool es wäre, einen Roboter zu Hause zu haben und was der alles machen könnte. Ich glaube, da wächst eine Generation heran, für die ein Roboter viel greifbarer sein wird als für uns. In den Achtzigern konnte sich auch niemand vorstellen, dass es mal 1,8 Milliarden PCs da draußen gibt. Das war etwas für Nerds, für Spezialisten. Und innerhalb von zehn Jahren ist diese Technik dann in jedes Wohnzimmer und an jeden Arbeitsplatz gewandert. Ich glaube, dass wir eine ähnliche Wachstumskurve auch in der Robotik sehen werden.

Was ist mit der Service-Robotik – zum Beispiel im medizinischen Bereich oder in der Pflege?

Diese Bereiche arbeiten noch halbwegs isoliert voneinander. Das heißt, das sind völlig andere Communities, die verschiedene Technologien entwickeln. Wir brauchen dort einen größeren Austausch. Mein Bauchgefühl ist, dass man aus der Industrie-Robotik immer so ein bisschen abschätzig auf diesen Bereich schaut und denkt, das sei Spielkram. Eine einheitliche Technologiegrundlage, an der zum Beispiel wir arbeiten, könnte hier Brücken bauen. Denn wenn man einen Service-Roboter in die Lage versetzt hat, in einer Situation zu agieren, die er noch nie gesehen hat, dann kann das auch für einen Fertigungs-Roboter in einem Zehn-Mann-Handwerksbetrieb relevant sein.

„Wir werden noch einen langen Weg gehen müssen“

Was fehlt noch bis dahin?

Um dahin zu kommen, muss ein Roboter überhaupt erst mal in die Lage versetzt werden, selbstständig in einer Umgebung agieren zu können. Das heißt, er braucht unfassbar viel Intelligenz und die Fähigkeit, Problemlösungen zu generieren. Wir werden noch einen langen Weg gehen müssen, um dorthin zu kommen. Die gute Nachricht ist: Es passiert schon einiges!

Was braucht es, um dieses Ziel zu erreichen?

Ich vergleiche das immer so ein bisschen mit Sprachassistenten wie Alexa oder Siri. Solche Systeme benötigen extrem viele Sprachaufnahmen, mit denen die Künstliche Intelligenz lernen kann. Der erste Schritt ist also, zunächst mal die entsprechende Datenbasis zu schaffen. Mein Eindruck ist jedoch: In der Robotikindustrie wünscht sich zwar jeder, dass der Roboter alles von alleine macht. Aber niemand kümmert sich darum, eine Infrastruktur zu schaffen, um erst mal an die dafür nötigen Daten zu kommen.

In diesem Zusammenhang wird häufig über die Vernetzung von Robotern gesprochen, damit diese voneinander lernen können.

Ja, aber wir müssen überhaupt erst mal die technische Grundlage dafür legen – also die Infrastruktur schaffen, dass Roboter überhaupt miteinander kommunizieren können. Das ist die Grundvoraussetzung. Und es herrscht da auch häufig ein zu großer Technik-Optimismus. Das heißt, selbst wenn ein Hersteller überhaupt wüsste, wo seine Roboter überall auf der Welt laufen und wenn diese miteinander kommunizieren könnten, dann würden diese Informationen noch nicht ausreichen, um damit signifikanten Mehrwert zu generieren. Alleine die Daten, wie sie heute anfallen, helfen noch nicht dabei, Roboter voneinander lernen zu lassen. Oder nur in sehr begrenztem Maßstab. Und wie die Daten aufbereitet werden, ist dann die nächste Frage. Das wird alles kommen. Aber ich sehe das eher in einem Zeitraum von 10 bis 15 Jahren. Doch wir müssen jetzt anfangen, alle gemeinsam daran zu arbeiten.

„Ursprünglich sind Roboter erst mal blind und dumm“

Welche Hürden außer der fehlenden Infrastruktur sehen Sie noch?

Eines der fundamentalsten Dinge ist die Abstraktionsfähigkeit von neuronalen Netzen. Ein neuronales Netz ist am Ende nichts anderes, als eine Korrelation herzustellen zwischen Eingabe- und Ausgabedaten. Neuronalen Netzen fällt es heute noch sehr schwer, mit Situationen klarzukommen, die vollkommen neu und mit nichts vergleichbar sind. Es geht also darum, Wissen zu abstrahieren und dann wieder auf neue Anwendungsfelder zu applizieren. Es gibt sehr viele Leute, die daran arbeiten. Das ist die gute Nachricht. Aber es ist noch ein bisschen was zu tun. Aus meiner Sicht ist das ein Stufenprozess.

Inwiefern?

Ursprünglich sind Roboter erst mal blind und dumm. Man programmiert einen festen, repetitiven Prozess, nach dem sie arbeiten. Auf der nächsten Stufe gebe ich dem Roboter irgendwie Sinn – zum Beispiel durch eine Kamera. Ich habe dann immer noch meinen fest definierten Ablauf, aber mit Variationspunkten. Zum Beispiel erkennt der Roboter mit Hilfe der Kamera, wo genau ein Werkstück liegt. Dadurch lässt sich der vorprogrammierte Ablauf ein bisschen an die Gegebenheiten anpassen, wenn auch in einem sehr engen Rahmen. Dann gibt es Lösungen, die einen Schritt weitergehen und einen Rahmen setzen. Zum Beispiel: Der Roboter soll etwas greifen, aber wo das Teil gegriffen werden muss – zum Beispiel der berühmte Griff in die Kiste – wird über Intelligenz und Sensorik bestimmt. Das ist dann die nächsthöhere Stufe. Und eine weitere Stufe wäre es dann, einen Roboter in die Lage zu versetzen, über Sensorik die Umgebung wahrzunehmen, zu verstehen, was er tun soll, und dies dann selbstständig umzusetzen. Das funktioniert zur jetzt schon ab und zu im Labor, aber es gibt noch keine generische Lösung dafür.

Was diese Fähigkeit betrifft, ist der Mensch also dem Roboter noch überlegen.

Ja. Sie können mich zum Beispiel in eine Werkstatt stellen und sagen: „Schneide bitte dieses Stück Holz auf Maß.“ Das bekomme ich dann schon hin. Ich weiß, was zu tun ist. Aber ein Roboter ist, was diese Fähigkeiten angeht, noch zu starr. Und die Möglichkeiten heutiger KI sind noch zu limitiert, um derartige Lösungen wirklich hoch qualitativ anbieten zu können. Aber wir werden dorthin kommen. Das End Game sozusagen sind dann wirklich global vernetzte Roboter. Eine kollektive Intelligenz. Wenn ich Millionen von Roboter da draußen habe, die in jeder Sekunde Daten und Wissen generieren, und dieses Wissen in Echtzeit zusammenfließt, dann kann das zu einer exponentiellen Lernkurve führen. Die Möglichkeiten, die dadurch entstehen, können wir uns heute noch gar nicht richtig vorstellen.

Kommentar verfassen

Powered by WordPress.com. von Anders Noren.

Nach oben ↑

%d Bloggern gefällt das: