Bild: Opel

Bild: Opel

Dieser Beitrag erschien zuerst auf wired.de 

Motor an, Augen zu und zurücklehnen: Das Auto der Zukunft kommt ohne aktiven Fahrer aus, Unfälle soll es nicht mehr geben. Und wenn es doch mal kracht? Die Verantwortung liege immer noch beim Menschen und nicht bei der Maschine, sagt die Technikphilosophin Janina Loh. 

Nicht selbst zu fahren, hat viele Vorteile. Schlafen, im Internet surfen, arbeiten – all das soll in Zukunft im autonomen Auto möglich sein. Um Zusammenstöße mit anderen Fahrzeugen müssen sich Insassen nicht sorgen. Das besagt zumindest die Vision-Zero-Theorie, denn wenn alle Autos vernetzt und wissen wie weit sie voneinander entfernt sind, könne es auch keine Unfälle mehr geben.

Die Technologie für autonomes Fahren ist jedoch noch nicht voll ausgereift. Dass Systeme teilweise ausfallen oder Komponenten nicht richtig funktionieren ist nach wie vor nicht auszuschließen. Was passiert also, wenn es gefährlich wird? Wie entscheidet sich das autonome Fahrzeug, wenn es entweder in eine Betonwand, einen Abhang hinunter oder in eine Menschengruppe hineinfahren müsste? Und wer trägt die Verantwortung für einen Unfall, wenn der Fahrer nicht mehr eingreifen kann?

Die Debatte um autonomes Fahren ist nicht nur eine wirtschaftliche, sondern auch eine ethisch-philosophische. Auch Janina Loh wird nun immer öfter zu Veranstaltungen eingeladen, die auf den ersten Blick wenig mit Philosophie zu tun haben. Loh ist Technikphilosophin an der Universität Wien und forscht zu Trans- und Posthumanismus sowie Roboterethik. WIRED traf sie auf der OPELxWIRED future.mobility Conference in Rüsselsheim zum Interview.

WIRED: Frau Loh, Sie forschen seit Jahren zum Thema Verantwortung, philosophisch aber auch technisch gesehen. Wenn ein autonomes Auto einen Unfall baut, wer trägt dann die Verantwortung?
Janina Loh: Ganz klar: der Mensch. Nur er erfüllt die Bedingungen, Verantwortung zu tragen: Diese sind zum Beispiel Urteilskraft, die Fähigkeit, autonom handeln zu können und sich über die Folgen bewusst zu sein, und ein Verständnis von Geschichtlichkeit – das heißt, zu wissen, dass man in einen Kontext eingebettet ist, in dem man handelt. Man muss kommunizieren können, man muss eine Person sein.

WIRED: Aber Maschinen können doch mittlerweile auch kommunizieren?
Loh: Stimmt, aber alle anderen Fähigkeiten sind selbst bei den modernsten Maschinen noch nicht in dem nötigen Ausmaß vorhanden. Sie können daher – noch – keine Verantwortung tragen. Autonome Fahrassistenzsysteme sind zwar mit vielen Daten aus ihrer Umgebung ausgestattet, vielleicht „entscheiden“ sie auf dieser Grundlage auch nach bestimmten Parametern, hinreichend Urteilskraft haben sie dadurch aber nicht. Die Verantwortung liegt weiterhin bei den menschlichen Parteien, bei den Herstellern, den Fahrzeuginsassen, den Informatikern, die die Algorithmen gebaut haben, und den Juristen, die Verkehrsgesetze festgelegt haben.