Kann ein Auto entscheiden, welches Leben es sich zu retten lohnt? Und welche Folgen hat das Vertrauen, das wir künftig in unsere Fahrzeuge legen (müssen), für unser ethisches Urteilsvermögen? Die Diskussion darüber, wie moderne Technologie unser Verhalten und unsere Wahrnehmung beeinflusst ist nicht neu und seit geraumer Zeit Bestandteil interdisziplinärer Forschung. Künstliche Intelligenz, wie sie uns zukünftig in Form von Robotern und autonomen Fahrzeugen umgeben wird, kennzeichnet jedoch einen neuen Meilenstein in der Diskussion. Sie stellt viele gesellschaftliche Bereiche - bis hin zur Disziplin der Ethik - vor ganz neue Fragen. Wir haben uns daher einmal mit dem Philosophen Dr. Sven Nyholm über seine Sicht der Dinge unterhalten.


1. Mr. Nyholm, Sie sind Philosoph und halten einen Vortrag auf dem Symposium „Automated Driving, Future Mobility & Digitalization“ in Hannover. Haben Sie sich für das falsche Event beworben?

Nyholm: Ups, ich dachte, ich spreche auf einem Symposium über Platon und Aristoteles! Scherz beiseite, die Zukunftsperspektive des automatisierten Fahrens ist aus philosophischer Sicht äußerst faszinierend. Denn von den Menschen wird erwartet werden, dass sie einer Maschine und den Ingenieuren dahinter mehr vertrauen, als ihren eigenen Fahrfähigkeiten. Typischerweise legen Menschen sehr großen Wert darauf, die Kontrolle zu behalten – insbesondere, wenn ihre eigene Sicherheit auf dem Spiel steht. Deshalb ist es faszinierend, wenn von ihnen erwartet wird, dass sie die Kontrolle einer Technologie sowie dem Unternehmen übergeben, das diese entwickelt hat und kontinuierlich updated. Ein anderes Beispiel, das aus philosophischer Sicht sehr spannend ist, ist die Einstellung der Menschen in Bezug auf den vermuteten Grad an Autonomie solcher Technologien. Es ist eine philosophische Frage, ob je gesagt werden kann, dass automatisierte Fahrzeuge tatsächlich eigene „Entscheidungen“ treffen können (z. B. über Leben und Tod in riskanten Situationen), oder ob all ihre Reaktionen besser als Ergebnis vorheriger menschlicher Entscheidungen verstanden werden sollten. Deshalb denke ich, dass ich genau am richtigen Event teilnehme!

2. Was sind aus ihrer Sicht die größten Herausforderungen in Bezug auf die Einführung autonomen Fahrens?

Nyholm: Eine kritische Herausforderung für die Einführung stellt sich durch die heterogene Zusammensetzung des Verkehrs aus automatisierten und konventionellen Autos nebst Fußgängern, Radfahrern, Motorradfahrern, etc. Dass sich so viele verschiedene Verkehrsteilnehmer sicher und reibungslos nebeneinander bewegen können,  ist eine schwierige aber nötige Augabe. Denn selbst, wenn sich hoch- oder vollautomatisierte Autos letztendlich durchsetzen werden, wird es eine lange Übergangsperiode geben, bis wir soweit sind. Eine weitere wichtige Herausforderung für die Umsetzung autonomen Fahrens ist es, die richtige Sprache zu finden, um der Öffentlichkeit zu vermitteln, was sie von automatisierten Fahrzeugen erwarten kann und was nicht. “Selbstfahrende Autos“, „fahrerlose Fahrzeuge“, „Roboterautos“, „Robo-Cars”, „Auto-Piloten“, „autonome Fahrzeuge“ – all diese Begriffe rufen unterschiedliche Assoziationen hervor und wecken unterschiedliche Erwartungen. Die Suche nach der Sprache, die es Menschen ermöglicht zu verstehen, was sie vernünftigerweise von diesen Technologien erwarten können, ist eine wichtige Aufgabe, die es zu bewältigen gilt.

3. Ein automatisiertes Fahrzeug wird sich strikt an die Straßenverkehrsordnung halten und Unfälle vermeiden. Das klingt doch, als wäre alles perfekt! Warum denken Sie dennoch, dass sich die Ethik mit automatischem Fahren auseinander setzen muss?

Nyholm: Solange die Fahrzeuge das Gesetz auf eine intelligente Art und Weise interpretieren können, und so lange sie tatsächlich nicht zusammenstoßen – nun, so lange klingt natürlich alles in der Tat ziemlich gut! Dennoch können Gesetze nie zu 100 Prozent eindeutig interpretiert werden. Von daher wird es ab und zu vonnöten sein, selbst eine Entscheidung zu treffen, z.B. im Falle schlechten Wetters mit angemessener Geschwindigkeit zu fahren. Aus diesem Grund, benötigen wir auch Richter an unseren Gerichten und deshalb sind Menschen auch unterschiedlicher Meinung in Bezug darauf, ob ein Gesetz befolgt werden sollte, oder nicht. Darüber hinaus werden alle schnell fahrenden Fahrzeuge - selbst sehr sichere - unweigerlich irgendwann einmal in einen Unfall verwickelt sein. Das alles wirft ethische Fragen auf. Sollten zum Beispiel unsere Verkehrsgesetze so verändert werden, so dass Computer und Technologien künstlicher Intelligenz sie leichter interpretieren können? Es wirft auch ethische Fragen darüber auf, wie zum Beispiel automatisierte Autos programmiert werden sollten, um mit Unfällen umzugehen, auch wenn Unfälle in der Tat viel seltener sein könnten, sobald wir viele automatisierte Fahrzeuge auf unseren Straßen haben. Genauso wie es unrealistisch war, zu denken, dass die Titanic "unsinkbar" sei, so ist es auch unrealistisch zu erwarten, dass automatisierte Autos keine Unfälle verursachen werden.

4. Sie sprechen ein wichtiges Problem an. Häufig wird die Frage diskutiert, wer bei einem Unfall in einer Welt mit vollautomatisierten Autos zur Verantwortung gezogen werden soll.  Insbesondere bei einem tödlichen Unfall, der durch ein vollautomatisiertes Fahrzeug verursacht wurde. Wie kann der Gesetzgeber in ihren Augen eine Antwort darauf finden?

Nyholm: Gesetzgeber und Politiker müssen einen Schritt zurücktreten und das Thema in einem größeren Zusammenhang betrachten. Sie sollten miteinbeziehen, wie diese Technologien tatsächlich funktionieren und, wer direkte oder indirekte Kontrolle darüber hat, wer die Software updated, wem das Fahrzeug gehört, welche Vorteile sich aus den Eigentumsrechten ergeben, etc. etc. Und selbst wenn hochautomatisierte Autos in ihrer Funktionsweise in gewissem Sinne "autonom" werden, muss man sich darüber im Klaren sein, dass keines dieser Fahrzeuge völlig unabhängig von menschlichem Einfluss funktionieren kann. Alle Automatisierungstechnologien sind immer Teil einer Mensch-Maschine-Kooperation. Es muss also untersucht werden, welche Menschen in diesen Mensch-Maschine-Kooperationen die wichtigste Rolle spielen. Ebenso muss untersucht werden, welche Interessengruppen am meisten profitieren und wer demzufolge die damit verbundenen Risiken vernünftigerweise tragen kann. Eine weitere wichtige Aufgabe für Gesetzgeber und Politiker ist es, nach Analogien und Präzedenzfällen zu suchen. Wie wird z. B. der Betrieb von Flugzeugen im Autopilot-Modus geregelt oder wie wird bereits jetzt delegierte oder verteilte Verantwortung in anderen Bereichen reguliert?

5. Sie haben die Rolle der Programmierung solcher Fahrzeuge angesprochen. Es gibt ein bekanntes ethisches Denkexperiment, das eine Antwort auf die Frage sucht: „Wenn Sie das Leben eines Bahnarbeiters retten könnten, indem Sie einen auf ihn zurasenden Zug auf ein anderes Gleis umleiten, auf dem fünf andere Arbeiter ihre Arbeit verrichten. Was würden Sie tun?“ Denken Sie, dass Programmierer in Zukunft diese Frage beantworten (müssen)?

Nyholm: Tatsächlich habe ich kürzlich eine wissenschaftliche Arbeit in Zusammenarbeit mit meinem Kollegen Jilles Smids veröffentlicht. Darin argumentiere ich, dass wir darauf achten sollten, eben keine Analogie zwischen Unfällen mit automatisierten Autos und der Situation, die in diesem Gedankenexperiment geschildert wird, herzustellen. Denn z. B. werden wir in dem Denk-Experiment mit dem Zug gebeten, einfach davon auszugehen, dass einer der beiden möglichen Ausgänge völlig sicher ist: entweder tun wir nichts und es kommt zu Ereignis A (ein Mensch stirbt), oder wir leiten den Zug um und es hat Ereignis B zur Folge (fünf Personen sterben). Ganz im Gegensatz dazu sind die möglichen Ereignisse alles andere als sicher, wenn es um die Crash-Optimierung von automatisierten Autos geht. Hier müssen wir mit Unsicherheiten und schwierigen Risikobewertungen arbeiten. Nichtsdestotrotz sollten Programmierer in der Tat überdenken, ob Autos so programmiert werden sollten, dass sie immer versuchen, ihre Besitzer zu retten. Oder ob sie auf kontrollierte Weise verunfallen sollten, um den Gesamtschaden zu minimieren oder in einem gewissen Sinne „maximal fair“ zu sein. Dafür müssen die Programmierer auch Teil einer größeren Diskussion sein, in die mehr Interessensgruppen miteinbezogen werden, als nur die als nur die Programmierer selbst. Es wäre falsch, anderen Gruppen nicht die Möglichkeit zu geben, sich an der Entscheidungsfindung zu beteiligen. Genauso wäre es unfair, von  Programmierern zu verlangen, die schwere Bürde, die es darstellt, eine Antwort auf diese Frage zu finden, allein zu tragen.

6. Wird die  Automatisierung von Fahrzeugen unsere ethische Betrachtungsweise in Zukunft verändern?

Nyholm: Die Automatisierung von Autos wird unsere ethische Wahrnehmung insofern verändern, als sie Teil eines Trends ist, in dessen Folge immer mehr automatisierte Technologien und Robotik in die Gesellschaft eingeführt werden. Dieser Trend wirft verschiedene philosophische und ethische Fragen auf. Zum Beispiel, in welchen Bereichen des Lebens schätzen wir es, alles direkt unter Kontrolle zu haben, aktiv zu sein und selbst Dinge zu tun, was bedeutet, dass wir dort keine automatisierten Technologien das Ruder übernehmen lassen wollen? In welchen anderen Bereichen des Lebens wäre dies jedoch gut und wünschenswert? Mit mehr und mehr Automatisierung - in unseren Autos und anderswo - könnte sich auch unsere Wahrnehmung der menschlichen Verantwortung ändern. Die Menschen werden anfangen zu spüren, dass Verantwortung nicht mehr nur zwischen sich selbst und anderen Menschen geteilt wird, sondern eben manchmal auch zwischen Mensch und Maschine. Eine zunehmende Automatisierung wirkt sich auch auf unsere Wahrnehmung dessen aus, was die Menschen selbst tun dürfen und wann Tätigkeiten automatisiert und aus menschlichen Händen genommen werden sollten. Automatisiertes Fahren ist ein Fall, in dem all diese eben erwähnten unterschiedlichen Fragen auftauchen. Selbst wenn automatisiertes Fahren unser ethisches Denken möglicherweise nicht radikal verändert, wird es sicherlich einen wichtigen Einfluss darauf haben, wie es sich in Zukunft entwickeln wird.

7. Wie wird das Thema des automatisierten Fahrens in den Niederlanden diskutiert? Und wie unterscheidet sich die Diskussion von anderen europäischen Ländern, sofern Sie das einschätzen können?

Nyholm: Die Niederlande hat keine Autoindustrie, deshalb fokussiert sich die Diskussion dort weniger auf die Interessen der Autoindustrie, als das vielleicht in Deutschland eher der Fall ist. Auf jeden Fall wird das Potential der Technologie in den Niederlanden sehr ernst genommen, wie ich durch meine Interaktion mit dem holländischen Ministerium für Infrastruktur und Umwelt weiß. Dieses unterstützt die  Forschungsarbeit, die wir in Bezug auf „automatisiertes Fahren“ und „smart Mobility“ im Allgemeinen an meiner Universität verfolgen, sehr aktiv. Als kleines Land mit einer großen Bevölkerung, hat die Niederlande viele Probleme mit Staus. Unser Interesse im Hinblick auf automatisiertes Fahren richtet sich daher exakt auf dessen Potential, uns bei diesem Problem zu helfen. Die Diskussion in den Niederlanden, das sollte ich an dieser Stelle vielleicht noch erwähnen, dreht sich nicht  nur um rein technische Ziele und Herausforderungen. Wie in anderen europäischen Ländern und in den USA dreht sich ein großer Teil der Diskussion auch um die sozialen und ethischen Aspekte von autonomem Fahren.

Interviewpartner:
Sven Nyholm,
Assistenzprofessor für Philosophie und Ethik, Universität Eindhoven.