Autonomes Fahren

Innovation & Zukunft » Autonomes Fahren: Ethische Fragen und moralische Dilemmata

Autonomes Fahren: Ethische Fragen und moralische Dilemmata

Schon in ein paar Jahren werden teilautonome Fahrzeuge auf unseren Straßen zum Alltag gehören. Damit sind jene Autos gemeint, die zwar auf Autobahnen und Landstraßen weitestgehend autonom fahren, bei denen aber dennoch ein Fahrer hinter dem Lenkrad sitzen muss. Ihm kommt die Aufgabe zu, im Notfall manuell einzugreifen, beispielsweise wenn der Computer von einer bestimmten Situation überfordert ist. In diesem Szenario trägt der menschliche Fahrer zumindest noch einen Teil der Verantwortung.

Autos, die vollautonom von A nach B fahren, werden indes frühestens ab 2050 in größerer Zahl im Straßenverkehr anzutreffen sein. Solche Fahrzeuge kommen ohne Lenkrad aus und nehmen von ihren menschlichen Mitfahrern nur noch Befehle (Zieleingabe, etc.) entgegen. Das heißt aber auch, dass die Verantwortung für alle Entscheidungen komplett beim Fahrzeug liegt – auch wenn es um Leben und Tod geht. Ist ein Computer dazu überhaupt in der Lage?

Autonomes Fahren: Welches Leben ist mehr wert?

Um ein Gefühl dafür zu bekommen, mit welchen moralischen Dilemmata wir uns im Straßenverkehr konfrontiert sehen können, empfiehlt sich ein Besuch der Website Moral Machine. Das Projekt wurde vom Media Lab des Massachusetts Institute of Technology (MIT) ins Leben gerufen. Im Prinzip geht es bei dem Experiment um nichts anderes, als Kriterien zu evaluieren, anhand derer die moralischen Entscheidungen selbstfahrender Autos festgemacht werden können.

Die Ausgangssituation ist stets dieselbe: bei einem selbstfahrenden Auto versagen die Bremsen. Vor ihm befinden sich jeweils zwei Hindernisse in Form von Menschen oder Betonsperren. Der Computer hat nur die Wahl in Hindernis 1 oder Hindernis 2 zu fahren. Die Teilnehmer des Experiments müssen nun in insgesamt 13 Szenarien entscheiden, wie sich das autonome Fahrzeug verhalten soll. Soll es gegen die Betonsperre fahren und den Insassen töten, oder die junge Frau auf dem Zebrastreifen überfahren? Soll es den Rentner treffen, oder das Baby? Arzt oder Obdachloser? Hund oder Mensch?

Diese Fragen haben sich bereits Millionen von Menschen gestellt. Im Ergebnis zeigt sich, dass die meisten Teilnehmer versuchen, möglichst viele Leben zu retten. Wenn es gar nicht anders geht, werden Frauen allerdings häufiger gerettet als Männer. Kinder werden den Alten vorgezogen. Und tatsächlich wird beispielsweise der Tod eines Obdachlosen eher toleriert, als der eines Arztes. Zudem gibt es regionale Unterschiede. In Südamerika beispielsweise, wo ältere Mitbürger besonders geachtet werden, verschonen die Teilnehmer junge Menschen seltener.

Assistenzsysteme

Autonomes Fahren: Eine Frage der Ethik

In all den gerade beschriebenen Situationen, hätte ein menschlicher Fahrer nur wenige Sekunden Zeit, um eine Entscheidung zu treffen. Ein echtes Abwägen von Menschenleben wäre kaum möglich. Tatsächlich wären die meisten noch nicht einmal dazu in der Lage, zu realisieren, ob da gerade eine junge Frau oder ein alter Mann über die Straße läuft.

Ganz anders verhält es sich bei einem selbstfahrenden Auto. Ein vollautonomes Fahrzeug hat genug Rechenleistung, um selbst komplexe Situationen in Millisekunden zu erfassen und eine Entscheidung zu treffen. Durch die Vernetzung und den Zugriff auf Milliarden von Daten im Internet, wäre es sogar denkbar, dass soziale Komponenten in die Entscheidung einfließen.

Dass das moralisch nicht vertretbar ist, ist offensichtlich – und dennoch muss es objektiv nachvollziehbare Kriterien für das autonome Fahren geben. Die einst von dem damaligen Verkehrsminister Alexander Dobrindt eingesetzte Ethik-Kommission, traf folgende Kernaussagen:

  • Ethisch sind autonome Fahrzeuge nur dann vertretbar, wenn sie eine positive Risikobilanz aufweisen, also weniger Unfälle verursachen, als menschliche Fahrer.
  • Der Schutz des menschlichen Lebens muss höchste Priorität haben. Tier- und Sachschäden sind hinzunehmen, wenn dadurch Personenschäden vermieden werden.
  • Sowohl eine Aufrechnung von Menschenleben als auch eine Qualifizierung nach persönlichen Merkmalen ist unzulässig.
  • Autonome Fahrzeuge müssen so programmiert werden, dass sie defensiv fahren.
  • Es muss dokumentiert werden, wer in welcher Situation für die Fahraufgabe zuständig war: Mensch oder Computer.
  • Der Fahrer muss selbst für die Verwendung und Weitergabe seiner Daten entscheiden können (Datensouveränität).
  • Der Einsatz selbstlernender Systeme ist denkbar, allerdings nur, wenn dabei nicht die Regeln der Kommission ausgehebelt werden.

Werden wir uns mit autonomen Fahrzeug arrangieren?

All das klingt auf den ersten Blick nachvollziehbar. Gleichzeitig ergeben sich daraus aber weitere Fragen. Beispielsweise würden die meisten Autofahrer im Fall der Fälle intuitiv versuchen, ihr eigenes Leben zu retten. Der Computer jedoch ist in seiner Entscheidung neutral. Wer aber würde ein Auto kaufen, das die Insassen im Zweifelsfall „opfert“? Oder gibt es dann illegale Software, die dem Leben der Insassen die höchste Priorität beimisst?

Bis all diese Fragen geklärt sind, ist es noch ein langer Weg – falls sie sich überhaupt klären lassen.

Tags: