Suchen

Selbstfahrende Fahrzeuge

Wie ein autonomes Fahrzeug moralische Entscheidungen trifft

| Redakteur: Katharina Juschkat

Wie entscheidet sich ein autonomes Auto bei unvermeidlichen Unfällen mit mehreren Personen – opfert es zur Not die eigenen Insassen, wenn dafür potentielle Opfer verschont bleiben? Um diese Frage zu beantworten, haben Wissenschaftler das moralische Verhalten von Menschen bei Unfällen untersucht.

Firmen zum Thema

In einer Simulation ließen die Forscher menschliche Fahrer moralische Entscheidungen treffen.
In einer Simulation ließen die Forscher menschliche Fahrer moralische Entscheidungen treffen.
(Bild: Universität Osnabrück/Institut für Kognitionswissenschaft)

Es gibt Situationen auf der Straße, in denen der Fahrer keine moralisch richtige Entscheidung treffen kann. Situationen, in denen ein Unfall mit mehreren Personen unausweichlich ist und man zwischen dem kleineren Übel entscheiden muss. Viel Zeit bleibt nicht, um die Abwägung zu treffen: Rettet man sich selbst oder rettet man potentielle Opfer?

Darf ein autonomes Auto seine Insassen opfern?

Genau daran tüfteln auch Wissenschaftler bis heute, denn bisher ist die Frage nicht geklärt, wie sich ein autonomes Fahrzeug in einer solchen Situation verhält. Soll das Auto seine Insassen unter allen Umständen schützen oder soll es Insassen opfern dürfen, wenn es dem Allgemeinwohl dient – durch diese Handlung also mehr potentielle Opfer verschont würden?

Ergänzendes zum Thema
kd0__1-zeilig, zum füllen
Die 20 ethischen Regeln für das autonome Fahren

Das Bundesministerium für Transport und Digitale Infrastruktur hat 20 ethische Prinzipien zum autonomen Fahren formuliert.

  • 1. Automatisiertes Fahren muss an erster Stelle die Sicherheit verbessern.
  • 2. Der Schutz von Menschen steht an erster Stelle. Automatisierte Fahrzeuge sollten nur zugelassen werden, wenn sie im Vergleich zu menschlichen Fahrleistungen Schaden vermindern können.
  • 3. Die Verantwortung, automatisiertes Fahren zuzulassen, obliegt der öffentlichen Hand. Fahrsysteme bedürfen deshalb der behördlichen Zulassung und Kontrolle.
  • 4. Der Mensch steht mit seinem Entfaltungsanspruch und seiner Schutzbedürftigkeit im Zentrum. Deshalb erfolgt die gesetzliche Gestaltung von Technik so, dass ein Maximum persönlicher Entscheidungsfreiheit in einer allgemeinen Entfaltungsordnung mit der Freiheit anderer und ihrer Sicherheit zum Ausgleich gelangt.
  • 5. Das automatisierte Fahren sollte Unfälle vermeiden. Die Technik muss so ausgelegt sein, dass kritische Situationen gar nicht erst entstehen – dazu gehören auch Dilemma-Situationen.
  • 6. Eine gesetzlich auferlegte Pflicht, autonome Fahrzeuge zu nutzen, ist ethisch bedenklich, wenn damit die Unterwerfung unter technische Imperative verbunden ist.
  • 7. In Gefahrensituationen besitzt der Schutz menschlichen Lebens höchste Priorität. Deshalb sollte ein autonomes Fahrzeug so programmiert werden, dass Tier- oder Sachschäden in Kauf zu nehmen sind, um Personenschäden zu vermeiden.
  • 8. Dilemmatische Entscheidungen sind nicht normierbar und auch nicht ethisch programmierbar. Ein menschlicher Fahrer würde sich zwar rechtswidrig verhalten, wenn er im Notstand einen Menschen tötet, um einen oder mehrere andere Menschen zu retten, aber er würde nicht notwendig schuldhaft handeln. Derartige Umstände lassen sich nicht ohne weiteres in entsprechende Programmierungen umwandeln.
  • 9. Bei unausweichlichen Unfallsituationen ist jede Einschätzung nach persönlichen Merkmalen wie Alter, Geschlecht, körperliche oder geistige Konstitution strikt untersagt.
  • 10. Die Verantwortung verschiebt sich vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen, politischen und rechtlichen Entscheidungsinstanzen.
  • 11. Für die Haftung für Schäden durch automatisierte Fahrsysteme gelten die gleichen Grundsätze wie in der übrigen Produkthaftung.
  • 12. Zur konkreten Umsetzung der hier entwickelten Grundsätze sollten Leitlinien für den Einsatz und die Programmierung von automatisierten Fahrzeugen abgeleitet und in der Öffentlichkeit kommuniziert werden.
  • 13. Eine vollständige Vernetzung und zentrale Steuerung sämtlicher Fahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur ist ethisch bedenklich, wenn sie Risiken einer totalen Überwachung der Verkehrsteilnehmer und der Manipulation nicht sicher ausschließen kann.
  • 14. Automatisiertes Fahren ist nur in dem Maße vertretbar, in dem denkbare Angriffe wie Manipulationen des IT-Systems nicht zu solchen Schäden führen, die das Vertrauen in den Straßenverkehr nachhaltig erschüttern.
  • 15. Der Fahrer entscheidet grundsätzlich über Weitergabe und Verwendung seiner anfallenden Fahrzeugdaten.
  • 16. Es muss klar unterscheidbar sein, ob ein fahrerloses System genutzt wird oder ein Fahrer mit der Möglichkeit des „Overrulings“ Verantwortung behält.
  • 17. Um eine zuverlässige Kommunikation zwischen Mensch und Maschine zu ermöglichen, müssen sich die Systeme stärker dem Kommunikationsverhalten des Menschen anpassen und nicht umgekehrt.
  • 18. (Selbst)lernende Systeme können ethisch erlaubt sein, wenn sie Sicherheitsgewinne erzielen.
  • 19. In Notsituationen muss das Fahrzeug autonom in einen „sicheren Zustand“ gelangen. Eine Definition des sicheren Zustandes ist wünschenswert.
  • 20. Der Umgang mit automatisierten Fahrzeugen sollte bei der Fahrausbildung vermittelt und geprüft werden.

Die Idee der Osnarbrücker Kognitionswissenschaftler war es, das moralische Verhalten von Menschen zu untersuchen und dann auf autonome Fahrzeuge zu übertragen. „Selbstfahrende Autos werden die erste Generation von Robotern sein, die moralische Entscheidungen mitten in unserer Gesellschaft treffen. Es ist deshalb dringend notwendig, Regeln und mögliche Handlungsweisen für autonome Fahrzeuge zu entwickeln, die festlegen, wie sich solche Maschinen in unausweichlichen Unfallsituationen verhalten sollen“, schreiben die Verfasser der Studie Prof. Peter König und Maximilian Wächter vom Institut für Kognitionswissenschaft.

Gemeinschaft steht vor dem Individuum

Die Autoren nutzten für ihre Studie Virtual-Reality-Technik, um das Verhalten von Versuchspersonen in Dilemma-Situationen zu beobachten. Die Teilnehmer der Studie fuhren dazu an einem Simulator mit VR-Brille an einem nebeligen Tag durch Vorort- oder Berglandschaften. Im Verlauf der Experimente kam es dabei zu unvermeidlichen und unerwarteten Situationen, bei denen Menschen oder Gruppen von Menschen in Fahrspuren standen.

„Den Menschen auf der eigenen Fahrspur auszuweichen hätte bedeutet, eine andere Anzahl an Menschen auf der nebenliegenden Fahrspur zu opfern. Die Teilnehmer müssen eine moralische Entscheidung treffen“, erläutert der Osnabrücker Kognitionswissenschaftler Wächter den Versuchsablauf. „Die Ergebnisse zeigen, dass bei unvermeidbaren Unfällen größtenteils zum Wohl der Gemeinschaft entschieden wird“, sagt Wächter. Auf diesen Ergebnissen aufbauend entwickelten die Wissenschaftler eine Ethik für selbstfahrende Autos, die die Gemeinschaft vor das Individuum stellt.

Laut der Studie könnte die autonome Technik die Zahl der jährlichen Verkehrsopfer nach Schätzungen um 90 Prozent senken. Dennoch wird es auch zu kritischen Situationen kommen, bei denen ein Unfall nicht zu vermeiden ist, die Anzahl der Opfer aber zumindest geringer sein könnte.

Die Ergebnisse der Studie „Human Decisions in Moral Dilemmas are Largely Described by Utilitarianism: Virtual Car Driving Study Provides Guidelines for Autonomous Driving Vehicles” sind erschienen in „Science and Engineering Etnics“.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 45166437)