Suchen

Autonomes Fahren Maschinen könnten lernen, menschliches Verhalten zu imitieren

| Redakteur: Katharina Juschkat

Ein Unfall mit mehreren Personen ist unvermeidbar – wie handelt der Fahrer? Vor allem, wenn er eine Maschine ist? Autonome Fahrzeuge können keine moralische Entscheidungen treffen, sagt die zuständige Ethikkommission. Osnabrücker Wissenschaftler wollen das Gegenteil beweisen.

Firmen zum Thema

Probanden saßen am Steuer eines virtuellen PKWs, der in einem Vorstadt-Setting auf Hindernisse zufuhr. Eine Kollision war unausweichlich.
Probanden saßen am Steuer eines virtuellen PKWs, der in einem Vorstadt-Setting auf Hindernisse zufuhr. Eine Kollision war unausweichlich.
(Bild: Universität Osnabrück)

Autonome, selbstfahrende Autos sind die erste Generation von Robotern, die den alltäglichen Lebensraum mit uns teilen. Deshalb ist es unabdingbar, Regeln und Erwartungen an autonome Systeme zu erarbeiten, die definieren, wie sich solche Systeme in kritischen Situationen verhalten sollen. Das Institut für Kognitionswissenschaft der Universität Osnabrück hat nun eine Studie in dem Magazin Frontiers in Behavioral Neuroscience veröffentlicht, die zeigt, dass menschlich-ethische Entscheidungen in Maschinen implementiert werden können und autonome Fahrzeuge bald moralische Dilemmata im Straßenverkehr bewältigen könnten.

Ethische Prinzipien legen den Umgang mit autonomen Fahrzeugen fest

Politisch wird die Debatte zur Modellierbarkeit von moralischen Entscheidungen durch eine Initiative des Bundesministeriums für Transport und Digitale Infrastruktur begleitet, welche 20 ethische Prinzipien formuliert hat.

Ergänzendes zum Thema
kd0__1-zeilig, zum füllen
Die 20 ethischen Regeln für das autonome Fahren

Das Bundesministerium für Transport und Digitale Infrastruktur hat 20 ethische Prinzipien zum autonomen Fahren formuliert.

  • 1. Automatisiertes Fahren muss an erster Stelle die Sicherheit verbessern.
  • 2. Der Schutz von Menschen steht an erster Stelle. Automatisierte Fahrzeuge sollten nur zugelassen werden, wenn sie im Vergleich zu menschlichen Fahrleistungen Schaden vermindern können.
  • 3. Die Verantwortung, automatisiertes Fahren zuzulassen, obliegt der öffentlichen Hand. Fahrsysteme bedürfen deshalb der behördlichen Zulassung und Kontrolle.
  • 4. Der Mensch steht mit seinem Entfaltungsanspruch und seiner Schutzbedürftigkeit im Zentrum. Deshalb erfolgt die gesetzliche Gestaltung von Technik so, dass ein Maximum persönlicher Entscheidungsfreiheit in einer allgemeinen Entfaltungsordnung mit der Freiheit anderer und ihrer Sicherheit zum Ausgleich gelangt.
  • 5. Das automatisierte Fahren sollte Unfälle vermeiden. Die Technik muss so ausgelegt sein, dass kritische Situationen gar nicht erst entstehen – dazu gehören auch Dilemma-Situationen.
  • 6. Eine gesetzlich auferlegte Pflicht, autonome Fahrzeuge zu nutzen, ist ethisch bedenklich, wenn damit die Unterwerfung unter technische Imperative verbunden ist.
  • 7. In Gefahrensituationen besitzt der Schutz menschlichen Lebens höchste Priorität. Deshalb sollte ein autonomes Fahrzeug so programmiert werden, dass Tier- oder Sachschäden in Kauf zu nehmen sind, um Personenschäden zu vermeiden.
  • 8. Dilemmatische Entscheidungen sind nicht normierbar und auch nicht ethisch programmierbar. Ein menschlicher Fahrer würde sich zwar rechtswidrig verhalten, wenn er im Notstand einen Menschen tötet, um einen oder mehrere andere Menschen zu retten, aber er würde nicht notwendig schuldhaft handeln. Derartige Umstände lassen sich nicht ohne weiteres in entsprechende Programmierungen umwandeln.
  • 9. Bei unausweichlichen Unfallsituationen ist jede Einschätzung nach persönlichen Merkmalen wie Alter, Geschlecht, körperliche oder geistige Konstitution strikt untersagt.
  • 10. Die Verantwortung verschiebt sich vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen, politischen und rechtlichen Entscheidungsinstanzen.
  • 11. Für die Haftung für Schäden durch automatisierte Fahrsysteme gelten die gleichen Grundsätze wie in der übrigen Produkthaftung.
  • 12. Zur konkreten Umsetzung der hier entwickelten Grundsätze sollten Leitlinien für den Einsatz und die Programmierung von automatisierten Fahrzeugen abgeleitet und in der Öffentlichkeit kommuniziert werden.
  • 13. Eine vollständige Vernetzung und zentrale Steuerung sämtlicher Fahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur ist ethisch bedenklich, wenn sie Risiken einer totalen Überwachung der Verkehrsteilnehmer und der Manipulation nicht sicher ausschließen kann.
  • 14. Automatisiertes Fahren ist nur in dem Maße vertretbar, in dem denkbare Angriffe wie Manipulationen des IT-Systems nicht zu solchen Schäden führen, die das Vertrauen in den Straßenverkehr nachhaltig erschüttern.
  • 15. Der Fahrer entscheidet grundsätzlich über Weitergabe und Verwendung seiner anfallenden Fahrzeugdaten.
  • 16. Es muss klar unterscheidbar sein, ob ein fahrerloses System genutzt wird oder ein Fahrer mit der Möglichkeit des „Overrulings“ Verantwortung behält.
  • 17. Um eine zuverlässige Kommunikation zwischen Mensch und Maschine zu ermöglichen, müssen sich die Systeme stärker dem Kommunikationsverhalten des Menschen anpassen und nicht umgekehrt.
  • 18. (Selbst)lernende Systeme können ethisch erlaubt sein, wenn sie Sicherheitsgewinne erzielen.
  • 19. In Notsituationen muss das Fahrzeug autonom in einen „sicheren Zustand“ gelangen. Eine Definition des sicheren Zustandes ist wünschenswert.
  • 20. Der Umgang mit automatisierten Fahrzeugen sollte bei der Fahrausbildung vermittelt und geprüft werden.

„Um Regeln oder Empfehlungen definieren zu können, sind zwei Schritte notwendig“, erklärt Gordon Pipa, einer der leitenden Wissenschaftler der Studie. „Als Erstes muss man menschliche moralische Entscheidungen in kritischen Situationen analysieren und verstehen. Als zweiten Schritt muss man das menschliche Verhalten statistisch beschreiben, um Regeln ableiten zu können, die dann in Maschinen genutzt werden können.“

Moralische Abwägung statistisch auswerten

Um beide Schritte zu realisieren, nutzten die Autoren eine virtuelle Realität, um das Verhalten von Versuchspersonen in simulierten Verkehrssituationen zu beobachten. Die Teilnehmer der Studie fuhren dazu an einem nebligen Tag durch die Straßen eines typischen Vorortes. Im Verlauf der Experimente kam es dabei zu unvermeidlichen und unerwarteten Dilemma-Situationen, bei denen Menschen, Tiere oder Objekte als Hindernisse auf den Fahrspuren standen. Um den Hindernissen auf einer der beiden Spuren ausweichen zu können, war deshalb eine moralische Abwägung notwendig. Die Wissenschaftler haben dann die beobachteten Entscheidungen durch eine statistische Analyse ausgewertet und in Regeln übersetzt. Die Ergebnisse weisen darauf hin, dass bei unvermeidbaren Unfälle moralisches Verhalten durch eine einfache Wertigkeit des Lebens erklärt werden kann, für jeden Menschen, jedes Tier und jedes Objekt.

Leon Sütfeld, der Hauptautor der Studie, erklärt das so: „Das menschliche moralische Verhalten lässt sich durch den Vergleich von einer Wertigkeit des Lebens, das mit jedem Menschen, jedem Tier oder jedem Objekt assoziiert ist, erklären und mit beachtlicher Präzision vorhersagen. Das zeigt, dass menschliche moralische Entscheidungen prinzipiell mit Regeln beschrieben werden können und dass diese Regeln als Konsequenz auch von Maschinen genutzt werden könnten.“

Diese neuen Osnabrücker Erkenntnisse stehen im Widerspruch zu dem achten Prinzip des BMVI-Berichtes, das auf der Annahme gründet, dass moralische Entscheidungen nicht modellierbar sind.

(ID:44782939)