Forschung Wie Zusammenstöße autonomer Fahrzeuge verhindert werden können

Quelle: TU München

Anbieter zum Thema

Aktuell brauchen autonome Fahrzeuge viele Kameras und Sensoren, um Zusammenstöße mit der Umgebung zu vermeiden. Die Erfindung eines Professors könnte die Systeme in Zukunft deutlich effizienter machen.

Die neue Methode erlaubt es, Bewegungen mit einer einzelnen Kamera zu analysieren, wobei sich die Kamera ebenso bewegt wie das Objekt. Dieser Ansatz soll deutlich günstiger und robuster sein als bisherige Methoden.
Die neue Methode erlaubt es, Bewegungen mit einer einzelnen Kamera zu analysieren, wobei sich die Kamera ebenso bewegt wie das Objekt. Dieser Ansatz soll deutlich günstiger und robuster sein als bisherige Methoden.
(Bild: fotohansel - stock.adobe.com)

Ein Professor der TU München hat eine neue Methode entwickelt, mit der Kollisionen von autonomen Fahr- oder Flugzeugen effektiver verhindert werden können. Laut einer Mitteilung werden dafür lediglich zweidimensionale Bilder aus einer Perspektive benötigt, die einzelne Punkte fixiert und deren Veränderung wahrnimmt. Einsetzen will der Professor seine Erfindung bei Drohnen, in vernetzten Fahrzeugen und in der Servicerobotik.

Inspiriert wurde Darius Burschka, Co-Head für Perzeption im Munich Institute of Robotics and Machine Intelligence (MIRMI) der TU München, von Seefahrern und Wespen. Damit etwa auf hoher See ein Zusammenstoß verhindert wird, werde die sogenannte „stehenden Peilung“ genutzt. Ein Schiff ist dann auf Kollisionskurs, wenn sich bei Annäherung die Peilung nicht oder nur geringfügig ändert. „Ein Zusammenstoß ist dann am besten detektierbar, wenn man darauf achtet, welche Objekte um einen herum sich nicht bewegen“, sagt Burschka. Eine Wespe nutzt ebenfalls nur einen Fixpunkt und fliegt horizontal hin und her um herauszufinden, welche Gegenstände nah sind und welche weiter weg.

Weite Entfernung war bisher ein Problem

Das von Burschka entwickelte System überprüft 60 Mal pro Sekunde die Bildpunkte einer Kamera und bestimmt so die Kollisionsverhältnisse, heißt es weiter. Das System benötige dafür einen leistungsfähigen Grafikprozessor, der die Bildverarbeitung übernimmt und einen weiteren Prozessor, der die Kollisionswege auswertet sowie eine Kamera. Bisher wurden für das autonome Fahren mehrere Kameras verwendet, um Abstände zu anderen Objekten im Nahbereich berechnen zu können. „Wenn die Objekte weit von der Kamera entfernt sind, liefert das 3-D-Verfahren keine zuverlässigen Ergebnisse mehr“, so Burschka. Mit der neuen Methode werden also Objekte, die noch weit weg sind, aber dem Betrachtenden sehr schnell direkt entgegenkommen, als gefährlicher erkannt als andere, die augenblicklich näher sind, sich aber in die gleiche Richtung wegbewegen.

(ID:49222169)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung