Context-Supported Lane Estimation - Understanding the Scene by Learning Spatial Relations Between Semantic Features and Virtual Ground Truth

Schomerus, Volker

Fahrerassistenzsysteme und automatisches Fahren gewinnen im Bereich der Mobilität mehr und mehr an Bedeutung. Durch erhöhte Sicherheit und die Möglichkeit einer anderweitigen Nutzung der Reisezeit wird die Entwicklung intelligenter Fahrzeuge die Mobilität der Zukunft neu definieren. Um die Grenzen der Systeme für vollautomatisches Fahren zu erweitern, versuchen Forschungseinrichtungen und Firmen bereits, neben gut strukturierten Autobahn-Szenarien auch komplexere Fahrzeugumgebungen zu meistern, wie z.B. den Stadtverkehr. Während derzeitige Methoden zur kamerabasierten Fahrzeugumfelderfassung traditionelle Bildsegmentierungs- und Objekterkennungstechniken verwenden, stellt diese Arbeit einen großen Schritt in Richtung umfassenden Szenenverstehens dar. Zu diesem Zweck werden leistungsfähige Methoden des maschinellen Lernens eingesetzt, um die räumlichen Beziehungen zwischen diversen Merkmalen im Kamerabild und der Fahrzeugtrajektorie zu lernen. Das Zusammenführen der räumlichen Beziehungen aller gefundenen Merkmale eines Kamerabildes resultiert in einer sogenannten Verteilungskarte, in die ein Fahrstreifenmodell eingepasst werden kann. Des Weiteren wird mit Hilfe globaler Bildmerkmale der Kontext der aktuellen Szene bestimmt. Es werden verschiedene Möglichkeiten untersucht, mit Hilfe der gewonnenen Kontextinformation die Fahrstreifenerkennung zu verbessern, und es wird erläutert, wie ein solches globales Verfahren mit einer lokalen Methode zur Fahrstreifen- bzw. Fahrstreifenbegrenzungserkennung kombiniert werden kann. Es wird gezeigt, dass viele verschiedene Arten von Merkmalen in der Fahrzeugumgebung wichtige Informationen über die Lage des Fahrstreifens liefern und dass dieser Fahrstreifen im Bild detektiert werden kann, indem dessen räumliche Beziehungen zu diesen Merkmalen modelliert werden. Außerdem wird gezeigt, wie zusätzliches Wissen über den aktuellen Kontext die Qualität der Fahrstreifenerkennung erhöhen kann.

Advanced driver assistance systems and automatic driving are becoming more and more important in the market of personal mobility. By increasing traffic safety and allowing the driver to use the traveling time for other activities, the generation of intelligent vehicles creates a new definition of mobility in the future. To extend the limitations of systems for fully automated driving, research institutions and companies are trying to master more complex vehicle environments like urban traffic. While current approaches for camera-based vehicle environment perception use traditional image segmentation and object detection techniques, this work presents a big step towards comprehensive scene understanding. For this purpose, powerful machine learning methods are applied to learning the spatial relations between several types of features in the camera image and the vehicle trajectory. The registration of these spatial relations for all features in a video frame leads to a distribution map which allows the matching of a lane model. Additionally, the context of the current vehicle environment is determined by extracting global image features. Several possibilities for improving the lane detection performance with additional context information are analyzed, and the combination of global and local lane or lane border detection methods is proposed. It is shown that many different types of features within the vehicle environment provide important information about the lane and that, by modeling the spatial relations between features and the trajectory of the vehicle, its lane can be detected. It is also shown that knowledge about the current scene context can be used to improve the lane detection performance.

Vorschau

Zitieren

Zitierform:

Schomerus, Volker: Context-Supported Lane Estimation - Understanding the Scene by Learning Spatial Relations Between Semantic Features and Virtual Ground Truth. 2016.

Zugriffsstatistik

Gesamt:
Volltextzugriffe:
Metadatenansicht:
12 Monate:
Volltextzugriffe:
Metadatenansicht:

Details anzeigen

Rechte

Nutzung und Vervielfältigung:
Alle Rechte vorbehalten

Export