RepliCar

RepliCar

  • Development of a high-precision reference system for environment recognition for automated driving
  • Sensor fusion of high-resolution radar, camera and lidar data
  • Development of innovative test procedures and methods

 

Safe perception of the environment is a crucial prerequisite for automated driving. The sensors and processing chains used must fulfil the highest requirements in terms of reliability, precision and fidelity to reality. There are currently no approaches for the effective and efficient validation of sensors and processing chains. The joint project RepliCar closes this gap: the aim of the project is to develop a reference system with integrated high-resolution radar, camera, lidar, GNSS and inertial sensors and to integrate it into a test vehicle.

This reference sensor system will be several years ahead of today’s series sensor technology. The integration of particularly high-resolution sensors and a particularly powerful sensor data fusion for object recognition make it possible to determine a highly accurate representation of reality, a so-called “ground truth”. This forms the basis for validating sensors for automated driving.

The consortium leader is ANavS GmbH, Munich. This company is also developing the sensor data fusion for determining the “ground truth” for self-localisation and environment perception. The Institute for High Frequency Technology and Electronics (IHE) at the Karlsruhe Institute of Technology (KIT), Offenburg University of Applied Sciences (HSO) and Freudenberg FST GmbH, based in Weinheim, are developing a high-precision radar system. This is an essential element in the reference system for environment perception and is described in intervals by the Institute for Regulation and Control Systems (IRS) at KIT. The project partners Akkodis Germany GmbH, Sindelfingen, the FZI Research Centre for Information Technology, Karlsruhe, IAVF Antriebstechnik GmbH, Karlsruhe, IPG Automotive GmbH, Karlsruhe, and GTÜ Gesellschaft für Technische Überwachung mbH, Stuttgart, define and implement all steps from the simulative validation to the release of the sensors and functions. The individual innovations in the validation and testing process for series sensors include artificial intelligence methods for analysing recorded scenarios, a “sensor in the loop” test bench, integration into existing simulation tools and a modular verification and validation process. The other partners HighQSoft GmbH, Idstein, and RA Consulting GmbH, Bruchsal, are building a powerful data platform for managing, processing and providing the reference data. The driving demonstrator is being realised by Dr. Ing. h.c. F. Porsche AG, Stuttgart, is realising the driving demonstrator. It records initial data and uses it for the approval process of an exemplary perception system.

You can find more information at  www.replicar-project.de

Quick overview

ANAVS_Icons_Single

Products

Equipped for every situation with the need of high-precise positioning & navigation:V-ROX, A-ROX, G-ROX, MSRTK, Snow Monitoring and M.2 SMART Card.

R&D Projects

Our R&D team is constantly working on researching, developing and implementing new technologies to master the challenges of tomorrow.

Publications

Our publications are varied, provide well-founded findings and present innovative solutions: Journal and Conference papers, Patents and Theses

Any questions?

Feel free to ask!

  • Entwicklung eines hochgenauen Referenzsystems für die Umfelderkennung für das Automatisierte Fahren
  • Sensorfusion von hochauflösenden Radar-, Kamera- und Lidar-Daten
  • Entwicklung von neuartigen Testverfahren und Methoden

Für das automatisierte Fahren ist die sichere Wahrnehmung der Umwelt eine entscheidende Voraussetzung. Die eingesetzten Sensoren und Verarbeitungsketten müssen höchste Anforderungen an Zuverlässigkeit, Präzision und Realitätstreue erfüllen. Aktuell existieren keine Ansätze für eine effektive und effiziente Validierung von Sensoren und Verarbeitungsketten. Diese Lücke schließt das Verbundprojekt RepliCar: Das Projektziel ist der Aufbau eines Referenzsystems mit integrierten hoch-auflösenden Radar-, Kamera-, Lidar-, GNSS-, und Inertial-Sensorik und dessen Integration in einen Versuchsträger.

Diese Referenzsensorik wird der heutigen Seriensensorik mehrere Jahre voraus sein. Die Integration von besonders hochauflösenden Sensoren und eine besonders leistungsfähige Sensordatenfusion zur Objekterkennung ermöglichen die Bestimmung einer hochgenauen Abbildung der Wirklichkeit, eine sogenannte „Ground Truth“. Diese ist Basis für das Validieren von Sensoren für das automatisierte Fahren.

Konsortialführer ist die ANavS GmbH, München. Diese entwickelt auch die Sensordatenfusion zur Bestimmung der „Ground Truth“ für die Eigenlokalisierung und Umfeldwahrnehmung. Das Institut für Hochfrequenztechnik und Elektronik (IHE) am Karlsruher Institut für Technologie (KIT), die Hochschule Offenburg (HSO) und die Freudenberg FST GmbH mit Sitz Weinheim entwickeln ein hochgenaues Radarsystem. Dieses ist ein wesentliches Element im Referenzsystem zur Umfeldwahrnehmung und wird durch das Institut für Regelungs- und Steuerungssysteme (IRS) am KIT intervallhaft beschrieben. Die Projektpartner Akkodis Germany GmbH, Sindelfingen, das FZI Forschungszentrum Informatik, Karlsruhe, die IAVF Antriebstechnik GmbH, Karlsruhe, die IPG Automotive GmbH, Karlsruhe, und die GTÜ Gesellschaft für Technische Überwachung mbH, Stuttgart, definieren sämtliche Schritte von der simulativen Validierung bis zur Freigabe der Sensoren und Funktionen und setzen sie um. Die einzelnen Innovationen im Absicherungs- und Testprozess für Seriensensoren umfassen Methoden der künstlichen Intelligenz zur Analyse aufgezeichneter Szenarien, einen „Sensor in the Loop“-Prüfstand, das Einbinden in bestehende Simulationswerkzeuge und einen modularen Verifikations- und Validierungsprozess. Die weiteren Partner HighQSoft GmbH, Idstein, und RA Consulting GmbH, Bruchsal, bauen eine leistungsfähige Datenplattform zum Verwalten, Verarbeiten und Bereitstellen der Referenzdaten auf. Den fahrenden Demonstrator verwirklicht die Dr. Ing. h.c. F. Porsche AG, Stuttgart. Dieser zeichnet erste Daten auf und nutzt sie für den Freigabeprozess eines exemplarischen Perzeptionssystems.

Das Projekt hat eine Laufzeit vom 1. Juli 2023 bis zum 30. Juni 2026.