AUTONOMOUS VEHICLE ENVIRONMENTAL PERCEPTION SOFTWARE ARCHITECTURE
A process for sensing a scene. The process includes receiving sensor data from a plurality of sensor modalities, where each sensor modality observes at least a portion of the scene containing at least one of the objects of interest and generates sensor data conveying information on the scene and of...
Saved in:
Main Authors | , , , , |
---|---|
Format | Patent |
Language | English French |
Published |
20.05.2021
|
Subjects | |
Online Access | Get full text |
Cover
Loading…
Summary: | A process for sensing a scene. The process includes receiving sensor data from a plurality of sensor modalities, where each sensor modality observes at least a portion of the scene containing at least one of the objects of interest and generates sensor data conveying information on the scene and of the object of interest. The process further includes processing the sensor data from each sensor modality to detect objects of interest and produce a plurality of primary detection results, each detection result being associated with a respective sensor modality. The process also includes fusing sensor data from a first sensor modality with sensor data from a second sensor modality to generate a fused 3D map of the scene, processing the fused 3D map to detect objects of interest and produce secondary detection results and performing object level fusion on the primary and the secondary detection results.
L'invention concerne un procédé de détection d'une scène. Le procédé consiste à recevoir des données de capteur provenant d'une pluralité de modalités de capteur, chaque modalité de capteur observant au moins une partie de la scène contenant au moins l'un des objets d'intérêt et générant des données de capteur acheminant des informations concernant la scène et l'objet d'intérêt. Le procédé consiste en outre à traiter les données de capteur provenant de chaque modalité de capteur pour détecter des objets d'intérêt et produire une pluralité de résultats de détection primaires, chaque résultat de détection étant associé à une modalité de capteur respective. Le procédé consiste également à fusionner des données de capteur provenant d'une première modalité de capteur avec des données de capteur provenant d'une seconde modalité de capteur afin de générer une carte 3D fusionnée de la scène, à traiter la carte 3D fusionnée pour détecter des objets d'intérêt et produire des résultats de détection secondaires et à effectuer une fusion de niveau d'objet sur les résultats de détection primaires et secondaires. |
---|---|
Bibliography: | Application Number: WO2020CA51558 |