객체의 운동을 예측하여 자동차의 주위 영역의 객체를 캡처하기 위한 방법, 카메라 시스템 및 자동차

본 발명은 자동차(1)의 카메라(4)가 제공한 자동차의 주위 영역(8)의 이미지(10, 11)의 시퀀스에 기초하여, 자동차(1)의 주위 영역(8)의 객체(9)를 캡처하기 위한 방법과 관련되며, 상기 방법은 시퀀스의 제1 이미지(10)에서 제1 객체 특징부(24)를 인식하는 단계 - 상기 제1 객체 특징부(24)는 주위 영역(8)의 객체(9)의 적어도 일부분을 기술함 - , 상기 주위 영역(8)에서의 객체(9)의 운동을 기술하는 사전결정된 운동 모델에 기초하여 상기 주위 영역(8)에서의 객체(9)의 위치를 추정하는 단계, 제1 객체...

Full description

Saved in:
Bibliographic Details
Main Authors NGUYEN DUONG VAN, HUGHES CIARAN, HORGAN JONATHAN, THOMANEK JAN
Format Patent
LanguageKorean
Published 11.03.2019
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:본 발명은 자동차(1)의 카메라(4)가 제공한 자동차의 주위 영역(8)의 이미지(10, 11)의 시퀀스에 기초하여, 자동차(1)의 주위 영역(8)의 객체(9)를 캡처하기 위한 방법과 관련되며, 상기 방법은 시퀀스의 제1 이미지(10)에서 제1 객체 특징부(24)를 인식하는 단계 - 상기 제1 객체 특징부(24)는 주위 영역(8)의 객체(9)의 적어도 일부분을 기술함 - , 상기 주위 영역(8)에서의 객체(9)의 운동을 기술하는 사전결정된 운동 모델에 기초하여 상기 주위 영역(8)에서의 객체(9)의 위치를 추정하는 단계, 제1 객체 특징부(24)에 기초하여 그리고 추정된 위치에 기초하여, 시퀀스에서 제1 이미지(10)에 후속하는 제2 이미지(11)에서 예측 특징부(26)를 결정하는 단계, 제2 이미지(11)에서 제2 객체 특징부(25)를 결정하는 단계, 사전결정된 연관 기준이 만족되는 경우 상기 제2 이미지(11)에서의 제2 객체 특징부(25)와 예측 특징부(26)를 연관시키는 단계, 및 제2 객체 특징부(25)가 상기 예측 특징부(26)와 연관되는 경우 상기 제2 객체 특징부(25)가 객체(9)로부터 기원한 것으로 확정하는 단계를 포함한다. The invention relates to a method for capturing an object (9) in an environmental region (8) of a motor vehicle (1) based on a sequence of images (10, 11) of the environmental region (8), which are provided by means of a camera (4) of the motor vehicle (1), including the steps of: recognizing a first object feature (24) in a first image (10) of the sequence, wherein the first object feature (24) describes at least a part of the object (9) in the environmental region (8), estimating a position of the object (9) in the environmental region (8) based on a predetermined movement model, which describes a movement of the object (9) in the environmental region (8), determining a prediction feature (26) in a second image (11) following the first image (10) in the sequence based on the first object feature (24) and based on the estimated position, determining a second object feature (25) in the second image (11), associating the second object feature (25) with the prediction feature (26) in the second image (11) if a predetermined association criterion is satisfied, and confirming the second object feature (25) as originating from the object (9) if the second object feature (25) is associated with the prediction feature (26).
Bibliography:Application Number: KR20197003274