온 디바이스 객체 검출을 위한 상황 인지 기반의 모델 선택 기법
DNN(Deep Neural Network)은 얼굴 인식, 음성 인식, 객체 검출 등 지능형 어플리케이션에 필요한 컴퓨터 비전 기술이다. DNN모델은 수많은 은닉층과 학습 파라미터를 포함하기 때문에 객체 검출 알고리즘은 많은 연산 리소스를 요구한다. 그러므로, 모바일 장치와 같이 리소스가 제한된 환경에서는 객체 검출을 수행하는데 어려움이 있다. 본 논문에서는 온 디바이스 객체 검출을 위한 상황 인지 기반의 모델 선택 기법을 제안한다. 모델의 연산 리소스를 줄이기 위하여 시공간 도메인 별 OOI(Object Of Interest) 그...
Saved in:
Published in | 정보과학회 컴퓨팅의 실제 논문지 Vol. 27; no. 8; pp. 388 - 393 |
---|---|
Main Authors | , , |
Format | Journal Article |
Language | Korean |
Published |
Korean Institute of Information Scientists and Engineers
01.08.2021
한국정보과학회 |
Subjects | |
Online Access | Get full text |
Cover
Loading…
Summary: | DNN(Deep Neural Network)은 얼굴 인식, 음성 인식, 객체 검출 등 지능형 어플리케이션에 필요한 컴퓨터 비전 기술이다. DNN모델은 수많은 은닉층과 학습 파라미터를 포함하기 때문에 객체 검출 알고리즘은 많은 연산 리소스를 요구한다. 그러므로, 모바일 장치와 같이 리소스가 제한된 환경에서는 객체 검출을 수행하는데 어려움이 있다. 본 논문에서는 온 디바이스 객체 검출을 위한 상황 인지 기반의 모델 선택 기법을 제안한다. 모델의 연산 리소스를 줄이기 위하여 시공간 도메인 별 OOI(Object Of Interest) 그룹을 정의하고 각 도메인에 대해 경량화 모델을 학습시킨다. 제안하는 기법은 상황 정보를 기반으로 시공간 도메인을 결정하고 짧은 지연 시간으로 정확한 물체 감지가 가능하도록 최적의 DNN 모델을 선택한다. 기존의 객체 검출 기법과의 비교 실험을 통해 제안하는 기법이 유사한 정확도를 달성하면서 짧은 지연 시간으로 객체 검출이 가능한 것을 확인하였다. The deep neural network (DNN) is computer vision technology required for intelligent applications such as face recognition, voice recognition, and object detection, etc. Since the DNN model contains a number of hidden layers and learning parameters, the object detection algorithm requires many computational resources. Therefore, it is difficult to perform object detection in resource- constrained environments such as mobile devices. In this paper, we proposed a context-aware model selection scheme for on-device object detection. To reduce the computational resources of the DNN model, we defined the object of interest (OOI) groups for each spatiotemporal domain and trained lightweight models for each domain. The proposed scheme determines the spatiotemporal domain based on the context information and selects the optimal DNN model to enable accurate object detection with a short latency. KCI Citation Count: 0 |
---|---|
ISSN: | 2383-6318 2383-6326 |
DOI: | 10.5626/KTCP.2021.27.8.388 |