앙상블 YOLOv5 모델을 활용한 교통 약자 탐지 방법 연구

횡단보도에서 발생하는 교통사고를 해결하기 위한 시도가 계속되고 있지만, 교통사고는 끊임 없이 일어나는 상황이다. 특히 노인, 장애인 등의 교통약자들은 교통사고에 노출될 위험이 더 크다. 이에 대한 문제점을 주의 깊게 볼 필요가 있다. 본 논문은 교통 약자 중 휠체어, 목발과 같은 보조 기구를 이용하는 보행자를 위해 YOLO v5 모델을 활용한 객체 탐지 기술을 제안한다. 휠체어, 목발 사용자 그리고 보행자의 이미지 크롤링, Roboflow와 Mobibity Aids 데이터를 수집하였다. 일반화 성능을 높이기 위해 데이터 증강 기법을...

Full description

Saved in:
Bibliographic Details
Published in한국컴퓨터정보학회논문지 Vol. 29; no. 1; pp. 61 - 68
Main Authors 이현도(Hyun-Do Lee), 김선구(Sun-Gu Kim), 나승채(Seung-Chae Na), 함지율(Ji-Yul Ham), 곽찬희(Chanhee Kwak)
Format Journal Article
LanguageKorean
Published 한국컴퓨터정보학회 2024
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:횡단보도에서 발생하는 교통사고를 해결하기 위한 시도가 계속되고 있지만, 교통사고는 끊임 없이 일어나는 상황이다. 특히 노인, 장애인 등의 교통약자들은 교통사고에 노출될 위험이 더 크다. 이에 대한 문제점을 주의 깊게 볼 필요가 있다. 본 논문은 교통 약자 중 휠체어, 목발과 같은 보조 기구를 이용하는 보행자를 위해 YOLO v5 모델을 활용한 객체 탐지 기술을 제안한다. 휠체어, 목발 사용자 그리고 보행자의 이미지 크롤링, Roboflow와 Mobibity Aids 데이터를 수집하였다. 일반화 성능을 높이기 위해 데이터 증강 기법을 활용하였다. 더하여 Type 2 error를 줄이기 위해 앙상블 기법을이용하여 Recall이 96%인 높은 성능 수치를 얻었다. 이를 통해 교통약자를 목표로 YOLO 내 단일 모델을 앙상블 할 시, 객체를 놓치지 않고 정확한 탐지 성능을 보여준다는 것을 입증하였다. Despite the continuous efforts to mitigate pedestrian accidents at crosswalks, the problem persist. Vulnerable groups, including the elderly and disabled individuals are at a risk of being involved in traffic incidents. This paper proposes the implementation of object detection algorithm using the YOLO v5 model specifically for pedestrians using assistive devices like wheelchairs and crutches. For this research, data was collected and utilized through image crawling, Roboflow, and Mobility Aids datasets, which comprise of wheelchair users, crutch users, and pedestrians. Data augmentation techniques were applied to improve the model's generalization performance. Additionally, ensemble techniques were utilized to mitigate type 2 errors, resulting in 96% recall rate. This demonstrates that employing ensemble methods with a single YOLO model to target transportation-disadvantaged individuals can yield accurate detection performance without overlooking crucial objects. KCI Citation Count: 0
ISSN:1598-849X
2383-9945
DOI:10.9708/jksci.2024.29.01.061