카메라 기반 6DoF 추적 및 포즈 추정 시스템의 설계 및 구현에 관한 연구

본 연구에서는 카메라 기반의 6DoF(6 Degrees of Freedom) 추적 및 포즈 추정 시스템을 설계하고 구현하였다. 특히, 6DoF 로봇 팔을 활용하여 사용자의 모든 손가락에 대한 위치와 자세를 정밀하게 추정하는 방법을 제안한다. 시스템은 Python 프로그래밍 언어를 기반으로 하여, Mediapipe와 OpenCV 라이브러리를 활용하여 개발되었다. Mediapipe는 손가락의 키포인트를 실시간으로 추출하는 데 사용되며, 각 손가락의 관절 위치를 정확하게 인식한다. OpenCV는 카메라에서 수집된 이미지 데이터를 처리하여...

Full description

Saved in:
Bibliographic Details
Published in한국인터넷방송통신학회 논문지, 24(5) pp. 53 - 59
Main Authors 정도윤, 정희자, 김남호
Format Journal Article
LanguageKorean
Published 한국인터넷방송통신학회 01.10.2024
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:본 연구에서는 카메라 기반의 6DoF(6 Degrees of Freedom) 추적 및 포즈 추정 시스템을 설계하고 구현하였다. 특히, 6DoF 로봇 팔을 활용하여 사용자의 모든 손가락에 대한 위치와 자세를 정밀하게 추정하는 방법을 제안한다. 시스템은 Python 프로그래밍 언어를 기반으로 하여, Mediapipe와 OpenCV 라이브러리를 활용하여 개발되었다. Mediapipe는 손가락의 키포인트를 실시간으로 추출하는 데 사용되며, 각 손가락의 관절 위치를 정확하게 인식한다. OpenCV는 카메라에서 수집된 이미지 데이터를 처리하여 손가락의 위치를 분석하고, 이를 통해 포즈 추정을 수행한다. 이러한 접근법은 다양한 조명 조건과 손의 위치 변화에도 불구하고 높은 정확도를 유지할 수 있도록 설계되었다. 제안한시스템은 실험을 통해 그 성능을 검증하였으며, 손동작 인식의 정확성과 로봇 팔의 제어 능력을 평가하였다. 실험 결과, 본 시스템은 실시간으로 손가락의 위치를 추정하고, 이를 기반으로 6DoF 로봇 팔의 정밀한 동작을 구현할 수 있음을보여주었다. 본 연구는 로봇 제어 및 인간-로봇 상호작용 분야에 중요한 기여를 할 것으로 기대되며, 향후 다양한 응용가능성을 열어줄 것이다. 본 연구의 결과는 로봇 기술의 발전과 더불어 사람과 로봇 간의 자연스러운 상호작용을 촉진하는 데 기여할 것이다. This study presents the design and implementation of a camera-based 6DoF (6 Degrees of Freedom) tracking and pose estimation system. In particular, we propose a method for accurately estimating the positions and orientations of all fingers of a user utilizing a 6DoF robotic arm. The system is developed using the Python programming language, leveraging the Mediapipe and OpenCV libraries. Mediapipe is employed to extract keypoints of the fingers in real-time, allowing for precise recognition of the joint positions of each finger. OpenCV processes the image data collected from the camera to analyze the finger positions, thereby enabling pose estimation. This approach is designed to maintain high accuracy despite varying lighting conditions and changes in hand position. The proposed system's performance has been validated through experiments, evaluating the accuracy of hand gesture recognition and the control capabilities of the robotic arm. The experimental results demonstrate that the system can estimate finger positions in real-time, facilitating precise movements of the 6DoF robotic arm. This research is expected to make significant contributions to the fields of robotic control and human-robot interaction, opening up various possibilities for future applications. The findings of this study will aid in advancing robotic technology and promoting natural interactions between humans and robots. KCI Citation Count: 0
ISSN:2289-0238
2289-0246