VIDEO CLIP OBJECT TRACKING

본 개시내용의 양태들은 비디오 클립에서 3차원 가상 객체들을 렌더링하기 위한 방법, 및 적어도 하나의 프로그램을 저장하는 컴퓨터-판독가능 스토리지 매체를 포함하는 시스템을 수반한다. 이 방법 및 시스템은 카메라 가능 디바이스를 사용하여, 현실 세계 장면의 비디오 콘텐츠를 캡처하고 상기 비디오 콘텐츠의 캡처 동안 상기 카메라 가능 디바이스에 의해 수집된 이동 정보를 캡처하는 단계를 포함한다. 상기 캡처된 비디오 및 이동 정보는 저장된다. 상기 저장된 캡처된 비디오 콘텐츠는 상기 장면 내의 현실 세계 객체를 식별하도록 처리된다. 상기...

Full description

Saved in:
Bibliographic Details
Main Authors MATHEW TONY, HARE SAMUEL EDWARD, MCPHEE ANDREW JAMES
Format Patent
LanguageEnglish
Korean
Published 12.04.2024
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:본 개시내용의 양태들은 비디오 클립에서 3차원 가상 객체들을 렌더링하기 위한 방법, 및 적어도 하나의 프로그램을 저장하는 컴퓨터-판독가능 스토리지 매체를 포함하는 시스템을 수반한다. 이 방법 및 시스템은 카메라 가능 디바이스를 사용하여, 현실 세계 장면의 비디오 콘텐츠를 캡처하고 상기 비디오 콘텐츠의 캡처 동안 상기 카메라 가능 디바이스에 의해 수집된 이동 정보를 캡처하는 단계를 포함한다. 상기 캡처된 비디오 및 이동 정보는 저장된다. 상기 저장된 캡처된 비디오 콘텐츠는 상기 장면 내의 현실 세계 객체를 식별하도록 처리된다. 상기 현실 세계 장면 및 상기 가상 객체를 포함하는 증강된 비디오 콘텐츠를 생성하도록 상기 저장된 캡처된 비디오 콘텐츠에 가상 객체를 추가하고; 상기 증강된 비디오 콘텐츠의 재생 동안, 상기 저장된 이동 정보에 적어도 부분적으로 기초하여 상기 증강된 비디오 콘텐츠 내의 상기 가상 객체의 스크린 상의 위치를 조정하는, 인터랙티브 증강 현실 디스플레이가 생성된다. Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing at least one program, and a method for rendering a three-dimensional virtual object in a video clip. The method and system include capturing, using a camera-enabled device, video content of a real-world scene and movement information collected by the camera-enabled device during capture of the video content. The captured video and movement information are stored. The stored captured video content is processed to identify a real-world object in the scene. An interactive augmented reality display is generated that: adds a virtual object to the stored video content to create augmented video content comprising the real-world scene and the virtual object; and adjusts, during playback of the augmented video content, an on-screen position of the virtual object within the augmented video content based at least in part on the stored movement information.
Bibliography:Application Number: KR20247010515