프레임 간 예측 방법 및 장치, 기기, 저장 매체

본 발명의 실시예는 프레임 간 예측 방법 및 장치, 기기, 저장 매체를 개시하였고, 여기서, 상기 프레임 간 예측 방법은, 현재 블록이 비디오 이미지에서의 위치에 따라, 제1 움직임 정보 및 제2 후보 움직임 정보를 결정하는 단계(301) - 상기 움직임 정보는 적어도 움직임 벡터를 포함함 - ; 상기 제1 움직임 정보의 움직임 벡터와 상기 제2 후보 움직임 정보의 움직임 벡터 사이의 거리가 제1 임계값보다 큰지 여부를 판단하는 단계(302); 판단 결과는 상기 거리가 상기 제1 임계값보다 작거나 같은 것일 때, 상기 제2 후보 움...

Full description

Saved in:
Bibliographic Details
Main Authors WAN SHUAI, YANG FUZHENG, HUO JUNYAN, RAN QIHONG, MA YANZHUO, ZHANG WEI
Format Patent
LanguageKorean
Published 19.05.2022
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:본 발명의 실시예는 프레임 간 예측 방법 및 장치, 기기, 저장 매체를 개시하였고, 여기서, 상기 프레임 간 예측 방법은, 현재 블록이 비디오 이미지에서의 위치에 따라, 제1 움직임 정보 및 제2 후보 움직임 정보를 결정하는 단계(301) - 상기 움직임 정보는 적어도 움직임 벡터를 포함함 - ; 상기 제1 움직임 정보의 움직임 벡터와 상기 제2 후보 움직임 정보의 움직임 벡터 사이의 거리가 제1 임계값보다 큰지 여부를 판단하는 단계(302); 판단 결과는 상기 거리가 상기 제1 임계값보다 작거나 같은 것일 때, 상기 제2 후보 움직임 정보를 업데이트하여, 제2 움직임 정보를 얻는 단계(304); 판단 결과는 상기 거리가 상기 제1 임계값보다 큰 것일 때, 상기 제2 후보 움직임 정보를 제2 움직임 정보로 사용하는 단계(303); 및 상기 제1 움직임 정보 및 상기 제2 움직임 정보를 사용하여, 상기 현재 블록에 대해 프레임 간 예측을 수행하는 단계(305)를 포함한다. An inter-frame prediction method and apparatus, a device, and a storage medium. Said method comprises: according to the position of a current block in a video image, determining first motion information and second candidate motion information, the motion information at least including a motion vector (301); determining whether the distance between the motion vector of the first motion information and the motion vector of the second candidate motion information is greater than a first threshold (302); if the determination result is that the distance is less than or equal to the first threshold, updating the second candidate motion information to obtain second motion information (304); if the determination result is that the distance is greater than the first threshold, taking the second candidate motion information as the second motion information (303); and performing inter-frame prediction on the current block by using the first motion information and the second motion information (305).
Bibliography:Application Number: KR20227001680