합성곱 신경망을 이용한 딥러닝 기반의 프레임 동기 기법

This paper proposes a new frame synchronization technique based on convolutional neural network (CNN). The conventional frame synchronizers usually find the matching instance through correlation between the received signal and the preamble. The proposed method converts the 1-dimensional correlator o...

Full description

Saved in:
Bibliographic Details
Published in한국정보통신학회논문지 Vol. 24; no. 4; pp. 501 - 507
Main Authors 이의수(Eui-Soo Lee), 정의림(Eui-Rim Jeong)
Format Journal Article
LanguageKorean
Published 한국정보통신학회 2020
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:This paper proposes a new frame synchronization technique based on convolutional neural network (CNN). The conventional frame synchronizers usually find the matching instance through correlation between the received signal and the preamble. The proposed method converts the 1-dimensional correlator ouput into a 2-dimensional matrix. The 2-dimensional matrix is input to a convolutional neural network, and the convolutional neural network finds the frame arrival time. Specifically, in additive white gaussian noise (AWGN) environments, the received signals are generated with random arrival times and they are used for training data of the CNN. Through computer simulation, the false detection probabilities in various signal-to-noise ratios are investigated and compared between the proposed CNN-based technique and the conventional one. According to the results, the proposed technique shows 2dB better performance than the conventional method. 본 논문에서는 합성곱 신경망(CNN)에 기반한 프레임 동기 기법을 제안한다. 기존의 프레임 동기 기법은 프리앰블과 수신 신호 사이의 상관을 통해 수신 신호와 프리앰블이 일치하는 지점을 찾는다. 제안하는 기법은 1차원 벡터로 이루어진 상관기 출력 신호를 2차원 행렬로 재구성하며, 이 2차원 행렬을 합성곱 신경망에 입력하고 합성곱 신경망은 프레임 도착 지점을 추정한다. 구체적으로 가산 백색 가우스 잡음(AWGN) 환경에서 무작위로 도착하는 수신 신호를 생성하여 학습 데이터를 만들고, 이 학습 데이터로 합성곱 신경망을 학습시킨다. 컴퓨터 모의실험을 통해 기존의 동기 기법과 제안하는 기법의 프레임 동기 오류 확률을 다양한 신호 대 잡음 비(SNR)에서 비교한다. 모의실험 결과는 제안하는 합성곱 신경망을 이용한 프레임 동기 기법이 기존 기법 대비 약 2dB 우수함을 보인다.
Bibliography:KISTI1.1003/JNL.JAKO202005653789748
http://jkiice.org
ISSN:2234-4772
2288-4165
DOI:10.6109/jkiice.2020.24.4.501