엣지 컴퓨팅 환경에서의 딥 러닝 연산 오프로딩의 병렬 최적화

컴퓨팅 자원이 부족한 디바이스에 연산량이 많은 딥 러닝 애플리케이션을 실행하기 위해 주변에 있는 서버에 연산을 오프로딩하는 엣지 컴퓨팅 기술이 제안되었다. 그러나 딥 러닝 연산을 오프로딩하기 위해서는 서버에 모델을 먼저 업로드해야 하는 단점이 있다. 이를 해결하기 위해 모델을 점진적으로 전송하는 동시에 서버가 클라이언트 연산을 대신 수행하는 점진적 오프로딩 시스템이 제안되었다[1]. 점진적 오프로딩 시스템은 오프로딩에 걸리는 시간을 크게 단축했으나, 모델 구축 시간을 고려하지 않아서 전체 모델 업로드 시간이 늘어나는 단점이 있었다....

Full description

Saved in:
Bibliographic Details
Published inChŏngbo Kwahakhoe nonmunji pp. 256 - 260
Main Authors 신광용, 문수묵
Format Journal Article
LanguageKorean
Published 한국정보과학회 01.03.2022
Subjects
Online AccessGet full text
ISSN2383-630X
2383-6296
DOI10.5626/JOK.2022.49.3.256

Cover

More Information
Summary:컴퓨팅 자원이 부족한 디바이스에 연산량이 많은 딥 러닝 애플리케이션을 실행하기 위해 주변에 있는 서버에 연산을 오프로딩하는 엣지 컴퓨팅 기술이 제안되었다. 그러나 딥 러닝 연산을 오프로딩하기 위해서는 서버에 모델을 먼저 업로드해야 하는 단점이 있다. 이를 해결하기 위해 모델을 점진적으로 전송하는 동시에 서버가 클라이언트 연산을 대신 수행하는 점진적 오프로딩 시스템이 제안되었다[1]. 점진적 오프로딩 시스템은 오프로딩에 걸리는 시간을 크게 단축했으나, 모델 구축 시간을 고려하지 않아서 전체 모델 업로드 시간이 늘어나는 단점이 있었다. 본 논문은 모델 구축과 모델 업로드의 병렬 최적화를 통해 기존 시스템의 문제점을 해결해서 기존 시스템 대비 전체 모델 업로드 시간을 최대 30% 개선했다. Computation offloading to edge servers has been proposed as a solution to performing computation-intensive deep learning applications on devices with low hardware capabilities. However, the deep learning model has to be uploaded to the edge server before computation offloading is possible, a non-trivial assumption in the edge server environment. Incremental offloading of neural networks was proposed as a solution as it can simultaneously upload model and offload computation [1]. Although it reduced the model upload time required for computation offloading, it did not properly handle the model creation overhead, increasing the time required to upload the entire model. This work solves this problem by parallel optimization of model uploading and creation, decreasing the model upload time by up to 30% compared to the previous system. KCI Citation Count: 0
ISSN:2383-630X
2383-6296
DOI:10.5626/JOK.2022.49.3.256