글로벌 큐를 통한 임베디드 멀티코어 프로세서의 멀티 DNN 연산 성능 향상

DNN is expanding its use in embedded systems such as robots and autonomous vehicles. For high recognition accuracy, computational complexity is greatly increased, and multiple DNNs are running aperiodically. Therefore, the ability processing multiple DNNs in embedded environments is a crucial issue....

Full description

Saved in:
Bibliographic Details
Published in한국정보통신학회논문지 Vol. 24; no. 6; pp. 714 - 721
Main Authors 조호진(Ho-jin Cho), 김명선(Myung-sun Kim)
Format Journal Article
LanguageKorean
Published 한국정보통신학회 2020
Subjects
Online AccessGet full text
ISSN2234-4772
2288-4165
DOI10.6109/jkiice.2020.24.6.714

Cover

Loading…
Abstract DNN is expanding its use in embedded systems such as robots and autonomous vehicles. For high recognition accuracy, computational complexity is greatly increased, and multiple DNNs are running aperiodically. Therefore, the ability processing multiple DNNs in embedded environments is a crucial issue. Accordingly, multicore based platforms are being released. However, most DNN models are operated in a batch process, and when multiple DNNs are operated in multicore together, the execution time deviation between each DNN may be large and the end-to-end execution time of the whole DNNs could be long depending on how they are allocated to the cores. In this paper, we solve these problems by providing a framework that decompose each DNN into individual layers and then distribute to multicores through a global queue. As a result of the experiment, the total DNN execution time was reduced by 31%, and when operating multiple identical DNNs, the deviation in execution time was reduced by up to 95.1%. DNN은 로봇 및 자율주행차 등의 임베디드 시스템에서 활용 분야가 넓어지고 있다. 최근 높은 인식 정확도를 위하여 연산 복잡도가 크게 증가되고 비주기적으로 다수의 DNN을 사용하는 형태가 증가되고 있다. 따라서 임베디드 환경에서 다수의 DNN을 처리할 수 있는 능력은 중요한 이슈가 되었다. 이에 따라 멀티코어 기반 플랫폼들이 출시되고 있다. 하지만 대부분의 DNN 모델들은 배치 프로세스로 운용되어, 여러 DNN이 함께 멀티코어에서 운용될 때 어떻게 코어에 할당되느냐에 따라 각 DNN 간 수행시간 편차가 클 수 있고 시스템 전체적인 DNN 수행 시간이 길어질 수 있다. 본 논문에서는 각 DNN들을 배치 형태가 아닌 레이어별로 재구성한 후 글로벌 큐를 통하여 멀티코어에 분산시킬 수 있는 프레임워크를 제공하여 이러한 문제를 해결한다. 실험 결과 전체 DNN 수행 시간은 31% 감소하였고 다수의 동일 DNN을 운용 시 그 수행시간 편차는 최대 95.1% 감소하였다.
AbstractList DNN은 로봇 및 자율주행차 등의 임베디드 시스템에서 활용 분야가 넓어지고 있다. 최근 높은 인식 정확도를 위하여 연산 복잡도가 크게 증가되고 비주기적으로 다수의 DNN을 사용하는 형태가 증가되고 있다. 따라서 임베디드 환경에서 다수의 DNN을 처리할 수 있는 능력은 중요한 이슈가 되었다. 이에 따라 멀티코어 기반 플랫폼들이 출시되고 있다. 하지만 대부분의 DNN 모델들은 배치 프로세스로 운용되어, 여러 DNN이 함께 멀티코어에서 운용될 때 어떻게 코어에 할당되느냐에 따라 각 DNN 간 수행시간 편차가 클 수 있고 시스템 전체적인 DNN 수행 시간이 길어질 수 있다. 본 논문에서는 각 DNN들을 배치 형태가 아닌 레이어별로 재구성한 후 글로벌 큐를 통하여 멀티코어에 분산시킬 수 있는 프레임워크를 제공하여 이러한 문제를 해결한다. 실험 결과 전체 DNN 수행 시간은 31% 감소하였고 다수의 동일 DNN을 운용 시 그 수행시간 편차는 최대 95.1% 감소하였다. DNN is expanding its use in embedded systems such as robots and autonomous vehicles. For high recognition accuracy, computational complexity is greatly increased, and multiple DNNs are running aperiodically. Therefore, the ability processing multiple DNNs in embedded environments is a crucial issue. Accordingly, multicore based platforms are being released. However, most DNN models are operated in a batch process, and when multiple DNNs are operated in multicore together, the execution time deviation between each DNN may be large and the end-to-end execution time of the whole DNNs could be long depending on how they are allocated to the cores. In this paper, we solve these problems by providing a framework that decompose each DNN into individual layers and then distribute to multicores through a global queue. As a result of the experiment, the total DNN execution time was reduced by 31%, and when operating multiple identical DNNs, the deviation in execution time was reduced by up to 95.1%. KCI Citation Count: 0
DNN is expanding its use in embedded systems such as robots and autonomous vehicles. For high recognition accuracy, computational complexity is greatly increased, and multiple DNNs are running aperiodically. Therefore, the ability processing multiple DNNs in embedded environments is a crucial issue. Accordingly, multicore based platforms are being released. However, most DNN models are operated in a batch process, and when multiple DNNs are operated in multicore together, the execution time deviation between each DNN may be large and the end-to-end execution time of the whole DNNs could be long depending on how they are allocated to the cores. In this paper, we solve these problems by providing a framework that decompose each DNN into individual layers and then distribute to multicores through a global queue. As a result of the experiment, the total DNN execution time was reduced by 31%, and when operating multiple identical DNNs, the deviation in execution time was reduced by up to 95.1%. DNN은 로봇 및 자율주행차 등의 임베디드 시스템에서 활용 분야가 넓어지고 있다. 최근 높은 인식 정확도를 위하여 연산 복잡도가 크게 증가되고 비주기적으로 다수의 DNN을 사용하는 형태가 증가되고 있다. 따라서 임베디드 환경에서 다수의 DNN을 처리할 수 있는 능력은 중요한 이슈가 되었다. 이에 따라 멀티코어 기반 플랫폼들이 출시되고 있다. 하지만 대부분의 DNN 모델들은 배치 프로세스로 운용되어, 여러 DNN이 함께 멀티코어에서 운용될 때 어떻게 코어에 할당되느냐에 따라 각 DNN 간 수행시간 편차가 클 수 있고 시스템 전체적인 DNN 수행 시간이 길어질 수 있다. 본 논문에서는 각 DNN들을 배치 형태가 아닌 레이어별로 재구성한 후 글로벌 큐를 통하여 멀티코어에 분산시킬 수 있는 프레임워크를 제공하여 이러한 문제를 해결한다. 실험 결과 전체 DNN 수행 시간은 31% 감소하였고 다수의 동일 DNN을 운용 시 그 수행시간 편차는 최대 95.1% 감소하였다.
Author 조호진(Ho-jin Cho)
김명선(Myung-sun Kim)
Author_xml – sequence: 1
  fullname: 조호진(Ho-jin Cho)
– sequence: 2
  fullname: 김명선(Myung-sun Kim)
BackLink https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART002597806$$DAccess content in National Research Foundation of Korea (NRF)
BookMark eNpFkLtOwzAYhS0EEtc3YPDCwJDgOLZjjxV3qFoJdbeS1kEmkKIGBjYuEQMwIFEKQ0EwdGArCCQGeCHivAMpIDGdI53v_490xsFw3IwVANMOspmDxNxWpHVd2RhhZGNiM9tzyBAYw5hziziMDg-8SyzieXgUTCWJDpDLsCccl40B_-v9MHvsZi8XMD-6zHofMD99y6-70Nyn2ctD1m5nV12YPR3m533z2TadV5i30-LCpO8m7Zq7278QLlQq0Nz0zXEfmvQ5O-vBvNMzJ0eTYCT0txM19acToLa0WJtfscrV5dX5UtmKBOGWIIhwz8EKUUobNAxwGArCkBJEEcIRCjDHIaKeCij3saoTfwAowojjB2HoToDZ37dxK5RRXcumr390symjlixt1FaloEhQRxTszC8b6WRPy7iRbMu10np1sCGijLoeF0X5Pxfvt_SOamhf7hbGbx3ISnVhEYliR5dx9xumsY3_
ContentType Journal Article
DBID DBRKI
TDB
JDI
ACYCR
DEWEY 003.5
DOI 10.6109/jkiice.2020.24.6.714
DatabaseName DBPIA - 디비피아
Nurimedia DBPIA Journals
KoreaScience
Korean Citation Index
DatabaseTitleList

DeliveryMethod fulltext_linktorsrc
Discipline Applied Sciences
Mathematics
DocumentTitleAlternate Improving Multi-DNN Computational Performance of Embedded Multicore Processors through a Global Queue
DocumentTitle_FL Improving Multi-DNN Computational Performance of Embedded Multicore Processors through a Global Queue
EISSN 2288-4165
EndPage 721
ExternalDocumentID oai_kci_go_kr_ARTI_9509519
JAKO202005653789946
NODE09362368
GroupedDBID .UV
ALMA_UNASSIGNED_HOLDINGS
DBRKI
TDB
JDI
ACYCR
ID FETCH-LOGICAL-k948-94048712e0555d5fb2ff9460e94e44800b282f057eb58a2ec4aff94e4641abff3
ISSN 2234-4772
IngestDate Sun Mar 09 07:53:53 EDT 2025
Fri Dec 22 12:02:23 EST 2023
Thu Feb 06 13:26:42 EST 2025
IsDoiOpenAccess true
IsOpenAccess true
IsPeerReviewed true
IsScholarly true
Issue 6
Keywords Multicore
Embedded Distributed System
Deep Neural Network
자율주행 자동차
Autonomous Vehicles
임베디드 분산 시스템
멀티코어
Language Korean
LinkModel OpenURL
MergedId FETCHMERGED-LOGICAL-k948-94048712e0555d5fb2ff9460e94e44800b282f057eb58a2ec4aff94e4641abff3
Notes KISTI1.1003/JNL.JAKO202005653789946
http://jkiice.org
OpenAccessLink http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO202005653789946&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01
PageCount 8
ParticipantIDs nrf_kci_oai_kci_go_kr_ARTI_9509519
kisti_ndsl_JAKO202005653789946
nurimedia_primary_NODE09362368
PublicationCentury 2000
PublicationDate 2020
PublicationDateYYYYMMDD 2020-01-01
PublicationDate_xml – year: 2020
  text: 2020
PublicationDecade 2020
PublicationTitle 한국정보통신학회논문지
PublicationTitleAlternate Journal of the Korea Institute of Information and Communication Engineering
PublicationYear 2020
Publisher 한국정보통신학회
Publisher_xml – name: 한국정보통신학회
SSID ssib036279136
ssib053377456
ssib044738262
ssib015937029
ssib023393675
ssib012146319
Score 2.089301
Snippet DNN is expanding its use in embedded systems such as robots and autonomous vehicles. For high recognition accuracy, computational complexity is greatly...
DNN은 로봇 및 자율주행차 등의 임베디드 시스템에서 활용 분야가 넓어지고 있다. 최근 높은 인식 정확도를 위하여 연산 복잡도가 크게 증가되고 비주기적으로 다수의 DNN을 사용하는 형태가 증가되고 있다. 따라서 임베디드 환경에서 다수의 DNN을 처리할 수 있는 능력은 중요한 이슈가...
SourceID nrf
kisti
nurimedia
SourceType Open Website
Open Access Repository
Publisher
StartPage 714
SubjectTerms 전자/정보통신공학
Title 글로벌 큐를 통한 임베디드 멀티코어 프로세서의 멀티 DNN 연산 성능 향상
URI https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE09362368
http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO202005653789946&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01
https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART002597806
Volume 24
hasFullText 1
inHoldings 1
isFullTextHit
isPrint
ispartofPNX 한국정보통신학회논문지, 2020, 24(6), , pp.714-721
link http://utb.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwrR1Nb9MwNNrGAS4IBIjPKULkNKU0thPbx_QDjaF1lyHtFjVtAltRi7b1AAe0QcUBOCAxBoeC4LADtzGBNCH4QyT9D7xnp1lAk_gQUpU6L8_vy7H9XhI_G8YVKj2BfqkNIx0m1W4KW7QIs2E2ipyYC9Z2cDXyfMObvcnmltylickvha-W-uthqXX_0HUl_9KqAIN2xVWyf9GyOVEAQBnaF47QwnD8oza26r5VEfixQr1i-Y4lq1ioEEtUZ6x6DbxES-prrlXJQJ5VcbEgXUAHUNWSdUuwrKKv0CXDHxaoRgIKUrEBAoBXxmqVmkKC-kCSKeJwrillslTxFATUBQ2RgCYOITlTazS0ODxjIAiCx1QcrCJ8UEWz8lApvEYtvRvL2MXOlVPWcS2_hmigGABRSQrSFixRRfZ-eVxLqoIPFlT80G5K1mqmh88tkb_hUQBHiYtaFVAYOO6zPXsF11Te7hUetyih5LjJfOSgFQQRiJi_B2OvvdbvzqhdrmXxmQwp5_3nf6l4MAuA-8ZsxvX-RqUog0FHAE_aLU5jeil61l2LcxLXq3Qz94brBem_zpyeTjy70lnGVFaoU4mwklfKK_-Uk7yxUKuXJfg-1BOTxhHCuYMzyvyD-ngsd3DDeHqQKhC8ZsoLb4AJpVD_wHUFWlw6NHeNGeNUFFJZQlQCgYrajDm3iF4Ji5JfPUxuCDcxBlsGr7G7Cs7m0W4fd8yAYbfgQS6eMI5noZ_p63580pjo9E4Zze_7G8n7YbL3zBxtPk92vpqjx59HL4dm-naQ7L1LtraSF0Mz-bAxerqbfttKtz-Zo60B1EgH--lgmL55nV00of-Y6avd9OGumQ4-Jk92zNH2Tvpo87SxeK2-WJ21s21P7I5k4H0wmFS5QyJMxdd245DEsWReOZIsYgziu5AIEkOYFYWuaJKoxZqIEDGPOc0wjukZY6rb60ZnDVPGtBWymLUliVhE3ZA0I0pom2MY0RT8nDGtLBR022t3gjn_xgIaEEIil3Ihgek54zKYLui0lgNMQ4__t3pBZzWAYPt6IF2MzyRQyS0b3NU5coLiHXL-dwgXjGPIWD_ZvGhMra_2o0vg66-H0-qm-gE04MpZ
linkProvider ISSN International Centre
openUrl ctx_ver=Z39.88-2004&ctx_enc=info%3Aofi%2Fenc%3AUTF-8&rfr_id=info%3Asid%2Fsummon.serialssolutions.com&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Ajournal&rft.genre=article&rft.atitle=%EA%B8%80%EB%A1%9C%EB%B2%8C+%ED%81%90%EB%A5%BC+%ED%86%B5%ED%95%9C+%EC%9E%84%EB%B2%A0%EB%94%94%EB%93%9C+%EB%A9%80%ED%8B%B0%EC%BD%94%EC%96%B4+%ED%94%84%EB%A1%9C%EC%84%B8%EC%84%9C%EC%9D%98+%EB%A9%80%ED%8B%B0+DNN+%EC%97%B0%EC%82%B0+%EC%84%B1%EB%8A%A5+%ED%96%A5%EC%83%81&rft.jtitle=%ED%95%9C%EA%B5%AD%EC%A0%95%EB%B3%B4%ED%86%B5%EC%8B%A0%ED%95%99%ED%9A%8C%EB%85%BC%EB%AC%B8%EC%A7%80&rft.au=%EC%A1%B0%ED%98%B8%EC%A7%84%28Ho-jin+Cho%29&rft.au=%EA%B9%80%EB%AA%85%EC%84%A0%28Myung-sun+Kim%29&rft.date=2020&rft.pub=%ED%95%9C%EA%B5%AD%EC%A0%95%EB%B3%B4%ED%86%B5%EC%8B%A0%ED%95%99%ED%9A%8C&rft.issn=2234-4772&rft.eissn=2288-4165&rft.volume=24&rft.issue=6&rft.spage=714&rft.epage=721&rft_id=info:doi/10.6109%2Fjkiice.2020.24.6.714&rft.externalDocID=NODE09362368
thumbnail_l http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/lc.gif&issn=2234-4772&client=summon
thumbnail_m http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/mc.gif&issn=2234-4772&client=summon
thumbnail_s http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/sc.gif&issn=2234-4772&client=summon