282 0

Full metadata record

DC FieldValueLanguage
dc.contributor.author정기석-
dc.date.accessioned2021-04-15T02:03:50Z-
dc.date.available2021-04-15T02:03:50Z-
dc.date.issued2020-02-
dc.identifier.citation2020년도 한국통신학회 동계종합학술발표회, Page. 1036-1037en_US
dc.identifier.urihttps://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE09346672-
dc.identifier.urihttps://repository.hanyang.ac.kr/handle/20.500.11754/161405-
dc.description.abstract최근, 컨볼루션 신경망이 깊어짐에 따라 연산량과 파라미터의 양이 커지는 것이 큰 문제로 대두되고 있다. 특히, 메모리 용량과 연산 능력이 제한된 임베디드 환경에서는 기존의 딥러닝 모델을 경량화하는 것이 필수적이며, 이를 위해서 프루닝 기법이 널리 사용되고 있다. 프루닝을 통해 간략화된 컨볼루션 신경망은 0 값이 많은 sparse 한 구조를 갖지만, 기존의 신경망 연산 방법은 피연산자가 0 값인 경우에도 그대로 연산을 하기 때문에 불필요한 연산이 많이 수행된다. 본 논문에서는 프루닝된 컨볼루션 신경망에서의 효율적인 연산 방법으로 외적을 이용한 Sparse Matrix-Matrix Multiplication (SpMM)을 제안한다. 실험을 통해, 임베디드 환경에서 기존 연산 방법 대비 속도가 최대 7.1 배 개선된 것을 확인하였다.en_US
dc.description.sponsorship본 연구는 IDEC 에서 EDA Tool 을 지원받아 수행하였습니다.en_US
dc.language.isoko_KRen_US
dc.publisher한국통신학회en_US
dc.title프루닝된 컨볼루션 신경망의 고효율 연산 방법en_US
dc.title.alternativeHighly-efficient Computation Method for Pruned CNNen_US
dc.typeArticleen_US
dc.relation.page1036-1037-
dc.contributor.googleauthor이원혁-
dc.contributor.googleauthor박상수-
dc.contributor.googleauthor정기석-
dc.contributor.googleauthorLee, Won-Hyuk-
dc.contributor.googleauthorPark, Sang-Soo-
dc.contributor.googleauthorChung, Ki-Seok-
dc.sector.campusS-
dc.sector.daehakCOLLEGE OF ENGINEERING[S]-
dc.sector.departmentDEPARTMENT OF ELECTRONIC ENGINEERING-
dc.identifier.pidkchung-
Appears in Collections:
COLLEGE OF ENGINEERING[S](공과대학) > ELECTRONIC ENGINEERING(융합전자공학부) > Articles
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

BROWSE