Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | 정기석 | - |
dc.date.accessioned | 2021-04-15T02:03:50Z | - |
dc.date.available | 2021-04-15T02:03:50Z | - |
dc.date.issued | 2020-02 | - |
dc.identifier.citation | 2020년도 한국통신학회 동계종합학술발표회, Page. 1036-1037 | en_US |
dc.identifier.uri | https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE09346672 | - |
dc.identifier.uri | https://repository.hanyang.ac.kr/handle/20.500.11754/161405 | - |
dc.description.abstract | 최근, 컨볼루션 신경망이 깊어짐에 따라 연산량과 파라미터의 양이 커지는 것이 큰 문제로 대두되고 있다. 특히, 메모리 용량과 연산 능력이 제한된 임베디드 환경에서는 기존의 딥러닝 모델을 경량화하는 것이 필수적이며, 이를 위해서 프루닝 기법이 널리 사용되고 있다. 프루닝을 통해 간략화된 컨볼루션 신경망은 0 값이 많은 sparse 한 구조를 갖지만, 기존의 신경망 연산 방법은 피연산자가 0 값인 경우에도 그대로 연산을 하기 때문에 불필요한 연산이 많이 수행된다. 본 논문에서는 프루닝된 컨볼루션 신경망에서의 효율적인 연산 방법으로 외적을 이용한 Sparse Matrix-Matrix Multiplication (SpMM)을 제안한다. 실험을 통해, 임베디드 환경에서 기존 연산 방법 대비 속도가 최대 7.1 배 개선된 것을 확인하였다. | en_US |
dc.description.sponsorship | 본 연구는 IDEC 에서 EDA Tool 을 지원받아 수행하였습니다. | en_US |
dc.language.iso | ko_KR | en_US |
dc.publisher | 한국통신학회 | en_US |
dc.title | 프루닝된 컨볼루션 신경망의 고효율 연산 방법 | en_US |
dc.title.alternative | Highly-efficient Computation Method for Pruned CNN | en_US |
dc.type | Article | en_US |
dc.relation.page | 1036-1037 | - |
dc.contributor.googleauthor | 이원혁 | - |
dc.contributor.googleauthor | 박상수 | - |
dc.contributor.googleauthor | 정기석 | - |
dc.contributor.googleauthor | Lee, Won-Hyuk | - |
dc.contributor.googleauthor | Park, Sang-Soo | - |
dc.contributor.googleauthor | Chung, Ki-Seok | - |
dc.sector.campus | S | - |
dc.sector.daehak | COLLEGE OF ENGINEERING[S] | - |
dc.sector.department | DEPARTMENT OF ELECTRONIC ENGINEERING | - |
dc.identifier.pid | kchung | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.