350 0

Full metadata record

DC FieldValueLanguage
dc.contributor.advisor서지원-
dc.contributor.author최강-
dc.date.accessioned2021-02-24T16:01:41Z-
dc.date.available2021-02-24T16:01:41Z-
dc.date.issued2021. 2-
dc.identifier.urihttps://repository.hanyang.ac.kr/handle/20.500.11754/158941-
dc.identifier.urihttp://hanyang.dcollection.net/common/orgView/200000486137en_US
dc.description.abstract심층 신경망에서 Quantization은 입력 데이터와 가중치와 같이 연속된 실수로 표현된 값을 이산적인 정수로 근사하여 계산하는 기법이다. Quantization은 정수 형태로 근사를 하기 위해 정수형 구간을 정해 영점(Zero-Point)을 설정하고 스케일링(Scale)을 통해 진행하게 된다. 하지만 많은 입력 데이터에 대해 정확도를 유지하면서 영점과 스케일링을 찾기 위해 Fine-Tuning을 학습하게 되면 시간적인 비용이 많이 들게 된다. 본 논문에서는 Quantization을 하기 위해 요구되는 영점과 스케일을 찾기 위해 Fine-Tuning 학습 시, 시간 대비 정확도의 Trade-Off를 분석하고 모델에 따른 이상적인 학습 수행량을 찾는 것에 목표가 있다.-
dc.publisher한양대학교-
dc.title심층신경망의 Quantization 학습에 대한 시간과 정확도의 Trade-Off 분석 및 최소 학습량 도출-
dc.title.alternativeTime and Accuracy Trade-Off Analysis and Minimum Learning Amount for Deep Neural Network Quantization Learning-
dc.typeTheses-
dc.contributor.googleauthor최강-
dc.contributor.alternativeauthorKang Choi-
dc.sector.campusS-
dc.sector.daehak대학원-
dc.sector.department컴퓨터·소프트웨어학과-
dc.description.degreeMaster-
Appears in Collections:
GRADUATE SCHOOL[S](대학원) > COMPUTER SCIENCE(컴퓨터·소프트웨어학과) > Theses (Master)
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

BROWSE