최근 영상 분류(Image classification), 객체 탐지(Object detection), 의미론적 분할(Semantic segmentation) 등 다양한 컴퓨터 비전 기술에 심층 신경망 기법이 사용되고 있고 이러한 심층 신경망을 활용한 서비스들이 다수 제공되고 있어서 이를 오작동 시킬 수 있는 기술에 대한 중요성이 높아지고 있다. 심층 신경망을 활용한 기법들은 인간과는 다른 판단 기준을 가지고 있으므로 인간이 분류할 때에는 높은 신뢰도를 가지고 분류하는 데이터도 심층 신경망은 틀리게 분류할 수 있다. 본 논문에서는 초해상화(Super resolution) 신경망을 활용하여 기존의 적대적 공격 방법과 비교하여 공격 성공률과 수행 시간의 상충 관계(Trade-off)를 적절히 고려하면서도 인간이 봤을 때 이질감을 느끼지 않을 적대적 사례 생성 방법을 제안한다.|Recently, deep neural network techniques have been used in various computer vision technologies such as image classification, object detection, and semantic segmentation. Many services using deep neural networks are being provided, and the importance of technologies that can misclassify them is increasing. Techniques using deep neural networks have different judgment criteria than humans, so when humans classify data, even data classified with high reliability can be classified incorrectly by deep neural networks. In this paper, we propose a adversarial attack method using super resolution neural networks. Compared with the existing adversarial attack method, this method properly considers the trade-off between the attack success rate and the execution time, and creates adversarial examples in which humans will not feel a sense of heterogeneity.