243 310

어텐션 알고리듬 기반 양방향성 LSTM을 이용한 동영상의 압축 표준 예측

Title
어텐션 알고리듬 기반 양방향성 LSTM을 이용한 동영상의 압축 표준 예측
Other Titles
Video Compression Standard Prediction using Attention-based Bidirectional LSTM
Author
정제창
Keywords
Deep Learning; Attention algorithm; LSTM; NLP; Codec
Issue Date
2019-09
Publisher
한국방송∙미디어공학회
Citation
방송공학회 논문지, v. 24, no. 5, Page. 870-878
Abstract
본 논문에서는 어텐션 알고리듬 (attention algorithm) 기반의 양방향성 LSTM (bidirectional long short-term memory; BLSTM) 을 동영상의 압축 표준을 예측하기 위해 사용한다. 자연어 처리 (natural language processing; NLP) 분야에서 순환적 신경망 (recurrent neural networks; RNN) 의 구조를 이용하여 문장의 다음 단어를 예측하거나 의미에 따라 문장을 분류하거나 번역하는 연구들은 계속 되어왔고, 이는 챗봇, 음성인식 스피커, 번역 애플리케이션 등으로 상용화되었다. LSTM 은 RNN에서 gradient vanishing problem 을 해결하고자 고안됐고, NLP 분야에서 유용하게 사용되고 있다. 제안한 알고리듬은 BLSTM과 특정 단어에 집중하여 분류할 수 있는 어텐션 알고리듬을 자연어 문장이 아닌 동영상의 비트스트림에 적용해 동영상의 압축 표준을 예측하는 것이 가능하다. In this paper, we propose an Attention-based BLSTM for predicting the video compression standard of a video. Recently, in NLP, many researches have been studied to predict the next word of sentences, classify and translate sentences by their semantics using the structure of RNN, and they were commercialized as chatbots, AI speakers and translator applications, etc. LSTM is designed to solve the gradient vanishing problem in RNN, and is used in NLP. The proposed algorithm makes video compression standard prediction possible by applying BLSTM and Attention algorithm which focuses on the most important word in a sentence to a bitstream of a video, not an sentence of a natural language.
URI
http://koreascience.or.kr/article/JAKO201929860938559.pagehttps://repository.hanyang.ac.kr/handle/20.500.11754/154031
ISSN
1226-7953; 2287-9137
DOI
10.5909/JBE.2019.24.5.870
Appears in Collections:
COLLEGE OF ENGINEERING[S](공과대학) > ELECTRONIC ENGINEERING(융합전자공학부) > Articles
Files in This Item:
어텐션 알고리듬 기반 양방향성 LSTM을 이용한 동영상의 압축 표준 예측.pdfDownload
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

BROWSE