Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | 이윤상 | - |
dc.date.accessioned | 2022-05-10T02:43:30Z | - |
dc.date.available | 2022-05-10T02:43:30Z | - |
dc.date.issued | 2020-09 | - |
dc.identifier.citation | 한국컴퓨터그래픽스학회논문지, v. 26, no. 4, page. 1-8 | en_US |
dc.identifier.issn | 2383-529X | - |
dc.identifier.issn | 1975-7883 | - |
dc.identifier.uri | https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART002623977 | - |
dc.identifier.uri | https://repository.hanyang.ac.kr/handle/20.500.11754/170718 | - |
dc.description.abstract | 캐릭터로 하여금 시뮬레이션 내에서 사용자가 원하는 동작을 보이도록 물리 기반 제어기를 만들 수 있다면 주변 환경의 변화와 다른 캐릭터와의 상호작용에 대하여 자연스러운 반응을 보이는 캐릭터 애니메이션을 생성할 수 있다. 최근 심층 강화학습을 이용해 물리 기반 제어기가 더 안정적이고 다양한 동작을 합성하도록 하는 연구가 다수 이루어져 왔다. 본 논문에서는 다리가 하나 달린 픽사 애니메이션 스튜디오의 마스코트 캐릭터 Luxo를 주어진 목적지까지 뛰어 도착하게 하는 심층강화학습 모델을 제시한다. 효율적으로 뛰는 동작을 학습하도록 하기 위해서 Luxo의 각 관절의 각도값들을 선형 보간법으로생성하여 참조 모션을 만들었으며, 캐릭터는 이를 모방하면서 균형을 유지하여 목표한 위치까지 도달하도록 하는 제어 정책(control policy)을 학습한다. 참조 동작을 사용하지 않고 Luxo 동작을 제어하도록 학습된 정책과 비교한 실험 결과, 제안된방법을 사용하면 사용자가 지정한 위치로 Luxo가 점프하며 이동하는 정책을 더 효율적으로 학습할 수 있었다. Motion synthesis using physics-based controllers can generate a character animation that interacts naturally with the given environment and other characters. Recently, various methods using deep neural networks have improved the quality of motions generated by physics-based controllers. In this paper, we present a control policy learned by deep reinforcement learning (DRL) that enables Luxo, the mascot character of Pixar animation studio, to run towards a random goal location while imitating a reference motion and maintaining its balance. Instead of directly training our DRL network to make Luxo reach a goal location, we use a reference motion that is generated to keep Luxo animation’s jumping style. The reference motion is generated by linearly interpolating predetermined poses, which are defined with Luxo character’s each joint angle. By applying our method, we could confirm a better Luxo policy compared to the one without any reference motions. | en_US |
dc.description.sponsorship | 연구는 과학기술정보통신부 및 정보통신기획평가원의 SW중심대학지원사업의 연구결과로 수행되었으며 (2016-0-00023), 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구이며 (No. 2019R1C1C1006778, NRF2019R1A4A1029800), 과학기술정보통신부 및 정보통신산업진흥원의 ‘고성능 컴퓨팅 지원’ 사업으로부터 지원받아 수행하 였음. | en_US |
dc.language.iso | ko_KR | en_US |
dc.publisher | (사)한국컴퓨터그래픽스학회 | en_US |
dc.subject | 물리 기반 캐릭터 제어 | en_US |
dc.subject | 심층 강화 학습 | en_US |
dc.subject | Luxo | en_US |
dc.subject | Physics-based character control | en_US |
dc.subject | Deep Reinforcement Learning | en_US |
dc.title | 심층 강화 학습을 이용한 Luxo 캐릭터의 제어 | en_US |
dc.title.alternative | Luxo character control using deep reinforcement learning | en_US |
dc.type | Article | en_US |
dc.relation.no | 4 | - |
dc.relation.volume | 26 | - |
dc.identifier.doi | 10.15701/kcgs.2020.26.4.1 | - |
dc.relation.page | 1-8 | - |
dc.relation.journal | 한국컴퓨터그래픽스학회논문지 | - |
dc.contributor.googleauthor | 이정민 | - |
dc.contributor.googleauthor | 이윤상 | - |
dc.contributor.googleauthor | Lee, Jeongmin | - |
dc.contributor.googleauthor | Lee, Yoonsang | - |
dc.relation.code | 2020040808 | - |
dc.sector.campus | S | - |
dc.sector.daehak | COLLEGE OF ENGINEERING[S] | - |
dc.sector.department | SCHOOL OF COMPUTER SCIENCE | - |
dc.identifier.pid | yoonsanglee | - |
dc.identifier.orcid | https://orcid.org/0000-0002-0579-5987 | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.