Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | 박태준 | - |
dc.contributor.author | 김민서 | - |
dc.date.accessioned | 2021-02-24T16:26:46Z | - |
dc.date.available | 2021-02-24T16:26:46Z | - |
dc.date.issued | 2021. 2 | - |
dc.identifier.uri | https://repository.hanyang.ac.kr/handle/20.500.11754/159471 | - |
dc.identifier.uri | http://hanyang.dcollection.net/common/orgView/200000486183 | en_US |
dc.description.abstract | 용접 접합기술은 다양한 산업 분야에서 기초적 필수기술이다. 산업이 발전하며 용 접 기술에 대한 수요가 계속 증가하고 있다. 하지만, 용접작업 중 감전, 화재, 가스중 독, 화상 사고를 유발할 수 있는 높은 위험성을 가지고 있어 기피되고 있기 때문에 기술의 공급이 부족하다. 공급 부족의 대안으로 용접로봇이 사용되며, 수요가 빠르게 증가하고 있으며, 용접로봇의 자동화에 관한 많은 연구가 진행되고 있다. 다양한 센서 를 사용한 기존의 자동 용접로봇은 용접을 진행하기 위해 작업자의 교시가 필요하며, 기존 센서의 특징으로 평면용접에 제한되어 적용 가능한 한계점을 가지고 있다. 본 논문에서 제안하는 심층학습기반 경로검출 시스템은 작업자가 용접선 근처까지 교시 하는 작업을 없애고 자동으로 용접작업을 수행하는 방법과 다양한 용접물을 RGB-D 카메라로 분석하여 곡면용접을 자동화 하는 방법을 제안한다. 심층학습기반 용접경로 검출 시스템은 용접영역 검출, 용접선 추출, 용접경로 변환, 기준 좌표계 변환, 로봇의 Tool Center Point의 자세 보정을 순차적으로 진행하여 로 봇을 기준으로 용접경로를 계산하는 것이 가능하다. 용접영역 검출 단계에서는 논문 에서 제안하는 신경망 모델 “U-Net+CT+BN”을 사용하여 영역을 검출한다. 용접선은 용접영역으로부터 “A Fast Parallel Algorithm”을 사용하여 추출한다, 용접경로는 RGB-D 카메라의 깊이 정보와 용접선 좌표를 정합하여 변환한다. 기준 좌표계 변환 에서는 “Homogeneous Transformation”을 사용하여 카메라의 좌표계에서 로봇의 좌 표계로 변환한다. 곡면용접을 수행하기 위해 용접기의 토치가 용접면과 수직에 가까 워야 하므로 용접경로의 좌표를 사용하여 용접면에서 TCP의 각도를 찾는다. 모든 과 정이 끝나면 로봇 기준의 용접경로를 생성 할 수 있다. 제안한 시스템의 성능을 알아보기 위해 네 가지 신경망 모델을 “Dice Loss”를 기준 으로 5-Fold 교차검증을 통해 비교를 수행한다. 또한, “U-Net+CT+BN”모델을 기반으 로 100㎜, 150㎜의 스테인리스 파이프에 용접을 진행하여 0.02 ~ 1.12㎜ 사이의 오차 를 포함하지만, 중앙선을 따라 용접을 진행한 것을 확인 할 수 있다. | - |
dc.publisher | 한양대학교 | - |
dc.title | 용접로봇 자동화를 위한 심층학습 기반 경로 검출 시스템 | - |
dc.title.alternative | Deep learning-based path detection system for automated welding robot | - |
dc.type | Theses | - |
dc.contributor.googleauthor | 김민서 | - |
dc.contributor.alternativeauthor | Kim, Min Seo | - |
dc.sector.campus | S | - |
dc.sector.daehak | 대학원 | - |
dc.sector.department | 메카트로닉스공학과 | - |
dc.description.degree | Master | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.