본 논문에서는 3 차원 실사 객체를 사용자의 상호작용을 통해 변형시키는 프레임워크를 제안한다. RGB-Depth 카메라로 다각도에서 객체를 촬영하여 3 차원 좌표 및 색상정보를 획득하고 각 영상에서의 3 차원 좌표들을 이용하여 카메라 포즈를 계산한다. 계산한 카메라 포즈와 획득한 3 차원 좌표 및 색상정보를 이용하여 객체의 3 차원 정보를 복원한 후 복원된 객체에 대해 메쉬(Mesh)를 생성한다. 이렇게 실사 객체의 3 차원 정보를 메쉬로 표현한 뒤, 사용자의 상호작용을 통해 객체의 변형을 가하게 되면 메쉬를 변형하여 렌더링 함으로써 사용자가 원하는 모습으로 실사 객체를 변형시킬 수 있다.