[국내논문]오브젝트 VR 기반 2.5D 가상 직물 착의 시스템 : 시점 벡터 추정 및 직물 텍스쳐 매핑 Object VR-based 2.5D Virtual Textile Wearing System : Viewpoint Vector Estimation and Textile Texture Mapping원문보기
본 논문은 사용자로 하여금 가상 착의 객체를 360도의 시점에서 관측할 수 있도록 한 새로운 기술로서, 시점 벡터 추정과 직물 텍스쳐 매핑을 이용한 오브젝트 VR 기반 2.5D 가상 직물 착의 시스템에 관한 것이다. 제안된 시스템은 오브젝트 VR 용도의 다시점 2D 의류 모델 영상들에서 의류 형상 영역을 분할하여 사용자가 선택한 새로운 직물 패턴을 가상적으로 착용시킨 후, 이러한 가상 착의 상태를 360도의 시점에서 입체적으로 볼 수 있는 것이 특징이다. 제안된 시스템은 모델 의류의 컬러나 명도에 관계없이, 선택된 의류 형상 영역의 음영 및 조명 특성을 유지하면서 직물 패턴을 가상적으로 변경시킬 수 있고, 직물 패턴의 가상 착의 상태를 360도의 시점에서 입체적으로 관측할 수 있다. 또한 각기 다른 스타일 혹은 전체적인 차림새를 위한 다양한 직물 패턴 조합을 신속하고 용이하게 시뮬레이션하고 비교 선택할 수 있다. 제안된 시스템은 다양한 디지털 환경에서 실시간 처리가 가능하고 비교적 자연스럽고 입체적인 2.5D 가상 착의 스타일을 제공할 뿐만 아니라 수작업을 최소한으로 줄인 반자동화 처리가 가능하기 때문에 높은 실용성과 편리한 사용자 인터페이스를 제공할 수 있다. 제안된 시스템에 따르면, 실제 의복을 제작하지 않고도 직물 패턴 디자인이 의복의 외관에 미치는 영향을 360도의 시점에서 시뮬레이션할 수 있으므로 직물 디자이너의 창작활동을 도와줄 수 있고, 또한 구매자의 의사결정을 지원해 B2B 또는 B2C 전자상거래 행위를 촉진할 수 있다.
본 논문은 사용자로 하여금 가상 착의 객체를 360도의 시점에서 관측할 수 있도록 한 새로운 기술로서, 시점 벡터 추정과 직물 텍스쳐 매핑을 이용한 오브젝트 VR 기반 2.5D 가상 직물 착의 시스템에 관한 것이다. 제안된 시스템은 오브젝트 VR 용도의 다시점 2D 의류 모델 영상들에서 의류 형상 영역을 분할하여 사용자가 선택한 새로운 직물 패턴을 가상적으로 착용시킨 후, 이러한 가상 착의 상태를 360도의 시점에서 입체적으로 볼 수 있는 것이 특징이다. 제안된 시스템은 모델 의류의 컬러나 명도에 관계없이, 선택된 의류 형상 영역의 음영 및 조명 특성을 유지하면서 직물 패턴을 가상적으로 변경시킬 수 있고, 직물 패턴의 가상 착의 상태를 360도의 시점에서 입체적으로 관측할 수 있다. 또한 각기 다른 스타일 혹은 전체적인 차림새를 위한 다양한 직물 패턴 조합을 신속하고 용이하게 시뮬레이션하고 비교 선택할 수 있다. 제안된 시스템은 다양한 디지털 환경에서 실시간 처리가 가능하고 비교적 자연스럽고 입체적인 2.5D 가상 착의 스타일을 제공할 뿐만 아니라 수작업을 최소한으로 줄인 반자동화 처리가 가능하기 때문에 높은 실용성과 편리한 사용자 인터페이스를 제공할 수 있다. 제안된 시스템에 따르면, 실제 의복을 제작하지 않고도 직물 패턴 디자인이 의복의 외관에 미치는 영향을 360도의 시점에서 시뮬레이션할 수 있으므로 직물 디자이너의 창작활동을 도와줄 수 있고, 또한 구매자의 의사결정을 지원해 B2B 또는 B2C 전자상거래 행위를 촉진할 수 있다.
This paper is related to a new technology allowing a user to have a 360 degree viewpoint of the virtual wearing object, and to an object VR(Virtual Reality)-based 2D virtual textile wearing system using viewpoint vector estimation and textile texture mapping. The proposed system is characterized as ...
This paper is related to a new technology allowing a user to have a 360 degree viewpoint of the virtual wearing object, and to an object VR(Virtual Reality)-based 2D virtual textile wearing system using viewpoint vector estimation and textile texture mapping. The proposed system is characterized as capable of virtually wearing a new textile pattern selected by the user to the clothing shape section segmented from multiview 2D images of clothes model for object VR, and three-dimensionally viewing its virtual wearing appearance at a 360 degree viewpoint of the object. Regardless of color or intensity of model clothes, the proposed system is possible to virtually change the textile pattern with holding the illumination and shading properties of the selected clothing shape section, and also to quickly and easily simulate, compare, and select multiple textile pattern combinations for individual styles or entire outfits. The proposed system can provide higher practicality and easy-to-use interface, as it makes real-time processing possible in various digital environment, and creates comparatively natural and realistic virtual wearing styles, and also makes semi -automatic processing possible to reduce the manual works to a minimum. According to the proposed system, it can motivate the creative activity of the designers with simulation results on the effect of textile pattern design on the appearance of clothes without manufacturing physical clothes and, as it can help the purchasers for decision-making with them, promote B2B or B2C e-commerce.
This paper is related to a new technology allowing a user to have a 360 degree viewpoint of the virtual wearing object, and to an object VR(Virtual Reality)-based 2D virtual textile wearing system using viewpoint vector estimation and textile texture mapping. The proposed system is characterized as capable of virtually wearing a new textile pattern selected by the user to the clothing shape section segmented from multiview 2D images of clothes model for object VR, and three-dimensionally viewing its virtual wearing appearance at a 360 degree viewpoint of the object. Regardless of color or intensity of model clothes, the proposed system is possible to virtually change the textile pattern with holding the illumination and shading properties of the selected clothing shape section, and also to quickly and easily simulate, compare, and select multiple textile pattern combinations for individual styles or entire outfits. The proposed system can provide higher practicality and easy-to-use interface, as it makes real-time processing possible in various digital environment, and creates comparatively natural and realistic virtual wearing styles, and also makes semi -automatic processing possible to reduce the manual works to a minimum. According to the proposed system, it can motivate the creative activity of the designers with simulation results on the effect of textile pattern design on the appearance of clothes without manufacturing physical clothes and, as it can help the purchasers for decision-making with them, promote B2B or B2C e-commerce.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
이에 따라 본 논문은 이러한 문제를 해결하기 위한 것으로, 시점 벡터 추정(viewpoint vector estimation)과 직물 텍스쳐 매핑(textile texture mapping)을 이용한 오브젝트 VR(Object Virtual Reality) 기반 2.5D 가상 직물 착의 시스템을 제안함에 그 목적이 있다.
이를 통해 패션 디자인 산업 분야에서 시행착오를 줄여 자재, 경비, 인력, 시간과 노력을 줄여주는 새로운 디자인 개념과 절차를 창출함에 기여하고자 한다. 또한 관련 산업의 상거래 행위를 촉진함과 동시에 소비자 중심의 의류 주문.
생산.소비문화를 활성화시키고자 한다.
그러나 본 논문의 다음 시점 영상은 현 시점 영상으로부터 싱글 로우로 20도 회전시켜 촬영한 것이기 때문에 현 시점 영상에 대해 단순 이동된 영상으로 가정하는 근사화를 통해 연산의 고속화를 도모하고자 한다. 이러한 근사화에 따르면 식 (1)은 m0 =m4 = ms=^< ei = ^3 = m6 = m7 = 0 이 되어 계산이 매우 간단해진다.
제안 방법
제안된 시스템은 오브젝트 VR 용도의 다시점 2D 의류 모델 영상 시퀀스에서 의류 형상 영역을 분할하여 사용자가 선택한 새로운 직물 패턴을 가상적으로 착용시킨 후, 이러한 가상 착의 상태를 360도의 시점에서 입체적으로 볼 수 있는 것이 특징이다. 특히, 제안된 시스템은 다시점 의류 모델 영상 시퀀스에서 인접한 시점 영상들 간의 시점 벡터를 추정하고, 이 시점 벡터만큼 직물 패턴의 중심을 이동시켜서 직물 텍스쳐 매핑을 수행함으로써 시점이 변해도 매핑된 직물 무늬의 연속성을 유지할 수 있고 해당 시점에 상응하는 패턴의 위치 정합성을 제공할 수 있다.
5D 가상 직물 착의시스템의 적용 사례를 예시한 것이다. 제안된 시스템은 완성된 의류를 착용하거나 전시한 상태를 담고 있는 오브젝트 VR 용도의 다시점 2D 의류 모델 영상에서 원하는 의류 형상 영역을 분할한다. 이후, 의류 특징 정합을 통해 각 의류 모델 영상들 간의 시점 벡터를 추정한다.
이후, 의류 특징 정합을 통해 각 의류 모델 영상들 간의 시점 벡터를 추정한다. 다음으로, 의류 형상 영역의 명도 성분에 대한 평균 명도값을 계산한 후, 의류 형상 영역에 포함된 각 화소의 명도값에서 평균 명도 값을 감산하여 명도 차분 맵(intensity difference map)을 산출함으로써 의류 형상 영역의 음영 및 조명 특성을 추출한다. 이후, 사용자 입력이나 시스템 입력을 통해 의류 모델 영상의 의류 형상 영역에 가상적으로 착용시키고 싶은 직물의 패턴이나 색이 선택되면, 다시점 의류 모델 영상 시퀀스를 대상으로 시점 벡터와 명도 차분 맵을 이용한 직물 텍스쳐 매핑을 수행함으로써 디지털 직물 원단의 착의상태를 360도의 시점에서 입체적으로 볼 수 있다.
5D 가상 직물 착의 시스템의 개략적인 순서도를 나타낸 것이다. 제안된 시스템은 그림 2에 나타낸 바와 같이 크게 다시점 의류 모델 영상 입력 단계 , '의류 형상 분할 단계 , '시점 벡터 추정 단계 , 명도 차분 맵 산출 단계 , '직물텍스쳐 매핑 단계 및 다시점 가상 착의 영상 출력 단계 의 6 단계로 구성되어 있다.
의류 모델 영상의 의류 영역 상에 위치한 임의의 표본 영역을 직사각형 형태로 사용자 입력을 통해 지정하면, 의류 모델 영상의 윤곽선 정보를 유지하면서 각 컬러 영상의 화소값 분포를 단순화시키기 위해 의류 모델 영상의 R, G, B 성분을 대상으로 수리 형태학 연산 (mathematical morphological operation)의 일종인 복원 기반 개방-폐쇄 연산(open-close by reconstruction)[16]을 적용한다. 이후, 표본 영역의 각 컬러 성분별 표준편차를 계산한 후, 각 컬러 성분의 표준편차에 비례하는 범위로 결정된 바운딩 박스(bounding box)[l기를 이용하여 컬러 성분 값이 유사한 인접 화소를 병합하는 영역 성장(region growing) 을 통해 영상 분할을 수행한다.
영상 정합 문제는 凡sd 함수를 최소화시키는 파라미터 u를 찾는 것이 된다. 본 논문에서는 4X32 크기의 블록 정합을 수행하여 시점 벡터(m2, m”를 구한다. 블록 정합은 정합될 두 영상이 카메라 렌즈에 의한 변형이나 회전과 같이 단순 이동된 관계가 아닌 경우에 큰 오정 합이 발생할 수 있다.
다음으로, 명도 차분 맵에 소정의 반영 비율을 곱한 값 과 패턴이나 색의 명도 성분값' 을 대응되는 화소단위로 합산한다. 이후, 이 합산 결과값으로 의류 모델 영상 내 의류 형상 영역의 명도 성분값을 대체한다. 한편 의류 형상 영역 내 채도 성분값과 색상 성분값은 화소단위로 대응되는 상기 선택된 직물의 패턴이나 색의 채도 성분값과 색상 성분 값으로 대체함으로써 직물 텍스쳐 매핑[12]을 모두 완료한다.
우선, 의류 모델 영상을 HSI 컬러 모델로 변환하여 명도성분 영상 I(intensity)을 산출한다. 이후, 식 (3)과 같이 의류 모델 영상의 명도 성분 영상 S y) 에서 의류 형상 영역의 평균 명도값 4”를 계산한 후 의류 형상 영역에 포함된 각 화소의 명도값에서 평균 명도값 4皿 을 감산하여 명도차분 맵 1瞄3, y)을 산출한다.
이후 이 합산 결과값으로 의류 모델 영상 내 의류 형상 영역의 명도 성분값을 대체한다. 또한 의류 형상 영역 내 채도 성분값과 색상 성분값은 식⑹와 같이 각각 직물 컬러의 채도 성분값과 색상 성분값으로 대체함으로써 직물 컬러 매핑을 모두 수행한다.
16GHz(2GB RAM) 랩탑에서 Microsoft Visual C++.NET 2003을 사용하여 다양한 직물 패턴 영상과 다시 점 의류 모델 영상 시퀀스들을 대상으로 제안된 방식에 대한 컴퓨터 시뮬레이션을 수행하였다.
참고로, 그림 8~11은 제안된 시스템에 개발탑재된 오브젝트 VR 뷰어의 스크린샷 (screenshot)이다. 제안된 시스템에서는 직물 패턴의 크기를 그대로 이용할 수도 있으나 영상 스케일러를 이용하여 원하는 크기로 조절한 후에 가상적으로 착용시킬 수도 있다. 전체적으로 자연스럽고 사실적인 오브젝트 VR 기반의 가상 착의 결과를 얻을 수 있음을 알 수 있다.
본 논문에서는 시점 벡터 추정과 직물 텍스쳐 매핑을 이용한 오브젝트 VR 기반 2.5D 가상 직물 착의 시스템을 제안함으로써 사용자로 하여금 가상 착의 객체를 360도의 시점에서 관측할 수 있는 수단을 제공하였다. 제안된 시스템은 2D 가상 직물 착의 시스템의 사실적인 재질감 표현력과 경량화 특성, 그리고 3D 가상 직물 착의 시스템의 다시점 특성을 절충한 2.
5D 가상 직물 착의 시스템을 제안함으로써 사용자로 하여금 가상 착의 객체를 360도의 시점에서 관측할 수 있는 수단을 제공하였다. 제안된 시스템은 2D 가상 직물 착의 시스템의 사실적인 재질감 표현력과 경량화 특성, 그리고 3D 가상 직물 착의 시스템의 다시점 특성을 절충한 2.5D 유형의 새로운 가상 직물 착의 기술이다. 제안된 시스템은 모델 의류의 컬러나 명도에 관계없이, 선택된 의류 형상 영역의 음영 및 조명 특성을 유지하면서 직물 패턴을 가상적으로 변경시킬 수 있고, 직물 패턴의 가상 착의 상태를 360도의 시점에서 입체적으로 관측할 수 있다.
대상 데이터
각각 Red Jacket' 영상 시퀀스 및 Slack Skirt' 영상 시퀀스를 나타낸 것이다. 이 시퀀스들은 국산 VR 솔루션인 (주)인트빔(Intvim)의 ezVR Studio 5000 을 이용하여 턴테이블 상의 의류 모델을 싱글 로우로 20도씩 회전시키면서 360도 상의 각 시점에서 촬영한 것이다.
이론/모형
형상 영역을 분할한다. 의류 모델 영상의 의류 영역 상에 위치한 임의의 표본 영역을 직사각형 형태로 사용자 입력을 통해 지정하면, 의류 모델 영상의 윤곽선 정보를 유지하면서 각 컬러 영상의 화소값 분포를 단순화시키기 위해 의류 모델 영상의 R, G, B 성분을 대상으로 수리 형태학 연산 (mathematical morphological operation)의 일종인 복원 기반 개방-폐쇄 연산(open-close by reconstruction)[16]을 적용한다. 이후, 표본 영역의 각 컬러 성분별 표준편차를 계산한 후, 각 컬러 성분의 표준편차에 비례하는 범위로 결정된 바운딩 박스(bounding box)[l기를 이용하여 컬러 성분 값이 유사한 인접 화소를 병합하는 영역 성장(region growing) 을 통해 영상 분할을 수행한다.
모델 영상들 간의 시점 벡터를 추정한다. 이를 좀 더 상술하면, 의류 특징 영역을 찾기 위해 각 의류 형상 영역의 중심 주변의 블록들 중에서 분산이 가장 큰 블록을 구한 후 현 시점 영상과 다음 시점 영상 간에 이 블록을 이용한 블록 정합 알고리즘(block matching algorithm)을 수행하여 시점 벡터를 구한다.
성능/효과
5D 유형의 새로운 가상 직물 착의 기술이다. 제안된 시스템은 모델 의류의 컬러나 명도에 관계없이, 선택된 의류 형상 영역의 음영 및 조명 특성을 유지하면서 직물 패턴을 가상적으로 변경시킬 수 있고, 직물 패턴의 가상 착의 상태를 360도의 시점에서 입체적으로 관측할 수 있다. 또한 각기 다른 스타일 혹은 전체적인 차림새를 위한 다양한 직물 패턴 조합을 신속하고 용이하게 시뮬레이션하고 비교 선택할 수 있다.
제안된 시스템에서는 직물 패턴의 크기를 그대로 이용할 수도 있으나 영상 스케일러를 이용하여 원하는 크기로 조절한 후에 가상적으로 착용시킬 수도 있다. 전체적으로 자연스럽고 사실적인 오브젝트 VR 기반의 가상 착의 결과를 얻을 수 있음을 알 수 있다.
그렇지만 인터넷 의류 쇼핑몰, 전자 의류 카탈로그나 오라인 패션 잡지 등에서 사용하는 통상의 오브젝트 VR 기반 다시 점 의류 모델 영상의 경우, 비교적 양호한 조명 조건과 단순한 배경에서 촬영하는 것이 일반적이다. 따라서 사용자 입력을 부분적으로 사용하는 제안된 방법의 반자동 영상 분할 기법을 적절하게 적용하면 비교적 실용적이면서도 양호한 결과를 얻을 수 있었다. 일반적으로, 2D 영상은 3D 실세계의 장면을 2D 촬상 소자 평면에 광전변환을 통해 투영한 것이기 때문에 그 영상이 촬영된 당시의 3D 장면 속에 존재했었던 모든 시각 정보, 즉 객체와 배경의 3D 형상, 질감, 깊이, 거리, 촬영 시의 조명 조건 등과 같은 정보를 모두 담을 수가 없다.
일반적으로, 2D 영상은 3D 실세계의 장면을 2D 촬상 소자 평면에 광전변환을 통해 투영한 것이기 때문에 그 영상이 촬영된 당시의 3D 장면 속에 존재했었던 모든 시각 정보, 즉 객체와 배경의 3D 형상, 질감, 깊이, 거리, 촬영 시의 조명 조건 등과 같은 정보를 모두 담을 수가 없다. 하지만 제안된 명도 차분 맵을 통해 2D 영상에서 음영 및 조명 특성을 적절하게 정의하면 상실된 3D 음영 및 조명 정보를 부분적 또는 근사적으로 재현할 수 있었다.
특징이다. 특히, 제안된 시스템은 다시점 의류 모델 영상 시퀀스에서 인접한 시점 영상들 간의 시점 벡터를 추정하고, 이 시점 벡터만큼 직물 패턴의 중심을 이동시켜서 직물 텍스쳐 매핑을 수행함으로써 시점이 변해도 매핑된 직물 무늬의 연속성을 유지할 수 있고 해당 시점에 상응하는 패턴의 위치 정합성을 제공할 수 있다.
후속연구
또한 각기 다른 스타일 혹은 전체적인 차림새를 위한 다양한 직물 패턴 조합을 신속하고 용이하게 시뮬레이션하고 비교 선택할 수 있다. 제안된 시스템은 다양한 디지털 환경에서 실시간 처리가 가능하고 비교적 자연스럽고 입체적인 2.5D 가상 착의 스타일을 제공할 뿐만 아니라 수작업을 최소한으로 줄인 반자동화 처리가 가능하기 때문에 높은 실용성과 편리한 사용자 인터페이스를 제공할 수 있다. 실제 의복을 제작하지 않은 상태에서도 직물 원단의 디자인이 의복의 외관에 미치는 영향을 360도의 시점에서 시뮬레이션할 수 있음에 따라 직물 디자이너의 창작활동을 도와줄 수 있다.
제안된 시스템을 응용하여 온라인 직물 디자인 반응 조사, 가상 의류 전시, 가상 자동차 도장 디자인, 가상 상품 포장 디자인, 가상 벽지 디자인 분야 등에 적합한 기술을 조기에 개발하여 접목할 수도 있다. 더 나아가 가상 착의 시뮬레이션, 의류 상품 전자 카탈로그, 가상 의류 전시회, 디지털 특수효과, 컴퓨터 게임, 캐릭터 디자인, 2D/3D 가상 사이버 패션쇼, 사이버 캐릭터 생성, 2D/3D 애니메이션의 저작, DTV 콘텐츠 저작, 사용자 친화형 아이콘 제작, 가상 완구 디자인 등과 같은 연구 주제들과 기술적인 결합이나 확장을 도모할 수 있을 것으로 예견된다.
개발하여 접목할 수도 있다. 더 나아가 가상 착의 시뮬레이션, 의류 상품 전자 카탈로그, 가상 의류 전시회, 디지털 특수효과, 컴퓨터 게임, 캐릭터 디자인, 2D/3D 가상 사이버 패션쇼, 사이버 캐릭터 생성, 2D/3D 애니메이션의 저작, DTV 콘텐츠 저작, 사용자 친화형 아이콘 제작, 가상 완구 디자인 등과 같은 연구 주제들과 기술적인 결합이나 확장을 도모할 수 있을 것으로 예견된다. 따라서 다양한 기술적 파급 효과와 산업상의 이용가능성을 창출할 수 있을 것으로 판단된다.
더 나아가 가상 착의 시뮬레이션, 의류 상품 전자 카탈로그, 가상 의류 전시회, 디지털 특수효과, 컴퓨터 게임, 캐릭터 디자인, 2D/3D 가상 사이버 패션쇼, 사이버 캐릭터 생성, 2D/3D 애니메이션의 저작, DTV 콘텐츠 저작, 사용자 친화형 아이콘 제작, 가상 완구 디자인 등과 같은 연구 주제들과 기술적인 결합이나 확장을 도모할 수 있을 것으로 예견된다. 따라서 다양한 기술적 파급 효과와 산업상의 이용가능성을 창출할 수 있을 것으로 판단된다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.