다시점 이미지를 기반으로 생성된 3차원 모델의 텍스쳐 생성은 모델을 분할하여 텍스쳐 맵 생성 후 다시점 이미지로부터 텍스쳐 획득하여 저장하는 과정으로 수행된다. 하지만 텍스쳐 맵 생성 과정에서 생성된 2차원 조각의 자기 겹침, 텍스쳐를 저장할 공간의 협소로 인해 생성하여 매핑한 텍스쳐가 블러되보이는 현상 및 텍스쳐 조각들 간 이음새 부분이 매핑되지 않는 문제가 발생한다. 본 논문에서는 이미지 기반으로 생성된 3차원 모델에 대해 텍스쳐 맵 생성 과정 없이 ...
다시점 이미지를 기반으로 생성된 3차원 모델의 텍스쳐 생성은 모델을 분할하여 텍스쳐 맵 생성 후 다시점 이미지로부터 텍스쳐 획득하여 저장하는 과정으로 수행된다. 하지만 텍스쳐 맵 생성 과정에서 생성된 2차원 조각의 자기 겹침, 텍스쳐를 저장할 공간의 협소로 인해 생성하여 매핑한 텍스쳐가 블러되보이는 현상 및 텍스쳐 조각들 간 이음새 부분이 매핑되지 않는 문제가 발생한다. 본 논문에서는 이미지 기반으로 생성된 3차원 모델에 대해 텍스쳐 맵 생성 과정 없이 GPU 기반에서 다시점 이미지로부터 텍스쳐를 획득하여 매핑하였다. 또한 가려진 면에 대한 텍스쳐 매핑을 수행하기 위해 각 카메라의 내부 및 외부 파라미터로부터 계산된 모델-뷰, 원근투영, 뷰포트 변환을 3차원 모델에 대해 수행하여 계산한 깊이 값을 깊이 맵으로 생성하여 사용하였다. 이후 GPU 프래그먼트셰이더 정점의 깊이 값과 각 이미지에 해당하는 깊이 맵에 저장되어 있는 깊이 값을 비교하여 가려진 면을 판별한 후 선택된 이미지로부터 텍스쳐를 획득하여 매핑하였다. 기존 연구에서는 3차원 모델에 텍스쳐 매핑을 위해 텍스쳐 맵 생성 후 텍스쳐 생성 과정을 매핑 전에 수행하였으나 본 논문에서는 매 프레임별 GPU 내에서 텍스쳐 매핑을 위한 계산이 수행되어 많은 연산을 필요로 한다. 하지만, 본 논문에서 사용한 실험 환경에서는 약 60 FPS로 매핑을 수행하여 실시간으로 수행 가능함을 확인하였으며 또한 출력될 픽셀에 대한 정보를 기반으로 텍스쳐를 획득하여 매핑하였기 때문에 기존의 텍스쳐 맵 생성과 관련된 문제에 대해서는 발생하지 않았다.
다시점 이미지를 기반으로 생성된 3차원 모델의 텍스쳐 생성은 모델을 분할하여 텍스쳐 맵 생성 후 다시점 이미지로부터 텍스쳐 획득하여 저장하는 과정으로 수행된다. 하지만 텍스쳐 맵 생성 과정에서 생성된 2차원 조각의 자기 겹침, 텍스쳐를 저장할 공간의 협소로 인해 생성하여 매핑한 텍스쳐가 블러되보이는 현상 및 텍스쳐 조각들 간 이음새 부분이 매핑되지 않는 문제가 발생한다. 본 논문에서는 이미지 기반으로 생성된 3차원 모델에 대해 텍스쳐 맵 생성 과정 없이 GPU 기반에서 다시점 이미지로부터 텍스쳐를 획득하여 매핑하였다. 또한 가려진 면에 대한 텍스쳐 매핑을 수행하기 위해 각 카메라의 내부 및 외부 파라미터로부터 계산된 모델-뷰, 원근투영, 뷰포트 변환을 3차원 모델에 대해 수행하여 계산한 깊이 값을 깊이 맵으로 생성하여 사용하였다. 이후 GPU 프래그먼트 셰이더 정점의 깊이 값과 각 이미지에 해당하는 깊이 맵에 저장되어 있는 깊이 값을 비교하여 가려진 면을 판별한 후 선택된 이미지로부터 텍스쳐를 획득하여 매핑하였다. 기존 연구에서는 3차원 모델에 텍스쳐 매핑을 위해 텍스쳐 맵 생성 후 텍스쳐 생성 과정을 매핑 전에 수행하였으나 본 논문에서는 매 프레임별 GPU 내에서 텍스쳐 매핑을 위한 계산이 수행되어 많은 연산을 필요로 한다. 하지만, 본 논문에서 사용한 실험 환경에서는 약 60 FPS로 매핑을 수행하여 실시간으로 수행 가능함을 확인하였으며 또한 출력될 픽셀에 대한 정보를 기반으로 텍스쳐를 획득하여 매핑하였기 때문에 기존의 텍스쳐 맵 생성과 관련된 문제에 대해서는 발생하지 않았다.
Creating the texture for 3D model generated from multi-view images is performed first generation of the texture map after segmentation of the model, get the texture from multi-view images and store to the texture map. However, the texture piece generated at the process of creating texture map has se...
Creating the texture for 3D model generated from multi-view images is performed first generation of the texture map after segmentation of the model, get the texture from multi-view images and store to the texture map. However, the texture piece generated at the process of creating texture map has self-intersection, narrowness of the space for storing texture, blurred texture mapping result and not be mapped texture seam area issues. This thesis performs getting texture from multi-view images and mapping on the 3D model generated from multi-view images on the GPU except generation of texture map. Also the occlusion surface in order to perform texture mapping is calculated using depth map. To create depth map, it needs model-view, perspective projection, viewport transformation value that can be calculated from each camera's intrinsic and extrinsic parameter performed on the 3D model. After that, a comparison depth between GPU fragment shader's vertex and depth map value performs to determine the selected texture will be mapped to the model. Previous studies are usually making the texture map after generation of the texture, but this method performs texture mapping calculation in each frame on the GPU fragment shader. Despite of many calculation, the experimental environment used in this thesis shows about 60 FPS in real-time performing texture mapping. Also it is performed at each pixel on the GPU fragment shader, does not have issues related to texture map.
Creating the texture for 3D model generated from multi-view images is performed first generation of the texture map after segmentation of the model, get the texture from multi-view images and store to the texture map. However, the texture piece generated at the process of creating texture map has self-intersection, narrowness of the space for storing texture, blurred texture mapping result and not be mapped texture seam area issues. This thesis performs getting texture from multi-view images and mapping on the 3D model generated from multi-view images on the GPU except generation of texture map. Also the occlusion surface in order to perform texture mapping is calculated using depth map. To create depth map, it needs model-view, perspective projection, viewport transformation value that can be calculated from each camera's intrinsic and extrinsic parameter performed on the 3D model. After that, a comparison depth between GPU fragment shader's vertex and depth map value performs to determine the selected texture will be mapped to the model. Previous studies are usually making the texture map after generation of the texture, but this method performs texture mapping calculation in each frame on the GPU fragment shader. Despite of many calculation, the experimental environment used in this thesis shows about 60 FPS in real-time performing texture mapping. Also it is performed at each pixel on the GPU fragment shader, does not have issues related to texture map.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.