최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국멀티미디어학회지, v.20 no.4, 2016년, pp.24 - 36
박한훈 (부경대학교 전자공학과) , 박종일 (한양대학교 컴퓨터공학부)
초록이 없습니다.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
비전 기반 객체 인식 및 추적을 위해선 어떤 기술이 필요한가? | 이를 위해 카메라(비전 센서), 가속도 센서, GPS, 자이로스코프, RFID 등의 다양한 센서를 활용할 수 있으나, 본고에서는 카메라를 이용하는 비전 기반 기술을 중심으로 논한다. 비전 기반 객체 인식 및 추적을 위해서는 카메라 투영(projection) 행렬 계산, 영상 특징(image feature) 검출(detection)/서술(description)/매칭(matching), 3차원 모델링과 같은 요소 기술을 필요로 한다. | |
텍스처 기반 인식/추적 기법은 어떤 장점을 지녔는가? | 텍스처 기반 방법은 관심 객체의 3차원 모델이 텍스처 정보를 가져야 하며, 일반적으로 특징 검출/서술 방법을 활용한다. 3차원 모델과 카메라 영상으로부터 특징을 검출하고 서술하여 대응 관계를 구함으로써 각 특징에 대해 3차원-2차원 대응 쌍을 획득할 수 있고, 이로부터 PnP(Perspective-n-point) 방법을 통해 카메라 포즈를 계산할 수 있다[11]. 관심 객체가 2차원 평면일 경우 3차원 모델 정보를 필요로 하지 않으며, 임의 시점에서의 카메라 영상을 참조 영상(Z w가 0인 3차원 모델로 볼 수 있음)으로 하여 현재 시점에서의 카메라 영상과의 특징 대응 쌍을 획득한 후, 호모그래피(homography) 관계를 이용하여 보다 간단하면서도 정확하게 카메라 포즈를 계산할 수 있다[10] | |
증강현실이란 어떤 기술을 말하는가? | 증강현실은 기본적으로 현실세계에 가상의 정보나 콘텐츠를 자연스럽게 병치하여 인간의 감각과 인식을 확장시키는 실감미디어 기술이다. 증강현실은 가상현실과 달리 현실공간을 미디어로 활용하기 때문에 실감있는 가상세계 구성을 위한 3차원 모델링/렌더링의 부담을 줄인 반면, 사용자의 움직임이나 의도, 주변 환경 변화에 대응하여 가상 정보나 콘텐츠를 적응적으로 제공해야 하므로 새로운 기술적인 어려움을 해결해야 한다[4]. |
김경호, 장종찬, 한상철, "자동차 증강현실 기술 현황과 전망," KEIT PD ISSUE REPORT, 15-3, pp. 13-29, 2015년 3월.
http://www.pokemongo.com/
3D융합산업 기술 동향 분석, 경북대학교 3D 융합기술지원센터, 2015년 6월
E. Marchand, H. Uchiyama, and F. Spindler, "Pose estimation for augmented reality: a hands-on survey," IEEE Transactions on Visualization and Computer Graphics, doi:10.1109/TVCG.2015.2513408
R. Hartley and A. Zisserman, Multiple View Geometry, 2nd Ed., Cambridge University Press, 2003.
V. Lepetit, F. Moreno-Noguer, and P. Fua, "EPnP: An accurate O(n) solution to the PnP problem," IJCV, vol. 81, pp. 155-166, 2009.
Kinect, https://developer.microsoft.com/en-us/windows/kinect/
ARToolkit, https://www.hitl.washington.edu/artoolkit/
H. Park and J.-I. Park, "Invisible marker tracking for AR," Proc. of ISMAR, pp. 272-273, 2004.
3D scanning using structured lighting, http://mesh.brown.edu/byo3d/source.html
R. A. Newcombe, et al., "KinectFusion: Real-time dense surface mapping and tracking," Proc. of ISMAR, pp. 127-136, 2011.
D. P. Robertson and R. Cipolla, "Structure from motion," Practical Image Processing and Computer Vision, John Wiley, 2009.
G. Klein and D. Murray, "Parallel tracking and mapping for small AR workspaces," Proc. of ISMAR, 2007.
S. Hinterstoisser, V. Lepetit, S. Ilic, P. Fua, and N. Navab, "Dominant orientation templates for real-time detection of texture-less objects," Proc. of CVPR, 2010.
C. Harris and M. Stephens, "A combined corner and edge detector," Proc. of Alvey Vision Conference, pp. 147-151, 1988.
D. G. Lowe, "Distinctive image features from scale-invariant keypoints," IJCV, vol. 60, issue 2, pp. 91-110, 2004.
H. Bay, T. Tuytelaars, and L. V. Gool, "SURF: Speeded up robust features," Proc. of ECCV, 2006.
E. Rosten and T. Drummond, "Machine learning for high-speed corner detection," Proc. of ECCV, 2006.
S. Leutenegger, M. Chli, and R. Y. Siegwart, "BRISK: Binary robust invariant scalable keypoints," Proc. of ICCV, 2011.
M. Ozuysal, M. Calonder, V. Lepetit, and P. Fua, "Fast keypoint recognition using random ferns," IEEE Trans. on PAMI, vol. 32, no. 3, pp. 448-461, 2010.
S. Taylor, E. Rosten, and T. Drummond, "Robust feature matching in 2.3us," Proc. of CVPRW, pp. 15-22, 2009.
T. Nakai, K. Kise, and M. Iwamura, "Use of affine invariants in locally likely arrangement hashing for camera-based document image retrieval", LNCS 3872, pp. 541-552, 2006.
OpenCV, http://opencv.org
A. Davison, I. Reid, N. D. Molton, and O. Stasse, "MonoSLAM: Real-time single camera SLAM," IEEE Trans. on PAMI, vol. 29, issue 6, pp. 1052-1067, 2007.
R. A. Newcombe, S. J. Lovegrove, and A. J. Davison, "DTAM: Dense tracking and mapping in real-time," Proc. of ICCV, 2011.
J. Engel, T. Schops, D. Cremers, "LSD-SLAM: Large-scale direct monocular SLAM," Proc. of ECCV, vol. 8690, pp. 834-849, 2014.
B.-K. Seo, H. Park, J.-I. Park, S. Hinterstoisser, and S. Ilic, "Optimal local searching for fast and robust textureless 3D object tracking in highly cluttered backgrounds," IEEE Trans. on Vis. and Comp. Grap., vol. 20, no. 1, pp. 99-110, 2014.
B.-K. Seo and H. Wuest, "Robust 3D object tracking using an elaborate motion model," Adjunct Proc. of ISMAR, pp. 70-71, 2016.
A. Torres-Gomez and W. Mayol-Cuevas, "Recognition and reconstruction of transparent objects for augmented reality," Proc. of ISMAR, pp. 129-134, 2014.
A. Crivellaro and V. Lepetit, "Robust 3D tracking with descriptor fields," Proc. of CVPR, 2014.
T. Schops, J. Engel, and D. Cremers, "Semi-dense visual odometry for AR on a smartphone," Proc. of ISMAR, 2014.
C. Paulus, N. Haouchine, D. Cazier, and S. Cotin, "Augmented reality during cutting and tearing of deformable objects," Proc. of ISMAR, 2015.
N. Haouchine, M.-O. Berger, and S. Cotin, "Simultaneous pose estimation and augmentation of elastic surfaces from a moving monocular camera," Proc. of ISMAR, 2016.
N. Haouchine, J. Dequidt, M.-O. Berger, and S. Cotin, "Single view augmentation of 3D elastic objects," Proc. of ISMAR, 2014.
I. Leizea, H. Alvarez, I. Aguinaga, and D. Borro, "Real-time deformation, registration and tracking of solids based on physical simulation," Proc. of ISMAR, pp. 165-170, 2014.
L. Carozza, F. Bosche, and M. Abdel-Wahab, "Visual-inertial 6-DOF localization for a wearable immersive VR/AR system," Proc. of ISMAR, pp. 257-258, 2014.
C. Sweeney, J. Flynn, B. Nuernberger, M. Turk, and T. Hollerer, "Efficient computation of absolute pose for gravity-aware augmented reality," Proc. of ISMAR, 2015.
X. Yang, X. Si, T. Xue, and K.-T. T. Cheng, "Fusion of vision and inertial sensing for accurate and efficient pose tracking on smartphones," Proc. of ISMAR, 2015.
C. Poglitsch, C. Arth, D. Schmalstieg, and J. Ventura, "A particle filter approach to outdoor localization using image-based rendering," Proc. of ISMAR, pp. 132-135, 2015.
J. R. Rambach, A. Tewari, A. Pagani, and D. Stricker, "Learning to fuse: a deep learning approach to visual-inertial camera pose estimation," Proc. of ISMAR, pp. 71-76, 2016.
I. Ihm, Y. Kim, J. Lee, J. Jeong, and I. Park, "Low-cost depth camera pose tracking for mobile platforms," Adjunct Proc. of ISMAR, pp. 123-126, 2016.
I. A. Kakadiaris, M. M. Islam, T. Xie, C. Nikou, and A. B. Lumsden, "iRay: Mobile AR using structure sensor," Adjunct Proc. of ISMAR, 2016.
J. Park, B.-K. Seo, and J.-I. Park, "Binocular mobile augmented reality based on stereo camera tracking," J. of Real-Time Image Processing, 2016. doi:10.1007/s11554-016-0640-9
P. Fleck, C. Arth, C. Pirchheim, and D. Schmalstieg, "Tracking and mapping with swarm of heterogeneous clients," Proc. of ISMAR, pp. 136-139, 2015.
A. Bapat, E. Dunn, and J.-M. Frahm, "Towards kilo-hertz 6-DoF visual tracking using an egocentric cluster of rolling shutter cameras," IEEE Trans. on Vis. and Comp. Grap., vol. 22, no. 11, 2016.
Kai Rohmer, Wolfgang Buschel, Raimund Dachselt, and Thorsten Grosch, "Interactive Near-Field Illumination for Photorealistic Augmented Reality on Mobile Devices" Proc. of ISMAR 2014. (IEEE TVCG DOI: 10.1109/TVCG.2015.2450717)
Shotten et al., "Real-Time Human Pose Recognition in Parts from a Single Depth Image," Proc. of CVPR 2011.
Ha et al., "WeARHand: Head-Worn, RGB-D Camera-Based, Bare-Hand User Interface with Visually Enhanced Depth Perception," Proc. of ISMAR 2014.
Qian et al., "Realtime and Robust Hand Tracking from Depth," Proc. of CVPR 2014.
Sinha et al., "DeepHand: Robust Hand Pose Estimation by Completing a Matrix Imputed with Deep Features," Proc. of CVPR 2016.
J. Park and J.-I. Park, "Interactive deformation of real objects," Proc. of ISMAR 2014.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.