최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기인포메이션 디스플레이 = Information display, v.18 no.4, 2017년, pp.3 - 11
전성국 (한국광기술원 공간광정보연구센터)
초록이 없습니다.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
비전 기반 인체 동작 분석은 무엇인가? | 비전 기반 인체 동작 분석은 단일 또는 다수의 카메라로부터 취득된 영상을 기반으로 인체의 상이한 근골격계로부터 발생되는 다양한 정적, 동적 동작에서의 신체의 모양, 크기, 신체적 특성 등을 인지, 해석하는 연구이며, 신체 또는 신체 부위 위치 추적, 제스처, 표정 인식 그리고 이를 활용한 보안 시스템(Surveillance system), 증강/가상현실 등 다양한 분야에 적용 및 응용된다. | |
ToF 방식의 깊이 카메라는 무엇이 있는가? | ToF 방식은 카메라의 발광부에서 쏘아진 IR 신호가 피사체 표면에 반사되어 카메라의 수신부로 되돌아오는 시간차를 기반으로 형상을 취득하는 방식이다. 대표적 깊이 카메라로는 Microsoft사의 Kinect 2.0, Softkinetic사의 DepthSense 525 등이 있다(그림 5). 구조광 방식은 카메라의 발광부에서 쏘아진 IR 패턴이 표면에 투영된 위치를 분석하여 형상정보를 취득한다. | |
깊이 카메라가 3차원 형상 정보를 취득하는 방법은 무엇인가? | 깊이 카메라는 일반적으로 카메라에서 발광 후 피사체 표면으로부터 반사되어 카메라로 수신되는 적외선(IR, Infrared ray) 신호를 분석하여 화각 내 공간의 3차원 형상 정보를 취득한다. 취득된 IR 신호는 깊이 카메라의 CCD에 수신되고 이를 통해 깊이 영상을 구성한다. |
J. Shotton, et al., Communications of the ACM 56, 116 (2013).
N. Dalal and B. Triggs, CVPR 1, 886 (2005).
S. Khan, et al., ICCV 1, 331 (2001).
E. Corvee and F. Bremond, AVSS , 169 (2010).
Z. Ren, et al., IEEE transactions on multimedia 15, 1110 (2013).
R. Y. Wang, and J. Popovic, ACM transactions on graphics 28, 63 (2009).
S. Rifai, et al., ECCV, 808 (2012).
W. Tao, et al., Sensors 12, 2255 (2012).
W. Hurst and C. Van Wezel, Multimedia tools and appliations 62, 233 (2013).
C. L. Ekegren, et al., Sports medicine 46, 49 (2016).
D. G. Liebermann, et al., Journal of sports sciences 20, 755 (2002).
J. T. -M. Cheung and M. Zhang, Archives of physical medicine and rehabilitation 86, 353 (2005).
C. Keskin, et al., Consumer Depth Cameras for Computer Vision, 119 (2013).
S. Melax, et al., Graphics Interface, 63 (2013).
J. A. A. Al-Baghdadi, et al., SSSC, 295 (2011).
A. K. Thabet, et al., Journal of foot and ankle research 7, 1 (2014).
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.