최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기電子工學會誌 = The journal of Korea Institute of Electronics Engineers, v.44 no.8 = no.399, 2017년, pp.31 - 36
함범섭 (연세대학교 전기전자공학부)
초록이 없습니다.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
영상 정합이란 무엇인가? | 즉, 한 장의 파노라마 사진으로 완성하기 이전에 사진들에 존재하는 동일한 부분을 찾을 것이다. 이처럼 두 영상 혹은 다중 영상 간에 대응되는 영역 혹은 대응점들을 찾는 과정을 영상 정합(Image correspondence)이라 한다(<그림 1>). 영상 정합은 컴퓨터비전 (Computer vision) 및 영상처리 (Image Processing) 분야의 핵심이다. | |
시멘틱 정합을 통해 할 수있는 것은 무엇인가? | 시멘틱 정합을 이용하면 어떤 것들이 가능한지 살펴보자. 시멘틱 정합을 통해 물체 부분 혹은 물체 전체에 대한 정합을 구할 수 있으며, 나아가 물체간의 연관성을 분석할 수 있다. 그렇다면 물체간의 연관성이 의미하는 바는 무엇이며 이를 이용하면 무엇을 할 수 있을까? 사람이 어떤 작업을 할 때 물체 사이에 존재하는 연관성을 이용하는지 생각해보자. | |
시멘틱 정합에서 다루는 물체의 변형에 사용하는 강인한 표현자로는 무엇이 있는가? | 하지만 앞서 살펴봤듯이 시멘틱 정합에서 다루는 물체는 모양, 크기 등이 변할 수 있으므로, 이러한 변형에 강인한 표현자를 사용한다. 대표적인 표현자로는 SIFT[4], HOG[5], DAISY[6] 등이 있으며, 최근에는 딥러닝(Deep learning)[7]을 이용한CNN(Convolutional neural network) 기반의 표현자[8]또한 이용되고 있다. 두 번째 단계는 두 영상에서 추출한 표현자 벡터들 사이의 거리를 측정함으로써 정합점을 구하는 과정이다. |
M.Rubinstein, A.Joulin, J.Kopf, and C.Liu,"Unsupervised joint object discovery and segmentation in internet images," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2013.
C.Liu,J.Yuen,and A.Torralba, "Nonparametric scene parsing via label transfer," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 12, pp. 2368-2382, 2011.
T. Hassner, "Viewing Real-World Faces in 3D", in Proc. IEEE International Conference on Computer Vision, 2013.
D.G.Lowe, "Distinctive image features from scale-invariant keypoints," International Journal of Computer Vision, vol. 60, no. 2, pp. 91-110, 2004.
N. Dalal and B. Triggs, "Histograms of oriented gradients for human detection," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2005.
H. Yang, W.-Y. Lin, and J. Lu, "Daisy filter flow: A generalized discrete approach to dense correspondences," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2014.
A. Krizhevsky, I. Sutskever, and G. E. Hinton, "ImageNet classification with deep convolutional neural networks," in Proc. Neural Information Processing Systems, 2012.
J. L. Long, N. Zhang, and T. Darrell, "Do ConvNets learn correspondence?" in Proc. Neural Information Processing Systems, 2014.
S. Zagoruyko and N. Komodakis, "Learning to compare image patches via convolutional neural networks," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2015.
X. Han, T. Leung, Y. Jia, R. Sukthankar, and A. C. Berg, "MatchNet: Unifying feature and metric learning for patch-based matching," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2015.
C. Liu, J. Yuen, and A. Torralba, "SIFT flow: Dense correspondence across scenes and its applications," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 5, pp. 978-994, 2011.
T. Brox and J. Malik, "Large displacement optical flow: Descriptor matching in variational motion estimation," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 3, pp. 500-513, 2011.
K. Karsch, C. Liu, and S. Kang, "DepthTransfer: Depth extraction from video using non-parametric sampling," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 36, no. 11, pp. 2144-2158, 2014.
J. Kim, C. Liu, F. Sha, and K. Grauman, "Deformable spatial pyramid matching for fast dense correspondences, in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2013.
M. Tau and T. Hassner, "Dense correspondences across scenes and scales," IEEE Transactions on Pattern Analysis and Machine Intelligence,vol. 38, no. 5, pp. 875-888, 2016.
T. Taniai, S. N. Sinha, and Y. Sato, "Joint recovery of dense correspondence and cosegmentation in two images," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2016.
B. Ham, M. Cho, C. Schmid, and J. Ponce, "Proposal flow," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2016.
J. R. Uijlings, K. E. van de Sande, T. Gevers, and A. W. Smeulders, "Selective search for object recognition," International Journal of Computer Vision, vol. 104, no. 2, pp. 154-171, 2013.
P. Arbelaez, J. Pont-Tuset, J. Barron, F. Marques, and J. Malik, "Multi-scale combinatorial grouping," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2014.
J. Hosang, R. Benenson, P. Dolla'r, and B. Schiele, "What makes for effective detection proposals?" IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015.
R. Girshick, J. Donahue, T. Darrell, and J. Malic, "Rich feature hierarchies for accurate object detection and semantic segmentation," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2014.
G. Zhu, F. Porikli, and H. Li, "Beyond local search: Tracking objects everywhere with instance-specific proposals," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2016.
G. Gkioxari, R. Girshick, and J. Malik, "Contextual action recognition with r*CNN," in Proc. IEEE International Conference on Computer Vision, 2015.
T. Zhou, P. Kra henbu hl, M. Aubry, Q. Huang, and A. A. Efros, "Learning dense correspondence via 3D-guided cycle consistency," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2016.
S. Kim, D. Min, B. Ham, S. Jeon, S. Lin, and K. Sohn, "FCSS: Fully convolutional self-similarity for dense semantic correspondence," in Proc. IEEE International Conference on Computer Vision and Pattern Recognition, 2017.
K. Han, R. S. Rezende, B. Ham, K.-Y. K. Wong, M. Cho, C. Schmid, and J. Ponce, "SCNet: Learning semantic correspondence," CoRR, vol. abs/1705.04043, 2017.
해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.