$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

개인화기 조준 능력 향상 관점에서의 추적 기법의 성능평가
Evaluation of Tracking Performance: Focusing on Improvement of Aiming Ability for Individual Weapon 원문보기

방송공학회논문지 = Journal of broadcast engineering, v.18 no.3, 2013년, pp.481 - 490  

김상훈 (서울대학교 전기공학부) ,  윤일동 (한국외국어대학교)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 실제 전장에서 전투수행 중인 병사의 개인화기 조준 능력 향상 관점에서 추적기법의 성능평가를 하였다. 실제 전장에서는 짧은 시간동안 전투를 하는 것뿐만 아니라 며칠에 걸쳐서 실시되는 경우도 있다. 이와 같이 장시간 지속되는 작전 중에서 다양한 요소에 의해서 지속적으로 병사의 신체능력이 감소된다. 이렇게 손실되는 신체능력을 보완하기 위하여 시각추적 기술을 화기의 조준경에 적용하여 적 병사 이동상황을 자동적으로 추적하고 이로 인해 감소된 조준능력을 향상시키기 위한 실험을 하였다. 최신영상 추적 기법들 중에서 최적의 것을 결정하기 위하여, 겹침 현상, 카메라 이동, 크기변화, 저대비 영상, 조명변화 등의 특징이 포함된 여러 실제 전장 영상으로 그 성능을 평가하였다. VTD (Visual Tracking Decomposition)[2]가 정확도에서 IVT (Incremental learning for robust Visual Tracking)[7]가 속도 평가에서 가장 우수하였으며 종합적으로는 MIL (Multiple Instance Learning)[1]이 가장 우수한 결과를 보여 주었다. 이러한 성능평가 결과는 시각추적기술이 적용된 조준경이 실제 전장에서 전투수행을 하면서 신체능력이 감소된 병사의 전투력을 보완할 가능성이 있다는 것을 보여 준다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, an investigation of weapon tracking performance is shown in regard to improving individual weapon performance of aiming objects. On the battlefield, a battle can last only a few hours, sometimes it can last several days until finished. In these long-lasting combats, a wide variety of ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 저하된 신체능력은 임무수행능력을 저하시키고 비효율적인 전투를 수행하게 하고 비효율적인 사격을 하게 한다. 그래서 우리는 시각추적기술을 탑재한 조준경이 개발 가능하다면 자동으로 적을 찾고 추적하여 저하된 신체능력을 보완하고 보다 효율적인 전투를 수행할 수 있다고 보고 개인화기 조준능력 향상관점에서 시각추적기술의 성능평가를 하였다.
  • 본 절에서는 추적기의 성능 평가기준을 설명하고 이를 이용한 실험 결과를 제시한다. 추적하기 위한 표적은 조준경의 십자망선 중간(총구에서 가장 가까운 표적)에서 가장 가까운 표적을 자동 탐지한다고 가정하였다.
  • 우리는 본 논문에서 지속작전으로 표적탐지능력과 급속사격능력이 떨어져 비효율적인 전투를 수행할 수 있는 병사의 신체능력을 보완하기 위하여 최근 제안된 시각추적기술을 개인화기 조준경에 탑재하는 경우를 가정하고 적합한 시각추적 알고리듬들의 성능을 평가해 보았다. 평가 결과는 MIL, VTD, IVT 순서로 적합하다는 결과가 나왔다.
  • 뿐만 아니라 미래전쟁은 핵무기, 생화학무기, 초정밀 무기 등의 대량살상 무기와 첨단무기를 활용하게 되고 이로 인해 더욱 치명적으로 위험한 상황에 처할 수 있으며 이에 대비하기 위해 다양한 작전 및 방호구 사용으로 더욱 활동에 장애를 받을 수 있다. 이런 작전 수행 중에 병사의 전투능력 손실을 보완하기 위하여 우리는 시각추적기술을 개인화기에 활용하는 방안을 생각해 보게 되었다. 최근에 발표되는 시각추적기술에 관한 논문들을 보면 연구실 환경 내에서 임의로 설정한 시나리오보다 실제세계에서 벌어지는 환경에서 실험하는 경우가 많고 그 결과에 대해 여러 논문이 발표되었다[1][2][3][4].

가설 설정

  • 본 절에서는 추적기의 성능 평가기준을 설명하고 이를 이용한 실험 결과를 제시한다. 추적하기 위한 표적은 조준경의 십자망선 중간(총구에서 가장 가까운 표적)에서 가장 가까운 표적을 자동 탐지한다고 가정하였다. 성능 평가는 위의 영상에 각 알고리듬을 적용하여 얻어지는 정확성과 실제로 개인화기 조준경에 탑재하여 사용하기 위해서는 속도도 중요하기 때문에 추적 속도, 이 두 가지 부분의 점수합산으로 평가 한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
지속적인 전투에서의 극한 상황에는 무엇이 있는가? 지속적인 전투는 병사들의 업무수행능력 저하를 가져오는 악 조건하에서 임무수행을 강요한다. 이러한 극한 상황들의 예는 정상 수면 방해, 육체적 피로, 수면부족, 공포 등이다. 이러한 악조건 하에서 계속되는 전투는 병사들을 탈진하게 하고, 따라서 병사들은 작전 시 요구되는 만큼 신속하게 또는 효과적으로 업무를 수행할 수 없게 된다.
병사들의 업무수행능력 저하를 가져오는 악 조건이 병사에게 미치는 영향은? 이러한 극한 상황들의 예는 정상 수면 방해, 육체적 피로, 수면부족, 공포 등이다. 이러한 악조건 하에서 계속되는 전투는 병사들을 탈진하게 하고, 따라서 병사들은 작전 시 요구되는 만큼 신속하게 또는 효과적으로 업무를 수행할 수 없게 된다. 심지어는 전투 초일 야간조차도, 정상적인 수면습관과 일상의 행위들이 임무수행을 방해한다. 또한 병사들은 피로와 소음, 방해받은 수면시간 및 생명에 대한 위협으로 인해 커다란 스트레스를 받게 된다. 병사들의 강한 결단력도 참고 견딜 수 있도록 하는 데는 필수적이지만, 악조건들이 상승효과를 나타내는 것을 상쇄시킬 수는 없다. 잘못된 결심을 포함한 지각능력 저하는 수면을 취하지 못한 최초 24 시간 중 또는 그 이후부터 시작 된다[5].
지속작전이란? 전쟁 중에 병사는 짧은 전투만 할 수도 있지만 지속작전 및 계속작전을 많이 수행한다. 지속작전과 계속작전에 관한 정의를 간략히 설명하면 지속작전(CONOPS: Continuous Operations)이란 일정 기간 동안 똑같은 수준으로 강도 높게 계속 실시되는 전투로서 이러한 전투에 참가하는 장병들은 수면을 취할 기회를 가질 수는 있겠지만 수면은 짧은 시간동안 순간적으로 잠깐씩 취하는 형태의 작전을 말하며, 계속작전(SUSOPS: Sustained Operations)이란 부대 및 부대원들이 경계태세를 늦추지 않고 작전을 계속 실시함으로써 병사들은 단 몇 분의 수면조차도 취할 수 있는 기회가 주어지지 않는 작전을 말하며 따라서 지속작전에는 일련의 계속작전이 포함될 수 있다[5].
질의응답 정보가 도움이 되었나요?

참고문헌 (36)

  1. B. Babenko, M. Yang, and S. Belongie. Visual tracking with online multiple instance learning. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition 2009. 

  2. J. Kwon and K. Lee, "Visual tracking decomposition," Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 1269-1276, 2010. 

  3. Junseok Kwon and Kyoung Mu Lee. Tracking by sampling trackers. Proceedings of International Conference on Computer Vision, pages 1195-1202, 2011. 

  4. Tianzhu Zhang, Bernard Ghanem, Si Liu, Narendra Ahuja. Robust visual tracking via multi-task sparse learning. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition 2012 

  5. U.S. Army. FM 22-9 Soldier Performance In Continuous Operations. 1991 

  6. Defense Daily. "Vietnam Var and the advent of M16 Rifle" 2008. 9. 9. in Korean 

  7. D. Ross, J. Lim, R.-S. Lin, and M.-H. Yang. Incremental learning for robust visual tracking. IJCV, 77(1): 125-141, May 2008. 

  8. Weapons data center of Defense Acquisition Program Administration. in Korean 

  9. http://www.cs.toronto.edu/-dross/ivt/ 

  10. http://vision.ucsd.edu/-bbabenko/data/ 

  11. http://cv.snu.ac.kr/research/-vtd/ 

  12. G. H. Golub and C.F. Van Loan. Matrix Computations. The Jojns Hopkins University Press, 1996. 

  13. P. Hall, D. Marshall, and R. Martin. Incremental eigenanalysis for classification. Proceedings of British Machine Vision Conference, pages 286-295, 1998. 

  14. A. Levy and M. Lindenbaum. Sequential Karhunen-Loeve basis extraction and its application to images. IEEE Transactions on Image Processing, 9(8):1371-1374, 2000. 

  15. M. Brand. Incremental singular value decomposition of uncertain data with missing values. In A. Heyden, G. Sparr, M. Nielsen, and P. Johansen, editors, Proceedings of the Seventh European Conference on Computer Vision, LNCS 2350 pages 707-720. Springer Verlag, 2002. 

  16. P. Hall, D. Marshall, and R. Martin. Adding and subtracting eigenspaces with eigenvalue decomposition and singular value decomposition. Image and Vision Computing, 20(13-14): 1009-1016, 2002. 

  17. J. Lim, D. Ross, R.-S. Lin, and M.-H. Yang. Incremental learning for visual tracking. In L. Saul, Y. Weiss, and L. Bottou, editors, Advances in Neural Information Processing Systems, pages 793-800. MIT Press, 2005. 

  18. R.-S. Lin, D. Ross, J. Lin, and M.-H. Yang. Adaptive discriminative generative model and its applications. In L. Saul, Y. Weiss, and L. Bottou, editors, Advances in Neural Information Processing Systems, pages 801-808. MIT Press, 2005. 

  19. M. Isard and A. Blake. Contour tracking by stochastic propagation of conditional density. In B. Buxton and R. Cipolla, editors, Proceedings of the Fourth European Conference on Computer Vision, LNCS 1064, pages 343-356. Springer Verlag, 1996. 

  20. B. North and A. Blake. Learning dynamical models using expectation- maximization. Proceedings of IEEE International Conference on Computer Vision, pages 384-389, 1998. 

  21. M. E. Tipping and C. M. Bishop. Probabilistic principal component analysis. Journal of the Royal Statistical Society, Series B, 61(3): 611-622, 1999. 

  22. S. Roweis. EM algorithms for PCA and SPCA. In M. I. Jordan, M. J. Kearms, and S. A. Solla, editors, Advances in Neural Information Processing Systems 10, pages 626-632. MIT Press, 1997. 

  23. M. J. Black and A. D. Jepson. Eigentracking: Robust matching and tracking of articulated objects using view-based representation. In B. Buxton and R. Cipolla, editors, Proceedings of the Fourth European Conference on Computer Vision, LNCS 1064, pages 329-342. Springer Verlag, 1996. 

  24. P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In Proceedings of IEEE International Conference on Computer Vision, volume 1, pages 511-518, 2001. 

  25. P. Dllar, Z. Tu, H. Tao, and S. Belongie. Feature mining for image classification. Proceedings of IEEE International Conference on Computer Vision, June 2007. 

  26. J. Wang, X. Chen, and W. Gao. Online selecting discriminative tracking features using particle filter. Proceedings of IEEE International Conference on Computer Vision, volume 2, pages 1037-1042, 2005. 

  27. T. G. Dietterich, R. H. Lathrop, and L. T. Perez. Solving the multiple instance problem with axis parallel rectangles. Artificial Intelligence, pages 31-71, 1997. 

  28. S. Andrews, I. Tsochantaridis, and T. Hofmann. Support vector machines for multiple-instance learning. Proceedings of Annual Conference on Neural Information Processing Systems, pages 577-584, 2003. 

  29. P. Viola, J. C. Platt, and C. Zhang. Multiple instance boosting for object detection. Proceedings of Annual Conference on Neural Information Processing Systems, pages 1417-1426, 2005. 

  30. J. Friedman, Greedy function approximation: A gradient boosting machine. The Annals of Statistics, 29(5):1189-1232, 2001. 

  31. N. C. Oza. Online Ensemble Learning. Ph.D. Thesis, University of California, Berkeley, 2001. 

  32. H. Grabner, M. Grabner, and H. Bischof. Real-time tracking via online boosting. Proceedings of British Machine Vision Conference, pages 47-56, 2006. 

  33. J. Friedman, T. Hastie, and R. Tibshirani. Additive logistic regression: a statistical view of boosting. The Annals of Statistics, 28(2): 337-407, 2000. 

  34. H. Ling and K. Okade. Diffusion distance for histogram comparison. Proceedings of IEEE International Conference on Computer Vision, 2006 

  35. A. d'Aspremont, L. El Ghaoui, M. Jordan, and G. Lanckriet. A direct formulation for sparse PCA using semidefinite programming. SIAM Review, 49(3). 2007. 

  36. J. Corander, M Ekdahl, and T. Koski. Parallell interacting MCMC for learning of topologies of graphical models. Data Min. Knowl. Discov., 17(3), 2007 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로