$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 3차원 공간에서 손가락 제스쳐 인터랙션을 이용한 간접제어의 사용성에 관한 실험연구
An Experimental Research on the Usability of Indirect Control using Finger Gesture Interaction in Three Dimensional Space 원문보기

한국콘텐츠학회논문지 = The Journal of the Korea Contents Association, v.14 no.11, 2014년, pp.519 - 532  

함경선 (연세대학교 기술경영학협동과정) ,  이다혜 (연세대학교 정보대학원) ,  홍희정 (연세대학교 기술경영학협동과정) ,  박성재 (연세대학교 기술경영학협동과정) ,  김진우 (연세대학교 기술경영학협동과정)

초록
AI-Helper 아이콘AI-Helper

자연스러운 컴퓨터 인터랙션(Natural computer interaction)을 위 신기술의 출현은 기업에게 제품 혁신이라는 새로운 기회를 안겨다 줄 수 있다. 본 연구는 인간이 갖는 소통의 방식 중에서 손가락 제스처 인터랙션에 관심을 갖는다. 그간 십 수 년간 걸친 기술 발전에 힘입어 상용화 수준의 기술이 마련됨에 따라 이를 활용한 제품이나 서비스가 곧 대중화 될 것이라는 생각이 현재는 지배적이다. 이 시점에서 저자는 이 제스처 인터랙션이 과연 쓸 만 할까라는 생각을 가지고 손가락 제스처 인터랙션이 사용자들에게 끼치는 인지적인 영향을 알아보고자 실험연구를 진행한다. 손가락 제스처를 찍기, 집기, 잡기로 정의하고 각각 2차원과 3차원 공간에서 사용할 때 사용자들이 느끼는 사용성을 측정하여 제스처의 효과를 보여주고자 한다. 립모션 기술을 사용하여 2차원, 3차원 실험 도구를 개발하였고 48명의 피실험자를 통해 결과적으로는 2차원에서는 제스처간 사용성의 차이가 없으나 3차원에서는 그 차이를 발견할 수 있었다. 또한 모든 제스처가 3차원보다는 2차원에서 사용성이 좋은 것으로 나타났으며, 특히 3차원에서는 여러 손가락 보다는 하나의 손가락을 사용하는 것이 더 좋은 것으로 나타나 흥미를 끈다.

Abstract AI-Helper 아이콘AI-Helper

The emerging technologies for the natural computer interaction can give manufacturers new opportunities of product innovation. This paper is the study on a method of human communication about a finger gestures interaction. As technological advance has been so rapid over the last few decades, the uti...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 익숙한 손가락 제스처를 컴퓨터 인터랙션으로 사용하고 이것에 의해 생겨난 효과를 알아보는 것이다. 구체적으로는 사용자가 느끼는 포괄적인 사용성(Usability)을 알아보기 위해 시스템 사용성(System Usability), 인지된 편의성(Perceived Ease-of-use), 그리고 자기효능감(Self-efficacy)에 대한 손가락 제스처의 효과를 알아보고자 한다.
  • 대부분의 연구들이 손 제스처를 사용한다면 자연스러움을 얻을 수 있을 것이라는 전제 아래 진행된 것이라고 보이지만, 역으로는 사용자가 느끼는 인지적 수준에서 그러한 제스처 인터랙션들이 과연 긍정적인 영향을 줄 수 있을지에 대한 궁금증을 갖지 않을 수 없다. 따라서 본 연구는 많은 인지과학 이론들이 뒷받침되고 상용화 수준에 이르고 있는 손 제스처 인식기술을 활용할 수 여건이 마련됨에 따라 손 제스처가 사용자에게 끼치는 인지적 영향을 알아보고자 실험연구(Experimental research)를 수행한다. 기술적 어려움이 많았던 과거에 비해 발전된 손 제스처 인식기술을 활용하여, 본 연구는 구체적으로 손가락 제스처에 초점을 맞춘다.
  • 본 연구를 통해서 많은 요인들을 통제할 수밖에 없는 실험 환경에서 제한적으로나마 손가락 제스처 인터랙션의 사용성을 알아보았다. 신기술이 등장하면 기존의 연구를 그대로 적용하기에는 무리가 따를 듯하다.
  • 상황에 따라 사용자의 행위를 컴퓨터 인터랙션에 활용하고자 하는 노력은 유비쿼터스(Ubiquitous) 컴퓨팅이라는 개념 하에서 상황인식(Context awareness) 분야로 이어졌고[2], 더 나아가서는 가상현실을 적용한 응용에서 사용자의 행위인식(Gesture recognition) 분야에서 활발한 연구가 진행되어 왔다[3][4]. 사용자의 인위적인 명령 없이도 주변 사물에 내재화된(Embedded) 컴퓨터를 능동적으로 동작할 수 있게 하거나, 몸 전체 또는 일부의 행위를 인식하여 컴퓨터로 만든 가상의 세계에서 자연스러운 인터랙션을 추구하는 것이다.
  • 기술적 어려움이 많았던 과거에 비해 발전된 손 제스처 인식기술을 활용하여, 본 연구는 구체적으로 손가락 제스처에 초점을 맞춘다. 익숙한 손가락 제스처를 컴퓨터 인터랙션으로 사용하고 이것에 의해 생겨난 효과를 알아보는 것이다. 구체적으로는 사용자가 느끼는 포괄적인 사용성(Usability)을 알아보기 위해 시스템 사용성(System Usability), 인지된 편의성(Perceived Ease-of-use), 그리고 자기효능감(Self-efficacy)에 대한 손가락 제스처의 효과를 알아보고자 한다.
  • 본 연구는 앞서 말한 연구질문에 대하여 집게손가락을 이용하는 ‘찍기’ 동작과 검지와 엄지를 사용하는 ‘집기’ 동작, 그리고 다섯 손가락으로 움켜쥐는 형태의 ‘잡기’ 동작으로 제스처를 정하고 가장 간단한 형태의 선택(Selection) 태스크를 수행한다. 즉, 손가락을 사용한 제스처 인터랙션의 방식에 따라 사용자가 느끼는 사용성이 어떻게 달라지는지에 대한 문제를 연구하기 위해서 Wachs[7]가 제시한 바와 같이 손 제스처 인터페이스가 상용화 되고 활용되기 위해 필요한 사용성 기준에서 평가가 필요하다는 가이드라인을 감안하여 실험연구(experimental research) 진행하는 것이다.
  • 추가적으로, 본 연구는 동작인식 센서인 립모션을 이용하여 제스처 인터랙션의 사용성을 알아 본 실험 연구이다. 여기서 사용한 제스처는 저자가 직관적으로 인식한 동작을 선정하여 선택이라는 단순한 태스크에 적용 하였는데, 이 제스처 방식에 대한 고민이 더 필요할 듯 하다.

가설 설정

  • 가설 1-1: 모든 차원에서 찍기 제스처보다 집기 제스처가 시스템 사용성이 더 좋을 것이다.
  • 가설 1-2: 모든 차원에서 찍기 제스처보다 집기 제스처가 인지된 편의성이 더 좋을 것이다.
  • 가설 1-3: 모든 차원에서 찍기 제스처보다 집기 제스처가 자기효능감이 더 좋을 것이다.
  • 가설 2-1: 모든 차원에서 집기 제스처보다 잡기 제스처가 시스템 사용성이 더 좋을 것이다.
  • 가설 2-2: 모든 차원에서 집기 제스처보다 잡기 제스처가 인지된 편의성이 더 좋을 것이다.
  • 가설 2-3: 모든 차원에서 집기 제스처보다 잡기 제스처가 자기효능감이 더 좋을 것이다.
  • 가설 3-1: 모든 제스처는 2차원보다 3차원에서 시스템 사용성이 더 좋을 것이다.
  • 가설 3-2: 모든 제스처는 2차원보다 3차원에서 인지된 편의성이 더 좋을 것이다.
  • 가설 3-3: 모든 제스처는 2차원보다 3차원에서 자기효능감이 더 좋을 것이다.
  • 가설 4-1: 모든 제스처는 3차원보다 2차원에서 시스템 사용성이 더 좋을 것이다.
  • 가설 4-2: 모든 제스처는 3차원보다 2차원에서 인지된 편의성이 더 좋을 것이다.
  • 가설 4-3: 모든 제스처는 3차원보다 2차원에서 자기효능감이 더 좋을 것이다.
  • 가설 5-1: 3차원에서는 찍기 제스처가 시스템 사용성이 더 좋을 것이다.
  • 가설 5-2: 3차원에서는 찍기 제스처가 인지된 편의성이 더 좋을 것이다.
  • 가설 5-3: 3차원에서는 찍기 제스처가 자기효능감이 더 좋을 것이다.
  • 기존의 연구결과를 바탕으로 본 연구에서는 손가락 제스처 별로 사용성의 차이가 있을 것으로 보았는데, 공간의 차원과는 상관없이 여러 손가락을 사용하는 제스처, 특히 잡기 제스처가 사용성이 좋을 것이라는 가설과 3차원에서는 한 손가락을 사용하는 찍기 동작이 오히려 사용성이 더 좋을 것이라는 대립 가설을 설정했다. 세가지 제스처와 두 가지 공간의 차원의 조합에 대한 각각의 실험군을 구성하고 시스템 사용성, 인지된 편의성, 자기효능감에 관한 설문으로 측정한 결과, 2차원에서는 각각의 제스처에 따른 유의미한 효과가 없는 것으로 나타났다.
  • 손가락 제스처와 관련해서는 Moscovich[31]의 연구에서 손가락이 만들어 내는 영역을 커서로 활용할 때 타겟과 커서 영역의 상대적인 차이는 성능을 높인다는 결과를 보였다. 이렇듯 피츠의 법칙을 적용해 볼 수 있으므로한 손가락보다는 여러 손가락을 사용할 때 만들어지는 영역으로 커서가 만들어지므로 다음의 가설을 설정할 수 있다.
  • 타겟을 선택하는 동작에 있어서 사람이 태어날 때부터 갖는 본능적인 동작 중의 하나가 잡는(쥐는) 동작일 것이다. 사람은 손을 이용해 진화를 해 왔듯이 손을 사용하는 것은 인간에게 가장 편리한 인터랙션 수단이 될 수 있을 것이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
손가락 제스처 인식기술은 어떻게 분류할 수 있는가? Thomas[7]에 따르면 손가락 제스처 인식기술은 세가지 방식으로 분류할 수 있는데, 첫째는 장갑 형태로 고안된 센서장치를 부착하는 방식[5]과 손바닥과 손가락에 표시한 점을 컴퓨터가 인식하는 방식[13], 그리고 카메라 영상을 실시간으로 분석해서 맨 손 모양을 판단 하는 방식이다. 상대적으로 실용적일 수 있는 후자의 맨 손 인식 방법은 최근 들어 많은 기술적 발전을 거듭하여 다양한 응용이 가능한 수준의 상용제품이 등장하였는데 키넥트나 립모션(LeapMotion)은 적외선 카메라로 수집된 영상을 분석하는 수준 높은 기술을 보여주고 있어 앞으로 관련 응용이 많아 질 것으로 보인다[14][15].
터치스크린을 이용한 손가락 제스처는 어떤 형태를 취하는가? 인간의 자연스런 동작을 컴퓨터 인터랙션으로 연결시키고자 하는 노력은 최근의 디스플레이 기술발전에 힘입어 테이블탑(Tabletop)이나 스마트폰(Smart phone)과 같은 터치스크린(Touch screen) 응용에서 많이 연구되고 있다. 터치스크린을 이용한 손가락 제스처는 화면을 직접 만지는 인터랙션 방식을 사용하기 때문에 화면상에 보이는 객체(Object)를 직접 손으로 다루는 형태를 취하게 된다. 즉 직접제어(Direct control)의 특성을 갖는 것이다[10].
왜 제스처는 인간의 손이 중요한가? 제스처에 있어서 인간의 손 또한 중요하다. 운동학적 도구뿐 아니라 의사를 표현하고 전달하는 소통의 수단으로 활용되기 때문에 주목하지 않을 수 없는 것이다. 인간은 손을 사용하여 소통하는 것이 너무나 익숙하기 때문에 그것이 주는 자연스러움(Naturalness)은 컴퓨터 인터랙션에서 가장 핵심적인 개념 중의 하나가 될 수밖에 없다.
질의응답 정보가 도움이 되었나요?

참고문헌 (39)

  1. D. A. Norman, The design of everyday things, Basic books, 2002. 

  2. G. Chen and D. Kotz, A survey of context-aware mobile computing research, Technical Report TR2000-381, Dept. of Computer Science, Dartmouth College, 2000. 

  3. V. Buchmann, S. Violich, M. Billinghurst, and A. Cockburn, "FingARtips: gesture based direct manipulation in Augmented Reality," in Proceedings of the 2nd international conference on Computer graphics and interactive techniques in Australasia and South East Asia, pp.212-221, 2004. 

  4. E. Kaiser, A. Olwal, D. McGee, H. Benko, A. Corradini, and X. Li, "Mutual disambiguation of 3D multimodal interaction in augmented and virtual reality," in Proceedings of the 5th international conference on Multimodal interfaces, pp.12-19, 2003. 

  5. T. G. Zimmerman, J. Lanier, C. Blanchard, S. Bryson, and Y. Harvill, "A hand gesture interface device," in ACM SIGCHI Bulletin, pp.189-192, 1987. 

  6. J. P. Wachs, M. Kolsch, H. Stern, and Y. Edan, "Vision-based hand-gesture applications," Communications of the ACM, Vol.54, pp.60-71, 2011. 

  7. M. C. Thomas and A. P. M. S. Pradeepa, "A COMPREHENSIVE REVIEW ON VISION BASED HAND GESTURE RECOGNITION TECHNOLOGY," International Journal, Vol.2, 2014. 

  8. Z. Ren, J. Meng, J. Yuan, and Z. Zhang, "Robust hand gesture recognition with kinect sensor," in Proceedings of the 19th ACM international conference on Multimedia, pp.759-760, 2011. 

  9. Z. Ren, J. Yuan, J. Meng, and Z. Zhang, "Robust part-based hand gesture recognition using kinect sensor," IEEE Trans. Multimedia, Vol.15, pp.1110-1120, 2013. 

  10. R. J. Jacob, "Human-computer interaction: input devices," ACM Computing Surveys (CSUR), Vol.28, pp.177-179, 1996. 

  11. H. Benko, A. D. Wilson, and P. Baudisch, "Precise selection techniques for multi-touch screens," in Proceedings of the SIGCHI conference on Human Factors in computing systems, pp.1263-1272, 2006. 

  12. C. Telkenaroglu and T. Capin, "Dual-finger 3d interaction techniques for mobile devices," Personal and ubiquitous computing, Vol.17, pp.1551-1572, 2013. 

  13. L. Lamberti and F. Camastra, "Real-time hand gesture recognition using a color glove," in Image Analysis and Processing-ICIAP 2011, ed: Springer, pp.365-373, 2011. 

  14. F. Weichert, D. Bachmann, B. Rudak, and D. Fisseler, "Analysis of the accuracy and robustness of the leap motion controller," Sensors (Basel, Switzerland), Vol.13, pp.6380, 2013. 

  15. Z. Zhang, "Microsoft kinect sensor and its effect," MultiMedia, IEEE, Vol.19, pp.4-10, 2012. 

  16. M. Nielsen, M. Storring, T. B. Moeslund, and E. Granum, "A procedure for developing intuitive and ergonomic gesture interfaces for HCI," in Gesture-Based Communication in Human-Computer Interaction, ed: Springer, pp.409-420, 2004. 

  17. D. Vogel and R. Balakrishnan, "Distant freehand pointing and clicking on very large, high resolution displays," in Proceedings of the 18th annual ACM symposium on User interface software and technology, pp.33-42, 2005. 

  18. M. Moehring and B. Froehlich, "Effective manipulation of virtual objects within arm's reach," in Virtual Reality Conference (VR), 2011 IEEE, pp.131-138, 2011. 

  19. A. Kulshreshth and J. J. LaViola Jr, "Exploring the usefulness of finger-based 3D gesture menu selection," in Proceedings of the 32nd annual ACM conference on Human factors in computing systems, pp.1093-1102, 2014. 

  20. http://software.intel.com 

  21. S. Zhao and R. Balakrishnan, "Simple vs. compound mark hierarchical marking menus," in Proceedings of the 17th annual ACM symposium on User interface software and technology, pp.33-42, 2004. 

  22. D. J. Sturman, Whole-hand input, Massachusetts Institute of Technology, 1991. 

  23. M. Hassenzahl and N. Sandweg, "From mental effort to perceived usability: transforming experiences into summary assessments," in CHI'04 extended abstracts on Human factors in computing systems, pp.1283-1286, 2004. 

  24. M. H. van Beurden, W. A. Ijsselsteijn, and Y. A. de Kort, "User experience of gesture based interfaces: a comparison with traditional interaction methods on pragmatic and hedonic qualities," in Gesture and Sign Language in Human-Computer Interaction and Embodied Communication, ed: Springer, pp.36-47, 2012. 

  25. N. Bevan, "International standards for HCI and usability," International journal of human-computer studies, Vol.55, pp.533-552, 2001. 

  26. J. Sauro, "Measuring usability with the system usability scale (SUS)," ed, 2011. 

  27. G. H. Subramanian, "A Replication of Perceived Usefulness and Perceived Ease of Use Measurement," Decision Sciences, Vol.25, pp.863-874, 1994. 

  28. D. R. Compeau and C. A. Higgins, "Application of social cognitive theory to training for computer skills," Information systems research, Vol.6, pp.118-143, 1995. 

  29. P. M. Fitts, "The information capacity of the human motor system in controlling the amplitude of movement," Journal of experimental psychology, Vol.47, p.381, 1954. 

  30. P. Kabbash and W. A. Buxton, "The "prince" technique: Fitts' law and selection using area cursors," in Proceedings of the SIGCHI conference on Human factors in computing systems, pp.273-279, 1995. 

  31. T. Moscovich and J. F. Hughes, "Multi-finger cursor techniques," in Proceedings of Graphics Interface 2006, pp.1-7, 2006. 

  32. M. Prachyabrued and C. W. Borst, "Virtual grasp release method and evaluation," International Journal of Human-Computer Studies, Vol.70, pp.828-848, 2012. 

  33. M. R. Mine, F. P. Brooks Jr, and C. H. Sequin, "Moving objects in space: exploiting proprioception in virtual-environment interaction," in Proceedings of the 24th annual conference on Computer graphics and interactive techniques, pp.19-26, 1997. 

  34. F. Paas, J. E. Tuovinen, H. Tabbers, and P. W. Van Gerven, "Cognitive load measurement as a means to advance cognitive load theory," Educational psychologist, Vol.38, pp.63-71, 2003. 

  35. S. Meyer, O. Cohen, and E. Nilsen, "Device comparisons for goal-directed drawing tasks," in Conference companion on Human factors in computing systems, pp.251-252, 1994. 

  36. http://www.leapmotion.com 

  37. 최종훈, "영상콘텐츠용 디지털액자의 제스처 인터랙션 방식," 한국콘텐츠학회논문지, Vol.10, pp.120-127, 2010. 

  38. 박기창, 서성채, 정승문, 강임철, 김병기, "GUI 어플리케이션 제어를 위한 제스처 인터페이스 모델 설계," 한국콘텐츠학회논문지, Vol.13, pp.55-63, 2013. 

  39. http://www.youtube.com/watch?vXL2Eak4CX6g 

저자의 다른 논문 :

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로