$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

명령어 배치 인식을 활용한 AR 코딩퍼즐 모바일앱 개발
Development of AR-based Coding Puzzle Mobile Application Using Command Placement Recognition 원문보기

한국게임학회 논문지 = Journal of Korea Game Society, v.20 no.3, 2020년, pp.35 - 44  

서범주 (홍익대학교 게임학부 게임소프트웨어전공) ,  조성현 (홍익대학교 게임학부 게임소프트웨어전공)

초록
AI-Helper 아이콘AI-Helper

본 연구에서는 현재 운영 중인 코딩교육 플랫폼인 코딩퍼즐 시스템에서 학습자들이 직접 손으로 조작할 수 있는 탠저블 블록형태로 제작된 코딩퍼즐 입력용 명령어들의 배치를 증강현실 환경에서 제한 시간 안에 안정적으로 다수의 블록을 인식할 수 있는 인식시스템의 설계 및 배치 인식 성능 측정 결과를 제시한다. 그 결과, 5초 이내로 30개 이상의 탠저블 블록 형태의 명령어들의 배치를 안정적으로 인식할 수 있었다. 본 인식시스템을 기존 코딩퍼즐 모바일 앱에 성공적으로 이식하였으며, 블루투스에 연동되는 모바일 앱을 통해 IoT 로봇을 구동할 수 있다.

Abstract AI-Helper 아이콘AI-Helper

In this study, we propose a reliable command placement recognition algorithm using tangible commands blocks developed for our coding puzzle platform, and present its performance measurement results on an Augmented Reality testbed environment. As a result, it can recognize up to 30 tangible blocks si...

주제어

표/그림 (10)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구를 통해 체험학습이 강화된 교구 활용에 필요한 접촉식 플라스틱(탠저블 블록) 모형 개발 및 증강현실(Augmented Reality, AR) 환경 하에서 복수개의 탠저블 블록을 인식하고, 그 배치 순서를 안정적으로 인식하는 인식시스템을 개발하고자 한다. 또한 성능 평가를 통해 개발한 인식시스템의 활용가능성을 모색하고, 기존에 개발한 모바일 앱과 통합함으로써 실제 운용 가능성을 확인하고자 한다. 본 논문의 구성은 다음과 같다.
  • 본 연구를 통해 체험학습이 강화된 교구 활용에 필요한 접촉식 플라스틱(탠저블 블록) 모형 개발 및 증강현실(Augmented Reality, AR) 환경 하에서 복수개의 탠저블 블록을 인식하고, 그 배치 순서를 안정적으로 인식하는 인식시스템을 개발하고자 한다. 또한 성능 평가를 통해 개발한 인식시스템의 활용가능성을 모색하고, 기존에 개발한 모바일 앱과 통합함으로써 실제 운용 가능성을 확인하고자 한다.
  • 본 연구에 앞서 AR 공간에서 마커리스 기반 인식시스템의 가능성을 연구하였다. 당시 마커리스 기반 인식시스템으로 널리 쓰이는 Vuforia SDK를 유니티 환경에 적용해 보았다[8].
  • 탠저블 블록에 배치되는 배치 평면과 인식카메라의 거리는 배치판에 있는 모든 블록들이 카메라에 모두 보이는 거리어야 한다. 본 측정 실험에서는 배치 평면과 카메라간의 거리에 따라 변화하는 인식률을 알아보고자 한다.
  • 이에 능동적인 학습과 오프라인 활동을 강화하기 위해 본 연구에서는 손으로 조작 가능한 탠저블(tangible) 블록 형태의 코딩 명령어 활용 방법론을 제안한다. 여기에서는 탠저블 블록 형태로 만들어진 명령어들을 다수의 학습자들이 협력을 통해 가상의 로봇 아바타나 실제 움직일 수 있는 IoT 로봇[2]들을 구동할 수 있도록 가상공간이 아니고 실제 공간에서 명령어들을 배치하여 명령을 내리는 체험 학습형 코딩교육 교구를 제작하고자 한다.

가설 설정

  • 탠저블 블록들은 증강현실용 기기에서 사용하는 카메라에서 한 번에 모두 인식될 수 있도록 배치 되어야 한다. 그러나 카메라가 모든 함수들의 블록 배치를 한 번에 인식하기 어렵기 때문에 함수별로 블록들을 인식한다고 가정하였다. 블록들은 물리 공간상에 연속으로 배치되어야 하며 일반적으로 널리 통용되는 왼쪽에서 오른쪽 순으로 배치되며, 한줄로 모든 명령어들을 나열할 수 없기 때문에 바둑판 형태로 명령어가 나열된다고 가정하였다.
  • 본 배치 인식 알고리즘은 3차원 위치 정보를 2차원 위치 정보로 단순화하였기 때문에 2차원 공간상에서 블록의 크기가 대동소이한 것을 가정하고 있다. 따라서 블록 인식 시 인식카메라와 블록이 배치된 평면 공간이 수직 방향일 때 가장 효율적으로 인식한다.
  • 그러나 카메라가 모든 함수들의 블록 배치를 한 번에 인식하기 어렵기 때문에 함수별로 블록들을 인식한다고 가정하였다. 블록들은 물리 공간상에 연속으로 배치되어야 하며 일반적으로 널리 통용되는 왼쪽에서 오른쪽 순으로 배치되며, 한줄로 모든 명령어들을 나열할 수 없기 때문에 바둑판 형태로 명령어가 나열된다고 가정하였다. 요약하면, 가상의 그리드 공간에 블록들이 왼쪽 상단에서 오른쪽 하단 순으로 배치된다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
마커리스 인식 방법은 무엇인가? 마커리스 인식 방법은 특징점을 추출하고 이 특징점을 기반으로 좌표계를 추출해 내는 방식이다. 텍스처(Texture), 에지(Edge), 템플릿 (Template) 기반으로 세분하기도 한다[3].
탠저블 블록은 무엇인가? 탠저블 블록은 학습자가 직접 손으로 조작할 수있는 3D 프린터로 출력된 정사각형 플라스틱 모형이다([Fig. 1](a) 참조).
이미지 인식 기법 중 마커 기반의 장점은 무엇인가? 마커를 사용하면 객체의 인식과 추적을 위한 정보를 비교적 쉽게 획득할 수 있다. 마커는 내부에 이진 패턴이나 모양을 가지고 있고, 3차원 좌표를 알고 있는 코너(corner를 가지고 있기 때문에 간단한 영상처리로 쉽게 객체를 인식할 수 있다[3]. 이러한 장점으로 초기 증강현실 시스템들은 ARToolkit과 같은 SDK를 사용하여 마커를 인식하였다[3].
질의응답 정보가 도움이 되었나요?

참고문헌 (16)

  1. Beomjoo Seo and Sung Hyun Cho, "Design and Implementation of Students' Coding Assessment System for a Coding Puzzle Game", Journal of Korea Game Society, Journal of Korea Game Society, Vol.18, No.1, pp.7-18, 2018. 

  2. Kyeonbok Park, Sung Hyun Cho, and Beomjoo Seo, "An Observation-based Movement Control for Educational Coding Robots", Journal of Korea Game Society, Vol. 16, No.6, pp.131-142, 2016. 

  3. Hanhoon Park and Jong-il Park, "Trend on Vision-Based Object Recognition and Tracking for Augmented Reality", Communications of the Korea Institute of Information Scientists and Engineers, Vol.34, No.12, pp.8-17, 2016. 

  4. Hongfei Wu, Fengjing Shao, and Pencheng Sun, "Research of quickly identifying markers on Augmented Reality", 

  5. Daniel Wagner and Dieter Schmalstieg, "ARToolKitPlus for Pose Tracking on Mobile Devices", pp. Computer Vision Winter Workshop, 2007. (저가 mobile device에서 상용하기 위한 ARToolKitPlus) 

  6. S. Garrido-Jurado, R. Munoz-Salinas, F.J.Madrid-Cevas, "Automatic Generation and Detection of Highly Reliable Fiducial Markers Under Occlusion", Pattern Recognition, Vol. 47, No. 6, pp.2280-2292, 2014. 

  7. Grishma Alshi, Mansi Dandiwala, Mikhail Cazi, and Renuka Pawar, "Interactive Augmented Reality-based System for Traditional Educational Media using Marker-derived Contextual Overlays", Proceedings of the 2nd International conference on Electronics, Communication and Aerospace Technology, pp.930-935, 2018. 

  8. Vuforia SDK, available at http://www.vuforia.com. 

  9. Changmin Lim, Chanran Kim, Jong-Il Park, and Hanhoon Park, "Mobile Augmented Reality based on Invisible Marker", 2016 IEEE International Symp. on mixed and Augmented Reality Adjunct Proceedings, pp.78-81. 

  10. Vincent Lepetit, Francesse Moreno-Noguer, and Pascal Fua, "EPnP: An accurate O(n) solution to the PnP problem," IJCV, Vol. 81, pp. 155-166, 2009. 

  11. Byung-Kuk Seo, HanhoonPark, Jong-Il Park, Stefan Hinterstoisser, and Slobodan Ilic, "Optimal local searching for fast and robust textureless 3D object tracking in highly cluttered backgrounds", IEEE Transactions on Vision and Computer Graphics, Vol.20, pp.99-110, 2014. 

  12. Alberto Crivellaro and Vincent Lepetit, "Robust 3D tracking with descriptor fields", 2014 IEEE Conference on Computer Vision and Pattern Recognition, 3514-3421, 2014. 

  13. D.G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", International Journal of Computer Vision, Vol. 60, pp. 91-110, 2004. 

  14. H. Bay, A. Ess, T. Tuytelaars, L. V. Gool, "Speeded-Up Robust Features (SURF)", Computer Vision and Image Understanding, Vol.110, pp.346-359, 2008. 

  15. E. Rublee, V. Rabaud, K. Konolige, G. Bradski, "ORB:An efficient alternative to SIFT or SURF", International Conference on Computer Vision, pp.2564-2571, 2011. 

  16. https://lightbot.com 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로