$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

GoogLenet 기반의 딥 러닝을 이용한 향상된 한글 필기체 인식
Improved Handwritten Hangeul Recognition using Deep Learning based on GoogLenet 원문보기

한국콘텐츠학회논문지 = The Journal of the Korea Contents Association, v.18 no.7, 2018년, pp.495 - 502  

김현우 (한국외국어대학교 컴퓨터, 전자시스템공학부) ,  정유진 (한국외국어대학교 컴퓨터, 전자시스템공학부)

초록
AI-Helper 아이콘AI-Helper

딥 러닝 기술의 등장으로 여러 나라의 필기체 인식은 높은 정확도 (중국어 필기체 인식은 97.2%, 일본어 필기체 인식은 99.53%)를 보인다. 하지만 한글 필기체는 한글의 특성으로 유사글자가 많은데 비해 문자의 데이터 수는 적어 글자 인식에 어려움이 있다. 하이브리드 러닝을 통한 한글 필기체 인식에서는 lenet을 기반으로 하여 낮은 레이어를 가진 모델을 사용하여 한글 필기체 데이터베이스 PE92에서 96.34%의 정확도를 보여주었다. 본 논문에서는 하이브리드 러닝에서 사용하였던 데이터 확장 기법(data augmentation)이나 multitasking을 사용하지 않고도 GoogLenet 네트워크를 기본으로 한글 필기체 데이터에 적합한 더 깊고 더 넓은 CNN(Convolution Neural Network) 네트워크를 도입하여 PE92 데이터베이스에서 98.64%의 정확도를 얻었다.

Abstract AI-Helper 아이콘AI-Helper

The advent of deep learning technology has made rapid progress in handwritten letter recognition in many languages. Handwritten Chinese recognition has improved to 97.2% accuracy while handwritten Japanese recognition approached 99.53% percent accuracy. Hanguel handwritten letters have many similar ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 이와 같은 고정된 학습률은 세대가 길어질수록 고정되어 loss 그래프에 대해 최적의 위치를 찾기 어려워지기 때문인데 이를 해결하기 위해  너무 작은 학습률을 사용하게 되면 네트워크 오류 값이 지역 최소 오류 값(local optimization)에 수렴하여 모델의 전체 최소 오류 값(global optimization)을 찾을 수 없게 된다. 따라서 최적의 학습률을 찾기 위해 다양한 테스트를 해보았다. 테스트를 위해 학습률을 2개 고정된 값과 3가지 천천히 감소하는 방법을 사용하였다.
  • 이에, GoogLenet[7][8], Resnet[9] 등의 깊은 네트워크가 개발되어 이미지 인식에 우수한 성능을 보였다. 본 논문에서는 GoogLenet을 한글 필기체 인식에 맞도록 개선하였다.
  • 0)을 사용하여 연구를 진행하였다. 본 논문에서는 논문[1][2]의 elastic distortion, hybrid learning을 제외한 순수 네트워크만의 성능만을 비교하였으며 [1][2]에서 사용된 네트워크를 Hybrid_model이라 표기한다. 네트워크의 성능은 평균 오차률(Cross Entropy loss), 그리고 모델을 통해 나온 가정 값과 실제 정답과의 정확도(accuracy)을 사용해 비교한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
한글 필기체 데이터 보유 현황은 어떠한가? 한글 필기체 데이터베이스는 PE92와 SERI95a 그리고 전자정보연구센터에서 보유한 213만개의 필기체 데이터가 있다. PE92는 자주 사용되는 2350개의 클래스와 각 클래스 당 100개의 데이터를 가지고 있다. SERI95a는 PE92보다 적은 520개의 클래스와 클래스 당 1000개의 데이터를 가지고 있다. 전자정보연구센터에서 보유한 필기체 데이터는 9개의 세트가 존재하며 각 세트마다 서로 다른 클래스와 데이터 수를 보유하고 있다.
딥러닝 기법 중 하나인, GoogLenet의 특징은 무엇인가? GoogLenet은 주로 사람이나 자동차와 같이 큰 이미지를 분류하는 네트워크로 299×299의 그리드와 색을 표현하기 위한 3(RGB)개의 채널을 사용한다. 그러나 한글 필기체 데이터베이스는 평균 그리드가 60×60이고, 흑백이미지인 1채널 데이터이므로 기존 네트워크를 그대로 사용하면 한글 필기체 이미지의 그리드나 채널에 적합하지 않으며 이 차이로 인해 네트워크에 무의미한 차원이 추가되고 이는 네트워크를 무겁게 하여 자원의 낭비를 발생시켰다.
옵티마이저로 Adam을 사용할 때, 학습률을 고정된 값(예:0.001)을 사용했을 경우 발생하는 문제는 무엇인가? 001로 잡고 학습을 하지만 학습시간이 길어지게 되면 어느 시점에서 학습을 하여도 시험 정확도가 제자리걸음을 하게 된다. 이와 같은 고정된 학습률은 세대가 길어질수록 고정되어 loss 그래프에 대해 최적의 위치를 찾기 어려워지기 때문인데 이를 해결하기 위해  너무 작은 학습률을 사용하게 되면 네트워크 오류 값이 지역 최소 오류 값(local optimization)에 수렴하여 모델의 전체 최소 오류 값(global optimization)을 찾을 수 없게 된다. 따라서 최적의 학습률을 찾기 위해 다양한 테스트를 해보았다.
질의응답 정보가 도움이 되었나요?

참고문헌 (16)

  1. In-Jung Kim and Xiaohui Xie, "Handwritten Hangul recognition using deep convolutional neural networks," International Journal on Document Analysis and Recognition (IJDAR), Vol.18, No.1, pp.1-13, 2015. 

  2. In-Jung Kim, Changbeom Choi, and Sang-Heon Lee, "Improving discrimination ability of convolutional neural networks by hybrid learning," International Journal on Document Analysis and Recognition (IJDAR), Vol.19, No.1, pp.1-9, 2016. 

  3. Weixin Yang, Lianwen Jin, Zecheng Xie, and Ziyong Feng, "Improved deep convolutional neural network for online handwritten Chinese character recognition using domain-specific knowledge," Document Analysis and Recognition (ICDAR), pp.551-555, 2015. 

  4. Charlie Tsai, Recognizing Handwritten Japanese Characters Using Deep Convolutional Neural Networks, Technical Report, Stanford University, pp.1-7, 2016. 

  5. Yann LeCun, Leon Bottou, Yoshua Bengio, and Patrick Haffner, "Gradient- based learning applied to document recognition," Proceedings of the IEEE, Vol.86, No.11, pp.2278-2324, 1998. 

  6. 강우영, 김병희, 장병탁, "인셉션 모듈 기반의 보다 깊은 컨볼루션 신경망을 통한 한글 필기체 인식," 한국정보과학회 학술발표논문집, pp.883-885, 2016. 

  7. Christian Szegedy, Wei Liu, Yangquing Jia, and Pierre Sermanet, Scott Reed, "Going deeper with convolutions," Proceedings of the IEEE conference on computer vision and pattern recognition, pp1-9, 2015(6). 

  8. Christian Szegedy, Vincent Vanhoucke. Sergey Ioffe, and Jon Shlens, "Rethinking the inception architecture for computer vision," Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.2818-2826, 2016. 

  9. Kaiming He, Xiangyu, Zhang, Shaoquing Ren, and Jian Sun, "Deep residual learning for image recognition," Proceedings of the IEEE conference on computer vision and pattern recognition, pp.770-778, 2016. 

  10. Vinod Nair and Geoffrey E. Hinton, "Rectified linear units improve restricted boltzmann machines," Proceedings of the 27th international conference on machine learning (ICML-10), pp.807-814, 2010. 

  11. Zhou Wang and Alan C. Bovik, "Mean squared error: Love it or leave it? A new look at signal fidelity measures," IEEE signal processing magazine, Vol.26, No.1, pp.98-117, 2009. 

  12. Pieter-Tjerk De Boer, Dirk P. Kroese, Shie Mannor, and Reuven Y. Rubinstein, "A tutorial on the cross-entropy method," Annals of operations research, Vol.134, No.1, pp.19-67, 2005. 

  13. Diederik P. Kingma and Jimmy Ba, "Adam: A method for stochastic optimization," arXiv preprint arXiv:1412.6980, 2014. 

  14. Sergey Ioffe and Christian Szegedy, "Batch normalization: Accelerating deep network training by reducing internal covariate shift," arXiv preprint arXiv:1502.03167, 2015. 

  15. Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Rusian Salakhutdinov, "Dropout: a simple way to prevent neural networks from overfitting," Journal of machine learning research, Vol.15, No.1, pp.1929-1958, 2014. 

  16. Ankit Sharma and Dipti R. Chaudhary, "Character recognition using neural network," International Journal of Engineering Trends and Technology (IJETT), Vol.4, pp.662-667, 2013. 

저자의 다른 논문 :

LOADING...
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로