최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국콘텐츠학회논문지 = The Journal of the Korea Contents Association, v.18 no.7, 2018년, pp.495 - 502
김현우 (한국외국어대학교 컴퓨터, 전자시스템공학부) , 정유진 (한국외국어대학교 컴퓨터, 전자시스템공학부)
The advent of deep learning technology has made rapid progress in handwritten letter recognition in many languages. Handwritten Chinese recognition has improved to 97.2% accuracy while handwritten Japanese recognition approached 99.53% percent accuracy. Hanguel handwritten letters have many similar ...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
한글 필기체 데이터 보유 현황은 어떠한가? | 한글 필기체 데이터베이스는 PE92와 SERI95a 그리고 전자정보연구센터에서 보유한 213만개의 필기체 데이터가 있다. PE92는 자주 사용되는 2350개의 클래스와 각 클래스 당 100개의 데이터를 가지고 있다. SERI95a는 PE92보다 적은 520개의 클래스와 클래스 당 1000개의 데이터를 가지고 있다. 전자정보연구센터에서 보유한 필기체 데이터는 9개의 세트가 존재하며 각 세트마다 서로 다른 클래스와 데이터 수를 보유하고 있다. | |
딥러닝 기법 중 하나인, GoogLenet의 특징은 무엇인가? | GoogLenet은 주로 사람이나 자동차와 같이 큰 이미지를 분류하는 네트워크로 299×299의 그리드와 색을 표현하기 위한 3(RGB)개의 채널을 사용한다. 그러나 한글 필기체 데이터베이스는 평균 그리드가 60×60이고, 흑백이미지인 1채널 데이터이므로 기존 네트워크를 그대로 사용하면 한글 필기체 이미지의 그리드나 채널에 적합하지 않으며 이 차이로 인해 네트워크에 무의미한 차원이 추가되고 이는 네트워크를 무겁게 하여 자원의 낭비를 발생시켰다. | |
옵티마이저로 Adam을 사용할 때, 학습률을 고정된 값(예:0.001)을 사용했을 경우 발생하는 문제는 무엇인가? | 001로 잡고 학습을 하지만 학습시간이 길어지게 되면 어느 시점에서 학습을 하여도 시험 정확도가 제자리걸음을 하게 된다. 이와 같은 고정된 학습률은 세대가 길어질수록 고정되어 loss 그래프에 대해 최적의 위치를 찾기 어려워지기 때문인데 이를 해결하기 위해 너무 작은 학습률을 사용하게 되면 네트워크 오류 값이 지역 최소 오류 값(local optimization)에 수렴하여 모델의 전체 최소 오류 값(global optimization)을 찾을 수 없게 된다. 따라서 최적의 학습률을 찾기 위해 다양한 테스트를 해보았다. |
In-Jung Kim and Xiaohui Xie, "Handwritten Hangul recognition using deep convolutional neural networks," International Journal on Document Analysis and Recognition (IJDAR), Vol.18, No.1, pp.1-13, 2015.
In-Jung Kim, Changbeom Choi, and Sang-Heon Lee, "Improving discrimination ability of convolutional neural networks by hybrid learning," International Journal on Document Analysis and Recognition (IJDAR), Vol.19, No.1, pp.1-9, 2016.
Weixin Yang, Lianwen Jin, Zecheng Xie, and Ziyong Feng, "Improved deep convolutional neural network for online handwritten Chinese character recognition using domain-specific knowledge," Document Analysis and Recognition (ICDAR), pp.551-555, 2015.
Charlie Tsai, Recognizing Handwritten Japanese Characters Using Deep Convolutional Neural Networks, Technical Report, Stanford University, pp.1-7, 2016.
Yann LeCun, Leon Bottou, Yoshua Bengio, and Patrick Haffner, "Gradient- based learning applied to document recognition," Proceedings of the IEEE, Vol.86, No.11, pp.2278-2324, 1998.
강우영, 김병희, 장병탁, "인셉션 모듈 기반의 보다 깊은 컨볼루션 신경망을 통한 한글 필기체 인식," 한국정보과학회 학술발표논문집, pp.883-885, 2016.
Christian Szegedy, Wei Liu, Yangquing Jia, and Pierre Sermanet, Scott Reed, "Going deeper with convolutions," Proceedings of the IEEE conference on computer vision and pattern recognition, pp1-9, 2015(6).
Christian Szegedy, Vincent Vanhoucke. Sergey Ioffe, and Jon Shlens, "Rethinking the inception architecture for computer vision," Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.2818-2826, 2016.
Kaiming He, Xiangyu, Zhang, Shaoquing Ren, and Jian Sun, "Deep residual learning for image recognition," Proceedings of the IEEE conference on computer vision and pattern recognition, pp.770-778, 2016.
Vinod Nair and Geoffrey E. Hinton, "Rectified linear units improve restricted boltzmann machines," Proceedings of the 27th international conference on machine learning (ICML-10), pp.807-814, 2010.
Zhou Wang and Alan C. Bovik, "Mean squared error: Love it or leave it? A new look at signal fidelity measures," IEEE signal processing magazine, Vol.26, No.1, pp.98-117, 2009.
Pieter-Tjerk De Boer, Dirk P. Kroese, Shie Mannor, and Reuven Y. Rubinstein, "A tutorial on the cross-entropy method," Annals of operations research, Vol.134, No.1, pp.19-67, 2005.
Diederik P. Kingma and Jimmy Ba, "Adam: A method for stochastic optimization," arXiv preprint arXiv:1412.6980, 2014.
Sergey Ioffe and Christian Szegedy, "Batch normalization: Accelerating deep network training by reducing internal covariate shift," arXiv preprint arXiv:1502.03167, 2015.
Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Rusian Salakhutdinov, "Dropout: a simple way to prevent neural networks from overfitting," Journal of machine learning research, Vol.15, No.1, pp.1929-1958, 2014.
Ankit Sharma and Dipti R. Chaudhary, "Character recognition using neural network," International Journal of Engineering Trends and Technology (IJETT), Vol.4, pp.662-667, 2013.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.