$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

스킵연결이 적용된 오토인코더 모델의 클러스터링 성능 분석
Clustering Performance Analysis of Autoencoder with Skip Connection 원문보기

정보처리학회논문지. KIPS transactions on software and data engineering. 소프트웨어 및 데이터 공학, v.9 no.12, 2020년, pp.403 - 410  

조인수 (단국대학교 컴퓨터공학부) ,  강윤희 (백석대학교 ICT학부) ,  최동빈 (단국대학교 컴퓨터공학부) ,  박용범 (단국대학교 소프트웨어학과)

초록
AI-Helper 아이콘AI-Helper

오토인코더의 데이터 복원(Output result) 기능을 이용한 노이즈 제거 및 초해상도와 같은 연구가 진행되는 가운데 오토인코더의 차원 축소 기능을 이용한 클러스터링의 성능 향상에 대한 연구도 활발히 진행되고 있다. 오토인코더를 이용한 클러스터링 기능과 데이터 복원 기능은 모두 동일한 학습을 통해 성능을 향상시킨다는 공통점이 있다. 본 논문은 이런 특징을 토대로, 데이터 복원 성능이 뛰어나도록 설계된 오토인코더 모델이 클러스터링 성능 또한 뛰어난지 알아보기 위한 실험을 진행했다. 데이터 복원 성능이 뛰어난 오토인코더를 설계하기 위해서 스킵연결(Skip connection) 기법을 사용했다. 스킵연결 기법은 기울기 소실(Vanishing gradient)현상을 해소해주고 모델의 학습 효율을 높인다는 장점을 가지고 있을 뿐만 아니라, 데이터 복원 시 손실된 정보를 보완해 줌으로써 데이터 복원 성능을 높이는 효과도 가지고 있다. 스킵연결이 적용된 오토인코더 모델과 적용되지 않은 모델의 데이터 복원 성능과 클러스터링 성능을 그래프와 시각적 추출물을 통해 결과를 비교해 보니, 데이터 복원 성능은 올랐지만 클러스터링 성능은 떨어지는 결과를 확인했다. 이 결과는 오토인코더와 같은 신경망 모델이 출력된 결과 성능이 좋다고 해서 각 레이어들이 데이터의 특징을 모두 잘 학습했다고 확신할 수 없음을 알려준다. 마지막으로 클러스터링의 성능을 좌우하는 잠재변수(latent code)와 스킵연결의 관계를 분석하여 실험 결과의 원인에 대해 파악하였고, 파악한 결과를 통해 잠재변수와 스킵연결의 특징정보를 이용해 클러스터링의 성능저하 현상을 보완할 수 있다는 사실을 보였다. 이 연구는 한자 유니코드 문제를 클러스터링 기법을 이용해 해결하고자 클러스터링 성능 향상을 위한 선행연구이다.

Abstract AI-Helper 아이콘AI-Helper

In addition to the research on noise removal and super-resolution using the data restoration (Output result) function of Autoencoder, research on the performance improvement of clustering using the dimension reduction function of autoencoder are actively being conducted. The clustering function and ...

주제어

표/그림 (14)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 이 실험은 Resnet에서 실행한 실험과는 달리깊은 신경망을 사용하지 않아 더 세밀한 특징 학습이 불가능한 상태이다. 따라서 이 실험은 깊은 학습과 관계없이 스킵연결을 이용해 인코더와 디코더와의 대칭적 연결을 함으로써데이터 복원 성능의 변화를 보고자 하는 실험이다.
  • 하지만 정작 스킵 연결기법이 잠재변수가 데이터의 특징을 학습하는데 있어 어떤 영향을 끼치는지 정확히 제시하고 있지 않다. 본 논문은 스킵 연결의 사용이 잠재변수 학습에 미치는 영향을 실험을 통해 보여준다. 스킵연결 기법을 적용한 오토인코더 모델과 적용하지 않은 모델을 가지고 데이터 복원 성능과 클러스터링 성능을 비교하는 실험을 통해 두 성능이 반드시 비례하지 않음을 실험결과를 통해 밝혔다.
  • 높다는 연구 결과가 있다[14]. 이 논문에서는 스킵연결기법을 적용한 모델과 적용하지 않은 모델을 활용하여 각각 클러스터링 성능과 데이터 복원 성능을 비교하는 실험을 통해, 앞에서 전재로 한 가정의 사실여부를 확인하였다. Table 1은실험에 쓰인 컴퓨팅파워와 오픈플랫폼 정보를 나타낸다.
  • 이 논문은 하나의 라벨 내에 여러 이미지를 포함하는 한자유니코드의 문제를 클러스터링 기법으로 해결하기 위한 선행논문으로써[16], 클러스터링 성능이 높은 오토인코더 모델을설계하는데 기여한다.
  • 결국, 잠재변수의 정보는 데이터를 복원하는 역할에 있어서 영향력이 저조하기 때문에 스킵연결로부터 받은 정보가 복원되는 것을 보조하는 역할 밖에 하지 못한다. 이를 바탕으로 스킵연결을보조하는 정도로 학습된 잠재변수에 스킵연결의 특징 정보가합쳐진 상태로 클러스터링을 수행한다면 클러스터링의 성능이 올라갈 것인지 실험했다. Fig.

가설 설정

  • 4에서는 일반 오토인코더 모델을 가지고 실험하여, 데이터 복원 성능이 증가하면 클러스터링 성능도 같이 증가함을 보였다. 이 결과를 통해서 데이터 복원 성능을 높이는 것을 목표로 설계한 오토인코더 모델이 클러스터링 성능도향상시킬 수 있을 것이라는 가정을 세우고 실험을 진행했다.
본문요약 정보가 도움이 되었나요?

참고문헌 (25)

  1. C. Ding and X. He. "K-means clustering and principal component analysis." ICML, 2004. 

  2. R. Raskin and H. Terry, "A principal components analysis of the Narcissistic Personality Inventory and further evidence of its construct validlity," Journal of Personality and Social Psychology, Vol.54, pp.890-902, 1988. 

  3. van der Maaten, L. and Hinton, G. "Visualizing data using t-sne," Journal of Machine Learning Research, Vol.9, 2008. 

  4. G. E. Hinton and S. T. Roweis. "Stochastic Neighbor Embedding," In Advances in Neural Information Processing Systems, Vol.15, pp.833-840, Cambridge, MA, USA, 2002. The MIT Press. 

  5. X., Peng, J. Feng, J. Lu, W. Y. Yau, and Z. Yi, "Cascade subspace clustering," In: AAAI Conference on Artificial Intelligence (AAAI). pp.2478-2484, 2017. 

  6. X. Peng, S. Xiao, J. Feng, W.Y. Yau, and Z. Yi, "Deep subspace clustering with sparsity prior," In: International Joint Conference on Artificial Intelligence (IJCAI), 2016. 

  7. J. Xie, R. Girshick, and A. Farhadi, "Unsupervised deep embedding for clustering analysis," In: International Conference on Machine Learning (ICML) (2016). 

  8. H. Liu, R. Xiong, J. Zhang, and W. Gao, "Image denoising viaadaptive soft-thresholding based on non-local samples," in 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp.484-492. 

  9. F. Chen, L. Zhang, and H. Yu, "External patch prior guided internal clustering for image denoising," in 2015 IEEE International Conference on Computer Vision (ICCV), pp.603-611, 2015. 

  10. R. Timofte, V. D. Smet, and L. J. V. Gool, "A+: adjusted anchored neighborhood regression for fast superresolution," in Proc. Asian Conf. Comp. Vis., pp.111-126, 2014. 

  11. J. Yang, Z. Lin, and S. Cohen, "Fast image super-resolution based on in-place example regression," in 2013 IEEE Conference on Computer Vision and Pattern Recognition, pp.1059-1066, 2013. 

  12. M. A. Kramer, "Autoassociative neural networks," Computers & Chemical Engineering, Vol.16, No.4, pp.313-328, 1992. 

  13. Xiao-Jiao Mao, Chunhua Shen, and Yu-Bin Yang, "Image restoration using convolutional autoencoders with symmetric skip connections," CoRR, abs/1606.08921, 2016a. 

  14. J. Long, E. Shelhamer, and T. Darrell, "Fully convolutional networks for semantic segmentation," In Computer Vision and Pattern Recognition, 2015. 

  15. K. He, X. Zhang, S. Ren, and J. Sun, "Deep residual learning for image recognition," In Computer Vision and Pattern Recognition, 2016 

  16. Jeonghyeon Lee, "Problems with Chinese Ideographs Search in Unicode and Solutions to Them," Informatization Policy, Vol.19, No.3, pp.50-63, 2012. 

  17. P. Vincent, H. Larochelle, Y. Bengio, P. A. Manzagol, "Extracting and composing robust features with denoising autoencoders," In: International Conference on Machine learning, pp.1096-1103, 2008. 

  18. K. He, G. Gkioxari, P. Dollar, and R. Girshick, "Mask r-cnn," arXiv:1703.06870, 2017. 

  19. G. Montufar, R. Pascanu, K. Cho, and Y. Bengio, "On the number of linear regions of deep neural networks," In Neural Information Processing Systems, 27, 2014. 

  20. H. Xiao, K. Rasul, and R. Vollgraf. Fashion-mnist: "a novel image dataset for benchmarking machine learning algorithms," arXiv preprint arXiv:1708.07747, 2017. 

  21. P. Grother, "NIST special database 19 handprinted forms and characters database," National Institute of Standards and Technology, 1995. 

  22. Hochreiter, S. "The vanishing gradient problem during learning recurrent neural nets and problem solutions," International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, Vol.6, No.2, pp.107-116, 1998. 

  23. X. Huo, X. Liu, E. Zheand and J. Yin, "Deep Clustering with Convolutional auto-encoders, International Conference on Neural Information Processing, pp.373-382, 2017. 

  24. P. Ji, T. Zhang, H. Li, M. Salzmann, and I. Reid, "Deep subspace clustering networks," in Neural Information Processing Systems, QC, Canada, pp.24-33, Dec. 2017. 

  25. S. Yang, W. Zhu, and Y. Zhu, "Residual encoder-decoder network for deep subspace clustering," arXiv:1910.05569, 2019, [online] Available: https://arxiv.org/abs/1910.05569 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로