$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 딥러닝 기반의 딥 클러스터링 방법에 대한 분석
Analysis of deep learning-based deep clustering method 원문보기

융합보안논문지 = Convergence security journal, v.23 no.4, 2023년, pp.61 - 70  

권현 (육군사관학교 AI.데이터과학과) ,  이준 (호서대학교 게임소프트웨어학과)

초록
AI-Helper 아이콘AI-Helper

클러스터링은 데이터의 정답값(실제값)이 없는 데이터를 기반으로 데이터의 특징벡터의 거리 기반 등으로 군집화를 하는 비지도학습 방법이다. 이 방법은 이미지, 텍스트, 음성 등 다양한 데이터에 대해서 라벨링이 없이 적용할 수 있다는 장점이 있다. 기존 클러스터링을 하기 위해 차원축소 기법을 적용하거나 특정 특징만을 추출하여 군집화하는 방법이 적용되었다. 하지만 딥러닝 기반 모델이 발전하면서 입력 데이터를 잠재 벡터로 표현하는 오토인코더, 생성 적대적 네트워크 등을 통해서 딥 클러스터링의 기술이 연구가 되고 있다. 본 연구에서, 딥러닝 기반의 딥 클러스터링 기법을 제안하였다. 이 방법에서 오토인코더를 이용하여 입력 데이터를 잠재 벡터로 변환하고 이 잠재 벡터를 클러스터 구조에 맞게 벡터 공간을 구성 및 k-평균 클러스터링을 하였다. 실험 환경으로 pytorch 머신러닝 라이브러리를 이용하여 데이터셋으로 MNIST와 Fashion-MNIST을 적용하였다. 모델로는 컨볼루션 신경망 기반인 오토인코더 모델을 사용하였다. 실험결과로 k가 10일 때, MNIST에 대해서 89.42% 정확도를 가졌으며 Fashion-MNIST에 대해서 56.64% 정확도를 가진다.

Abstract AI-Helper 아이콘AI-Helper

Clustering is an unsupervised learning method that involves grouping data based on features such as distance metrics, using data without known labels or ground truth values. This method has the advantage of being applicable to various types of data, including images, text, and audio, without the nee...

Keyword

표/그림 (9)

AI 본문요약
AI-Helper 아이콘 AI-Helper

제안 방법

  • 이 논문에서 우리는 딥러닝 기반의 딥 클러스터링에 대한 성능분석을 하였다. 이 방법에서 컨볼루션 모델(Convolution neural network)[9]을 이용하여 입력 데이터를 잠재 벡터로 형성하고 이잠재 벡터를 클러스터링하는 방법에 대해서 분석을 하였다.
  • 이 논문에서 우리는 딥러닝 기반의 딥 클러스터링에 대한 성능분석을 하였다. 이 방법에서 컨볼루션 모델(Convolution neural network)[9]을 이용하여 입력 데이터를 잠재 벡터로 형성하고 이잠재 벡터를 클러스터링하는 방법에 대해서 분석을 하였다.
  • 이 연구의 공헌점은 다음과 같다. 첫번째로, 딥러닝 기반의 딥 클러스터링에 대한 구조와 동작 원리에 대해서 분석하였다. 또한, 국방적용 가능 분야에 대해서도 분석을 하였다.
  • 세 번째로, 딥러닝 기반의 딥 클러스터링의 성능 분석을 위해서 MNIST[10]와 Fashion-MNIST[11]에 대해서 분석을 하였고 타겟 모델은 컨볼루션 모델 기반의 오토인코더로 하였다.
  • 두 번째로 세미-지도학습 기반의 딥 클러스터링 방법은 부분적으로 정답값(실제값)이 있는데이터가 있고 부분적으로 정답값이 없는 데이터에 적용될 수 있는 방법이다. 이 방법은 정답값이 있는 데이터를 이용한 방법으로 손실함수구성시 정답값에 해당되는 제약조건의 정보를한개를 더 추가하여 손실함수를 구축하여 이 손실함수를 최소화하여 잠재 벡터를 생성하는 방법을 제안한다. 이 방법은 기존 정답값이 있는데이터를 통해서 좀 더 향상된 딥 클러스터링의성능을 가져올 수가 있다.
  • 세 번째로, 멀티 뷰 학습 기반 딥 클러스터링은 서로다른 딥러닝 모델에서 입력 데이터에대한 각각의 잠재 벡터를 구성한다. 이 방법은다양한 모델에서 나온 입력 데이터에 대한 잠재벡터를 이용하여 싱글 뷰 딥 클러스터링 기반에각각 방법들을 앙상블로 구성한다.
  • 이 섹션에서 k개에 따른 MNIST와 Fashion-MNIST에 대한 딥 클러스터링의 시각화 및 epoech에 따른 정확도를 보여준다. 또한, 활성화 함수에 따른 성능에 대한 분석을 하였다.
  • 이 논문에서 우리는 딥러닝 기반의 딥 클러스터링에 대한 성능분석을 하였다. 이 방법에서 컨볼루션 모델(Convolution neural network)기반의 오토인코더를 이용하여 입력 데이터를 잠재 벡터로 형성하고 이 잠재 벡터를 클러스터링하는 방법에 대해서 분석을 하였다. 실험결과로 k가 10일때, MNIST에 대해서 89.

대상 데이터

  • 데이터셋은 MNIST[10]와 Fashion-MNIST[11]을 사용하였다. MNIST는 손글씨 데이터셋으로 0부터 9까지의 숫자데이터셋이다.

데이터처리

  • 첫번째로, 딥러닝 기반의 딥 클러스터링에 대한 구조와 동작 원리에 대해서 분석하였다. 또한, 국방적용 가능 분야에 대해서도 분석을 하였다.
  • 두 번째로, 딥러닝 모델을 통해서 입력데이터를 잠재 벡터를 변환하고 변화된 벡터를 K-mean 평균으로 시각화하고 성능을 측정하였다. 또한, 활성화 함수에 따른 성능차이에 대해서 분석을 하였다.
  • 두 번째로, 딥러닝 모델을 통해서 입력데이터를 잠재 벡터를 변환하고 변화된 벡터를 K-mean 평균으로 시각화하고 성능을 측정하였다. 또한, 활성화 함수에 따른 성능차이에 대해서 분석을 하였다.

이론/모형

  • 통상 차원 축소 방법을 적용하거나 특정 특징들만 추출하는 방법들이 적용되지만 최근 딥러닝 모델을 이용하여 데이터를 특징벡터로 압축하여 표현하는 방법들이 있다. 딥러닝 기반에서 특징벡터로 압축하는 방식으로 오토인코더(Autoencoder) 방법[8]이 사용된다. 오토인코더 방식은 인코더(encoder), 잠재 벡터(latent vector), 디코어(decoder)로 구성되어 있으며 인코더로 입력값을 압축하여 잠재 벡터를 생성한다.
  • 이 논문에서 우리는 딥러닝 기반의 딥 클러스터링에 대한 성능분석을 하였다. 이 방법에서 컨볼루션 모델(Convolution neural network)[9]을 이용하여 입력 데이터를 잠재 벡터로 형성하고 이잠재 벡터를 클러스터링하는 방법에 대해서 분석을 하였다. 기존 연구에서 클러스터링을 하기 위해 딥러닝 기반이 아닌 차원 축소 방법 등을 이용하여 사용자가 정한 특징들에 대해서만 벡터 공간에 표현을 해야 했기 때문에 사용자가 특징들을 잘못 선정할 경우, 클러스터링의 성능이 저하되는 문제가 있다.
  • 이 연구에서는 싱글 뷰 학습 기반 딥 클러스터링 방법[18]을 적용하여 오토인코더를 이용하여 잠재 벡터를 형성한다. 이 잠재 벡터를 클러스터 구조를 반영하기 위해 직교행렬을 곱하여 새로운 벡터로 표현 하고 k-평균 기법을 적용한 클러스터링 방법이다.
본문요약 정보가 도움이 되었나요?

참고문헌 (20)

  1. Ezugwu, Absalom E., et al. "A comprehensive?survey of clustering algorithms: State-of-the-art?machine learning applications, taxonomy,?challenges, and future research prospects."?Engineering Applications of Artificial Intelligence 110 (2022): 104743. 

  2. Zada, Islam, et al. "Performance evaluation?of simple K-mean and parallel K-mean?clustering algorithms: big data business process?management concept." Mobile Information?Systems 2022 (2022): 1-15. 

  3. Varshney, Ayush K., Pranab K. Muhuri,?and QM Danish Lohani. "PIFHC: The?probabilistic intuitionistic fuzzy hierarchical?clustering algorithm." Applied Soft Computing 120 (2022): 108584. 

  4. Shu, Hua, et al. "Density-based clustering?for bivariate-flow data." International Journal?of Geographical Information Science 36.9 (2022): 1809-1829. 

  5. Myles, Anthony J., et al. "An introduction to?decision tree modeling." Journal of Chemometrics:?A Journal of the Chemometrics Society 18.6 (2004): 275-285. 

  6. Podani, Janos, and Denes Schmera. "On?dendrogram-based measures of functional?diversity." Oikos 115.1 (2006): 179-185. 

  7. Cunningham, Padraig. "Dimension reduction."?Machine learning techniques for multimedia:?Case studies on organization and retrieval (2008): 91-112. 

  8. Bank, Dor, Noam Koenigstein, and Raja?Giryes. "Autoencoders." arXiv preprint arXiv: 2003.05991 (2020). 

  9. Yamashita, Rikiya, et al. "Convolutional?neural networks: an overview and application?in radiology." Insights into imaging 9 (2018): 611-629. 

  10. Liu, Jie, and Chenghua Fu. "MNIST data?set recognition research based on TensorFlow?framework." International Core Journal of?Engineering 7.2 (2021): 410-414. 

  11. Xiao, Han, Kashif Rasul, and Roland Vollgraf.?"Fashion-mnist: a novel image dataset for?benchmarking machine learning algorithms."?arXiv preprint arXiv:1708.07747 (2017). 

  12. Bengio Yoshua, Courville Aaron, and Vincent?Pascal. Representation learning: a review?and new perspectives. TPAMI, 35(8):1798-1828, 2013. 

  13. Geoffrey E Hinton and Ruslan R Salakhutdinov.?Reducing the dimensionality of data with?neural networks. Science, 313(5786):504-507, 2006. 

  14. Olivier Chapelle and Alexander Zien. Semisupervised?classification by low density?separation. In AISTATS, volume 2005,?pages 57-64. Citeseer, 2005. 

  15. Kamalika Chaudhuri, Sham M Kakade, Karen?Livescu, and Karthik Sridharan. Multiview?clusieee t neur net lear. In ICML,?pages 129-136, 2009. 

  16. Yazhou Ren, Shudong Huang, Peng Zhao,?Minghao Han, and Zenglin Xu. Self-paced?and auto-weighted multi-view clustering.?Neurocomputing, 383:248-256, 2019. 

  17. Sinno Jialin Pan and Qiang Yang. A survey?on transfer learning. KDE, 22(10):1345-1359, 2010. 

  18. Guo, Wengang, Kaiyan Lin, and Wei Ye.?"Deep embedded K-means clustering."?2021 International Conference on Data?Mining Workshops (ICDMW). IEEE, 2021. 

  19. Imambi, Sagar, Kolla Bhanu Prakash, and?G. R. Kanagachidambaresan. "PyTorch."?Programming with TensorFlow: Solution?for Edge Computing Applications (2021): 87-104. 

  20. Monnier, Tom, Thibault Groueix, and Mathieu?Aubry. "Deep transformation-invariant?clustering." Advances in Neural Information?Processing Systems 33 (2020): 7945-7955. 

활용도 분석정보

상세보기
다운로드
내보내기

활용도 Top5 논문

해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로