$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

딥러닝과 분산컴퓨팅을 이용한 전자상거래에서의 대용량 상품 데이터 카테고리 분류 원문보기

정보과학회지 = Communications of the Korean Institute of Information Scientists and Engineers, v.34 no.9 = no.328, 2016년, pp.32 - 38  

하정우 (네이버) ,  표현아 (네이버) ,  김정희 (네이버)

초록이 없습니다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 텍스트 분류 문제에 속한다. 본 연구에서는 대규모상품 카테고리를 정확하게 분류하기 위해 분산 컴퓨팅 및 딥러닝을 이용한 방법을 제안하였다. 제안하는 DeepCN 모델은 복수개의 RNN을 이용하여 상품의 세부 메타정보를 학습하고 이를 카테고리 분류에 사용하여 기존의 Bag-of-words 기반 방법에 비하여 매우 개선된 성능을 보였다.
  • 본 연구에서는 두 가지 관점에서 성능을 비교하는 데 첫 번째는 Bag-of-word 기반 방법에 비한 시퀀스 모델링의 효과이며 두 번째는 복수개의 RNN을 사용에 대한효과를 측정하는 것이다. 이에 따라 첫 번째 비교를 위하여 unigram기반의 Bag-of-words 특징 (feature)을 사용하는 Bayesian network (BN_BoW) 모델을 사용하였으며, 두 번째 비교를 위하여 모든 세부메타정보를 하나의 긴 단어 시퀀스로 만들어 이를 하나의 RNN을 사용하는 DCN-1R을 사용하였다.
  • 본 연구에서는 딥러닝을 이용하여 카테고리 계층정보와 같은 사전 지식을 필요로 하지 않고 대규모 상품들의 메타정보로부터 카테고리를 분류하는 모델인 DeepCN을 제안한다. 제안하는 DeepCNe 종단간 (end-to-end) 형태의 딥러닝 모델로서 상품 메타정보로부터 인자 생성을 위한 복수개의 RNN과[13-15] 카테고리 분류를 위한 복수개의 fully comected 계층으로[16] 구성되어 있다.
  • 본 연구에서는 세부 카테고리의 수를 고려하여 효과적인 결과 분석을 위해 상위 카테고리 별로 정확도를 분석하였다. 또한 회사 정책에 따라 일반적으로 사용되는 ''절대 정확도(accuracy)” 대신 “상대 정확도” 诉 를 사용하여 성능을 평가하였다 상대 정확도는 특정 데이터 및 모델의 정확도(〃(。;。))를 6개의 세부 메타정보를 이용한 DeepCN모델 (DCN-6R)의 전체 세부 카테고리에 대한 평균 정확도(矿) 의 비율로 정의된다:
본문요약 정보가 도움이 되었나요?

참고문헌 (17)

  1. Ha, J. W., Pyo, H., and Kim, J. 2016. Large-Scale Item Categorization in e-Commerce Using Multiple Recurrent Neural Networks. In Proc. of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD-2016), 107-115. 2016. 

  2. Shen, D., Ruvini, J.-D., Mukherjee, R., and Sundaresan, N. 2012. A Study of Smoothing Algorithms for Item Categorization on e-Commerce sites. Neurocomputing, 92, 54-60. 

  3. Shen, D., Ruvini, J.-D., Sarwar, B. 2012. Large-scale Item Categorization for e-Commerce. In Proceedings of International Conference on Information and Knowledge Management 2012 (CIKM' 12), 595-604. 

  4. Lee, L. H., Wan, C. H., Rajkumar, R., and Isa, D. 2012. An Enhanced Support Vector Machine Classification Framework by Using Euclidean Distance Function for Text Document Categorization. Applied Intelligence, 37, 1, 80-99. 

  5. Agrawal, R. and Srikant, R. 2001. On Integrating Catalogs. In Proceedings of the 10th International Conference on World Wide Web (WWW 2001), 603-612. 

  6. Dalal, M. K. and Zaveri, M. A. 2011. Automatic Text Classification: a Technical Review. International Journal of Computer Applications, 28, 2, 37-40 

  7. Blei, D. M., Ng, A. Y. and Jordan, M. I. 2003. Latent Dirichlet Allocation. The Journal of Machine Learning Research, 3, 993-1022. 

  8. Paul, M. and Dredze, M. 2012. Factorial LDA: Sparse Multi-Dimensional Text models. In Advances in Neural Information Processing Systems (NIPS 2012), 2582-2590. 

  9. Shen, D., Ruvini, J.-D., Somaiya, M. and Sundaresan, N. 2011. Item Categorization in the e-Commerce Domain. In Proceedings of International Conference on Information and Knowledge Management 2011(CIKM' 11), 1921-1924. 

  10. Bengio, Y., Ducharme, R., Vincent, P., and Janvin, C. 2003. A Neural Probabilistic Language Model. The Journal of Machine Learning Research, 3, 1137-1155. 

  11. Papadimitriou, P., Tsaparas, P., Fuxman, A., and Getoor, L. 2013. TACI: Taxonomy-Aware Catalog Integration. Knowledge and Data Engineering, IEEE Transactions on, 25, 7, 1643-1655. 

  12. Cao, Z., Li, S., Liu, Y., Li, W., and Ji, H. 2015. A Novel Neural Topic Model and Its Supervised Extension. In Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence (AAAI 2015), 2210-2216. 

  13. Lai, S., Xu, L., Liu, K., and Zhao, J. 2015. Recurrent convolutional neural networks for text classification. In Proceedings of Twenty-Ninth AAAI Conference on Artificial Intelligence (AAAI 2015), 2267-2273. 

  14. Graves, A. 2012. Supervised Sequence Labelling with Recurrent Neural Networks, 385. Heidelberg: Springer. 

  15. Mikolov, T., Kombrink, S., Burget, L., Cernocky, J. H., and Khudanpur, S. 2011. Extensions of Recurrent Neural Network Language Model. In Proceedings of 2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP 2011 ), 5528-5531. 

  16. Suykens, J. A., Vandewalle, J. P., and de Moor, B. L. 2012. Artificial Neural Networks for Modelling and Control of Non-Linear systems. Springer Science & Business Media. 

  17. Werbos, P. J. 1990. Backpropagation through Time: What It Does And How to Do It. In Proceedings of the IEEE, 78, 10, 1550-1560. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로