$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

인접성 벡터를 이용한 트리플 지식 그래프의 임베딩 모델 개선
Improving Embedding Model for Triple Knowledge Graph Using Neighborliness Vector 원문보기

한국전자거래학회지 = The Journal of Society for e-Business Studies, v.26 no.3, 2021년, pp.67 - 80  

조새롬 (School of Electrical and Computer Engineering, University of Seoul) ,  김한준 (School of Electrical and Computer Engineering, University of Seoul)

초록
AI-Helper 아이콘AI-Helper

그래프 표현 학습을 위한 노드 임베딩 기법은 그래프 마이닝에서 양질의 결과를 얻는 데 중요한 역할을 한다. 지금까지 대표적인 노드 임베딩 기법은 동종 그래프를 대상으로 연구되었기에, 간선 별로 고유한 의미를 갖는 지식 그래프를 학습하는 데 어려움이 있었다. 이러한 문제를 해결하고자, 기존 Triple2Vec 기법은 지식 그래프의 노드 쌍과 간선을 하나의 노드로 갖는 트리플 그래프를 학습하여 임베딩 모델을 구축한다. 하지만 Triple2Vec 임베딩 모델은 트리플 노드 간 관련성을 단순한 척도로 산정하기 때문에 성능을 높이는데 한계를 가진다. 이에 본 논문은 Triple2Vec 임베딩 모델을 개선하기 위한 그래프 합성곱 신경망 기반의 특징 추출 기법을 제안한다. 제안 기법은 트리플 그래프의 인접성 벡터(Neighborliness Vector)를 추출하여 트리플 그래프에 대해 노드 별로 이웃한 노드 간 관계성을 학습한다. 본 논문은 DBLP, DBpedia, IMDB 데이터셋을 활용한 카테고리 분류 실험을 통해, 제안 기법을 적용한 임베딩 모델이 기존 Triple2Vec 모델보다 우수함을 입증한다.

Abstract AI-Helper 아이콘AI-Helper

The node embedding technique for learning graph representation plays an important role in obtaining good quality results in graph mining. Until now, representative node embedding techniques have been studied for homogeneous graphs, and thus it is difficult to learn knowledge graphs with unique meani...

주제어

표/그림 (8)

참고문헌 (20)

  1. Dong, X., Chawla, N. V., and Swami, A., "metapath2vec: Scalable Representation Learning for Heterogeneous Networks," In Proc. of Int. Conference on Information and Knowledge Management, pp. 135- 144, 2017. 

  2. Fionda, V. and Pirro, G., "Triple2Vec: Learning Triple Embeddings fromKnowledge Graphs," AAAI, 2020. 

  3. Gao, Z., Fu, G., and Ouyang, C., "edge2vec: Representation learning using edge semantics for biomedical knowledge discovery," BMC Bioinformatics, 2019. 

  4. Grover, A. and Leskovec, J., "node2vec: Scalable Feature Learning for Networks," In Proc. of Int. Conference on Knowledge Discovery and Data Mining, pp. 855-864, 2016. 

  5. Hastie, T., Rosset, S., Zhu, J., and Zou, H., "Multi-class AdaBoost," Statistics and Its Interface, Vol. 2, No. 3, pp. 349-360, 2009. 

  6. Hearst, M. A., "Support Vector Machines," IEEE Intelligent Systems, Vol. 13, pp. 18-28, 1998. 

  7. Hwang, S. H. and Kim, D. H., "BERT-based Classification Model for Korean Documents," The Journal of Society for e-Business Studies, Vol. 25, No. 1, 2020. 

  8. Kipf, T. and Welling, M., "Semi-Supervised Classification with Graph Convolutional Networks," Proceedings of the 5th International Conference on Learning Representation, 2017. 

  9. Krizhevsky, A., Sutskever, I., and Hinton, G. E., "ImageNet Classification with Deep Convolutional Neural Networks," NIPs, 2012. 

  10. Lee, S.-E. and Kim, H.-J., "A New Ensemble Machine Learning Technique with Multiple Stacking," The Jounal of Society for e-Business Studies, Vol. 25, No. 3, pp. 1-13, 2020. 

  11. Liaw, A. and Wiener, M., "Classification and Regression by randomForest," R News, Vol. 2/3, pp. 18-22, 2002. 

  12. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J., "Distributed Representations of Words and Phrases and their Compositionality," NIPs, 2013. 

  13. Patil, T. R. and Sherekar, S. S., "Performance analysis of Naive Bayes and J48 classification algorithm for data classification," International Journal of Computer Science and Applications, Vol. 6, No. 2, pp. 256-261, 2013. 

  14. Perozzi, B., Al-Rfou, R., and Skiena, S., "Deepwalk: OnLine Learning of Social rRpresentations," In Proc. of KDD, pp. 701-710, 2014. 

  15. Pirro, G., "Building relatedness explanations from knowledge graphs," ICAR-CNR, 2019. 

  16. Pregibon, D., "Logistic Regression Diagnostics," The Annals of Statistics, Vol. 9, No. 4, pp. 705-724, 1981. 

  17. Scarsell, F., Gori, M., Tsoi, A. C., Hagenbuchner, M., and Monfardini, G., "The Graph Neural Network Model," IEEE Transactions on Neural Networks, Vol. 20, No. 1, pp. 61-80, 2009. 

  18. Schlichtkrull, M., Kipf, T. N., Bloem, P., van den Berg, R., Titov, I., and Welling, M., "Modeling Relational Data with Graph Convolutional Networks," ESWC, pp. 593-607, 2018. 

  19. Song, Y.-Y. and Ying, L. U., "Decision tree methods: applications for classification and prediction," Shanghai Arch Psychiatry, Vol. 27, No. 2, pp. 130-135, 2015. 

  20. Zhang, M.-L. and Zhou, Z.-H., "ML-KNN: A lazy learning approach to multi-label learning," Pattern Recognition, Vol. 40, No. 7, pp. 2038-2048, 2007. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로