$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

초록이 없습니다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

제안 방법

  • 공유메모리에서 OpenMP를 이용한 병렬화를 적용하였다. 사실 OpenMP의 pragma 지시어는 인텔 제온파이 코프로세서에서도 쉽게 병렬화 루틴을 지원해준다.
  • 실제로 2016년 3월 한국에서 있었던 알파고와 이세돌 9단의 바둑대결은 딥러닝 기반 인공지능 알고리즘이 얼마나 복잡하고 고난이도문제 해결에 영향을 줄 수 있음을 잘 보여주었다[2]. 또한 구글은 알파고 프로젝트 성공에 머물러있지 않고 최근 자사 오프소스 딥러닝 소프트웨어인 텐서플로우(Tensoflow)를[3] 공개하였다.
  • 나타낸 것이다. 선형 주성분분석 PCA 코드를 사용하였고[7], 제온 파이를 이용한 병렬화는 호스트 메모리의 데이터를 제온 파이 메모리로 명시적인 복사 명령어를 사용하는 오프로드 기법을 적용하였다. 딥러닝 알고리즘의 병렬화는 데이터 병렬화 방법으로 했으며, 각 샘플을 독립적인 이벤트로 취급하면 각 프로세스 사이의 데이터 통신은 없이 거의 선형의 병렬성능 확장성을 얻을 수 있는 방법이다.
  • 그 이유는 시그모이드 함수를 사용할 경우 딥러닝에 사용하는 많은 수의 은닉층을 사용할 경우 최적의 비용함수를 계산하는 과정에서 기울기-사라짐 문제가 발생하기 때문이다. 이 문제를 해결하기 위한 방안으로 선형 활성함수인 ReLU, 즉 八h) = max(O, /i)를 사용한다. 이 선형의 ReLU를 사용하면 시그모이드에 비교하여 계산 속도를 향상 시킬 수 있으며 또한 비용함수 최적화 과정에서 발생하는 기울기 사라짐 문제를 개선할 수 있다.
  • 병렬프로그래밍기법은 우선 CPU에 있는 메모리에서 제온 파이 메모리로 데이터를 복사한다. 이후 제온 파이 244개 스레드를 이용하여 병렬화 프로그램인 OpenMP를 사용하여 병렬화를 하였다. 딥러닝 오토인코더 시뮬레이션 결과는 전체 이론성능의 약 50%에 해당하는 1.

대상 데이터

  • 인텔 제온 파이 디바이스에 대하여 자세히 설명하면, 사용된 7120 모델은 61개의 스레드 코어를 가지고 있으며 각각의 코어는 4개 까지 하이퍼스레딩을 할 수 있어서 총 244개의 스레드를 사용할 수 있다. 파이 아키텍처에서 주 메모리와 레지스터 사이의 대역폭은 352 GB/s이다.

이론/모형

  • 본 연구에서는 딥러닝 알고리즘의 병렬성능 향상을 위해서 최신 인텔 제온 파이 코프로세세6] 아키텍처를 사용하였다. 사용한 데이터는 임의의 난수를 발생한 단정도 값을 사용하였다.
  • 사용한 데이터는 임의의 난수를 발생한 단정도 값을 사용하였다. 이번에 성능시험에 사용한 알고리즘은 딥러닝 오픈 코드 중 하나인 오토인코더를 사용하였다. 인텔 제온 파이 디바이스에서 병렬화는 오프로드(Offload), Native, Symmetric 등 3가지 방법이 있지만, 여기서는 오프로드 방법을 사용한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (7)

  1. Xiaolei Ma, Haiyang Yu, Yunpeng Wang, Yinhai Wang, Large-Scale Transportation Network Congestion Evolution Prediction Using Deep Learning Theory, PLOS ONE, 10(3), 2015. 

  2. David Silver, et al. Mastering the game of Go with deep neural networks and tree search, Nature, 529, 484-489 (2016) 

  3. https://www.tensorflow.org/ 

  4. Hinton, Geoffrey E., and Ruslan R. Salakhutdinov. "Reducing the dimensionality of data with neural networks." Science 313.5786 (2006): 504-507. 

  5. Y. Bengio, P. Lamblin, D. Popovici, and H. Larochelle. Greedy layer-wise training of deep networks. 

  6. J. Rendeirs, An Overview of Programming for Intel Xeon processors and Intel Xeon Phi coprocessors, 2015 Available: print 

  7. L. Jin, Z. Wang, R. Gu, C. Yuan and Y. Huang, "Training large scale deep neural networks on the intel xeon phi many-core coprocessor", IPDPS Workshops, pp. 1622-1630 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로