$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

초록
AI-Helper 아이콘AI-Helper

차세대 무선통신 시스템에서 다중 경로 페이딩의 영향을 효율적으로 감소시키기 위한 방법으로 최근 협력통신 시스템이 각광을 받고 있다. 협력통신 시스템은 정보를 전송하기 위해서 다양한 페이딩 계수를 가지고 있는 협력 릴레이를 사용하기 때문에, 모든 릴레이를 협력통신에 참여 시키는 것은 자원의 낭비를 초래한다. 그러므로 무선자원을 효율적으로 사용하기 위해서는 최적의 릴레이를 선택적으로 사용할 필요가 있다. 본 논문에서는 무선 협력통신 네트워크에서 발생하는 이러한 문제를 해결하기 위하여 Q-Learning 알고리즘을 이용한 협력 릴레이 선택 기법을 제안한다. Q-Learning에서는 자가 학습을 위해서 상태, 행동, 그리고 보상에 대한 파라미터를 정의한다. 이러한 파라미터가 잘 정의 될 때 Q-Learning을 이용하여 우수한 통신 성능을 얻을 수 있다. Q-Learning 알고리즘의 우수성을 보이기 위해서, 수학적인 분석을 통해서 최적의 협력 릴레이를 얻는 기법과 통신 성능을 비교하였다. 모의실험 결과, 제안된 기법에서 Q-Learning 알고리즘 내의 보상을 주는 방식에 따라, 비교 기법과 유사한 심벌오율 성능을 얻으면서 보다 더 적은 협력 릴레이를 선택하는 것을 보였다. 따라서 본 논문에서 제안된 기법은 다수의 릴레이를 사용하는 차세대 무선통신 시스템의 성능 향상을 위한 좋은 접근 방식의 하나로 판단된다.

Abstract AI-Helper 아이콘AI-Helper

As a scheme to efficiently reduce the effects of multipath fading in next generation wireless communication systems, cooperative communication systems have recently come into the spotlight. Since these cooperative communication systems use cooperative relays with diverse fading coefficients to trans...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 따라서 본 논문에서는 이러한 문제를 해결하기 위한 방안으로 Q-Learning을 이용한 자가 학습 릴레이 선택 기법을 제안하였다. Q-Learning은 기계 학습 분야에서 강화 학습 (Reinforcement Learning)에 속하는 알고리즘 중에 하나로[7], 최근에 또 하나의 차세대 무선통신시스템으로 주목 받고 있는 인지 무선통신 (Cognitive Radio)[8~9]에 적용하는 연구가 많이 진행되고 있다.
  • Q-Learning을 위해서 보상 r을 정의하는 것은 중요한 이슈이다. 본 논문에서는 적은 개수의 협력 릴레이들을 이용하면서, 동시에 우수한 SER 성능을 얻기 위하여 r을 다음 식과 같이 정의한다.
  • 본 논문은 무선 협력통신 네트워크에서 Q-Learning을 이용하는 릴레이 선택 기법을 제안하였다. 제안된 기법에서, Q-Learning을 위하여 상태, 행동, 보상을 적절히 정의 하는 것에 의해서 복잡한 수학적 계산 없이 우수한 SER 성능을 얻는 시스템이 고안되었다.

가설 설정

  • • 협력통신에 모든 릴레이들이 참여하고, 모든 릴레이들의 인덱스 집합은 [4]에서 제안한 것과 같은 방법으로 정렬된다고 가정한다.
  • 협력통신 네트워크에서 중요하게 다루어야 하는 송신 전력의 경우, 비교되는 릴레이 선택 기법과 제안된 릴레이 선택 기법의 복잡도를 낮추기 위해서 본 논문에서는 동등 전력 할당을 사용하였다. 동등 전력 할당은 전체 전력 P의 절반은 소스와 선택되어진 협력 릴레이 집합에 각각 할당되고, 협력 릴레이 집합에 할당된 전체 전력 P의 절반은 다시 선택된 각 협력 릴레이들에게 동등하게 분배되는 것을 가정한다. 그림 3부터 그림 5까지 보이는 실험 결과는 이용 가능한 전체 릴레이 개수가 N = 10 임을 가정한 것이고, 그림 3부터 그림 6까지 보이는 실험 결과는 식 (13)의 보상 방안을 이용한 것이다.
  • 본 논문에서는 그림 1과 같이 N개 릴레이의 도움을 받아서 목적지로 정보를 전송하는 무선 협력통신 네트워크를 고려한다. 소스와 릴레이 사이의 채널과 릴레이와 목적지 사이의 채널은 각각 독립적이라고 가정한다. 협력통신은 소스의 정보를 전달하기 위해서 두 번의 과정을 거친다.
  • 통신을 위해서 QPSK (Quadri-Phase Shift Keying) 변조 방식을 사용하였고 비트 에너지를 1로 정규화 하였다. 소스와 목적지 사이의 채널 계수는 1로 고정되어 있고, 소스와 각 릴레이 사이의 채널 계수와 각 릴레이와 목적지 사이의 채널 계수는 [1,10]의 균등 분포를 가지고 있다고 가정하였다. 잡음 분산은 1로 정규화 하였으며, 하나의 전송 블록에서 채널 계수는 변하지 않으나 서로 다른 블록 사이의 채널 계수는 독립적으로 변한다고 가정하였다.
  • 소스와 목적지 사이의 채널 계수는 1로 고정되어 있고, 소스와 각 릴레이 사이의 채널 계수와 각 릴레이와 목적지 사이의 채널 계수는 [1,10]의 균등 분포를 가지고 있다고 가정하였다. 잡음 분산은 1로 정규화 하였으며, 하나의 전송 블록에서 채널 계수는 변하지 않으나 서로 다른 블록 사이의 채널 계수는 독립적으로 변한다고 가정하였다. 협력통신 네트워크에서 중요하게 다루어야 하는 송신 전력의 경우, 비교되는 릴레이 선택 기법과 제안된 릴레이 선택 기법의 복잡도를 낮추기 위해서 본 논문에서는 동등 전력 할당을 사용하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
Q-Learning이란? Q-Learning은 기본적으로 환경, 에이전트, 상태, 행동, 그리고 보상으로 구성된 강화 학습 알고리즘이다. Q-Learning 알고리즘에서 환경은 유한 상태 이산 시간 확률 시스템 (Finite-State Discrete-Time Stochastic System)으로 구성된다.
협력통신 네트워크의 이득을 최대화시키기 위한 핵심은? 협력통신 네트워크의 이득을 최대화시키기 위한 핵심은 무선자원을 효율적으로 이용하는 것이다. 특히, 협력통신 네트워크에서 통신 성능을 개선시키고 전력과 대역폭 자원을 효율적으로 사용하기 위해서 전력 할당과 릴레이 선택에 관한 문제를 해결하기 위한 연구가 활발하게 진행되고 있다.
협력 릴레이를 이용하기 위해서 어떠한 프로토콜이 있는가? 지금까지 협력 릴레이를 이용하기 위해서 다양한 프로토콜이 제안되어왔다[1]. 그 중에서도, 릴레이가 소스로부터 전달 받은 신호를 단순히 증폭시켜서 목적지로 재전송하는 AF(Amplify-and-Forward) 방식과 소스로부터 전달 받은 신호를 복호 후에 전송하는 DF(Decode-and-Forward) 방식이 협력통신을 위해서 주로 사용된다.
질의응답 정보가 도움이 되었나요?

참고문헌 (13)

  1. A. Nosratinia, T. E. Hunter, and A. Hedayat, "Cooperative communication in wireless networks," IEEE Commun. Mag., vol. 42, pp. 74-80, October 2004. 

  2. Y. Zhao, R. S. Adve, and T. J. Lim, "Improving amplify-and-forward relay networks: Optimal power allocation versus selection," IEEE Trans. Wireless Commun., vol. 6, no. 8, pp. 3114-3123, August 2007. 

  3. Z. Kenan and T. M. Lok, "A relay selection scheme under optimal power allocation," Proc. ICCS 2008, pp. 1609-1613, Guangzhou, China, November 2008. 

  4. H. Wu, Y. Wang, C. Xiong, and D. Yang, "A novel relay selection scheme with simplified power allocation for wireless relay networks," Proc. IEEE GLOBECOM 2009, pp. 1-5, Honolulu, USA, December 2009. 

  5. F. Ke, S. Feng, and H. Zhuang, "Relay selection and power allocation for cooperative network based on energy pricing," IEEE Commun. Lett., vol. 14, no. 5, pp. 396-398, May 2010. 

  6. L. Song, "Relay selection for two-way relaying with amplify-and-forward protocols," IEEE Trans. Veh. Technol., vol. 60, no. 4, pp. 1954- 1959, April 2011. 

  7. R. S. Sutton and A. G. Barto, Reinforcement Learning, MIT Press, 1998. 

  8. 김재명, "Cognitive Radio 기술개요 및 발전방향," 대한전자공학회지, 제36권, 제6호, 20-27쪽, 2009년 6월. 

  9. 조정일, 서종필, 유재호, 정재학, "Cognitive Radio 의 네트워크 및 물리계층 연구동향," 대한전자공학회지, 제36권, 제6호, 39-51쪽, 2009년 6월. 

  10. A. Galindo-Serrano and L. Giupponi, "Distributed Q-learning for aggregated interference control in cognitive radio networks," IEEE Trans. Veh. Technol., vol. 59, no. 4, pp. 1823-1834, April 2010. 

  11. O. V. Den Biggelaar, "Sensing time and power allocation for cognitive radios using distributed Q-learning," EURASIP Jour. Wireless Commun. & Networking, vol. 2012, no. 138, April 2012. 

  12. J. Peng, J. Li, S. Li, and Jing Li, "Multi-relay cooperative mechanism with Q-learning in cognitive radio multimedia sensor networks," Proc. IEEE TrustCom-11/IEEE ICESS-11/ FCST-11, pp. 1624-1629, Changsha, China, November 2011. 

  13. K. J. R. Liu, A. K. Sadek, W. Su, and A. Kwasinski, Cooperative Communication and Networking, Cambridge University Press, 2009. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로