$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"
쳇봇 이모티콘
안녕하세요!
ScienceON 챗봇입니다.
궁금한 것은 저에게 물어봐주세요.

논문 상세정보

초록이 없습니다.

질의응답 

키워드에 따른 질의응답 제공
핵심어 질문 논문에서 추출한 답변
모바일 3D 사운드를 만드는 방법
모바일 3D 사운드를 만드는 방법은 무엇인가?
바이노럴 레코딩(Binaural recording)과 바이노럴 렌더링(Binaural rendering)

모바일 3D 사운드를 만드는 방법은 크게 바이노럴 레코딩(Binaural recording)과 바이노럴 렌더링(Binaural rendering)이라고 할 수 있다. 바이노럴 레코딩은 해당 공간 자체가 가지고 있는 음장을 취득하기 위해 사용되는 기술이며, 바이노럴 렌더링은 컨텐츠 제작자가 특정 음원을 공간상에 정위 시키는 방식을 의미한다.

바이노럴
오디오 신호처리 영역에서 바이노럴은 무엇인가?
사람이 두 개의 귀를 가지고 있기 때문에 발생하는 여러 현상들을 의미하며, 또한 그 현상을 이용 하여 두 개의 트랜스듀서를 이용하여 3차원의 입체 음향을 제공하는 방법을 의미한다

바이노럴(Binaural)의 문자 그대로의 의미는 “두 개의 귀를 가진(having or relating to two ears)” 이다. 특히 오디오 신호처리 영역에서 바이노럴은 사람이 두 개의 귀를 가지고 있기 때문에 발생하는 여러 현상들을 의미하며, 또한 그 현상을 이용 하여 두 개의 트랜스듀서를 이용하여 3차원의 입체 음향을 제공하는 방법을 의미한다. 이런 의미에서 모바일 3D 사운드를 위한 기술이라 할 수있다.

transaural system
transaural system에서는 음향 경로의 영향으로 어떤 문제가 발생되는가?
스피커로부터 좌우 귀에 도달하는 음향 경로(acoustic path)의 영향으로 크로스톡(crosstalk)이 발생하게 되는데, 이를 고려하지 않을 경우, 음원의 방향감과 공간감이 왜곡될 수 있다

Transaural의 개념은 Schroeder와 Atal에 의해서 초창기 시스템이 제안되어 Cooper와 Bauck에 의해서 보다 개선되었다[4][5]. Transaural 시스템 에서는 스피커로부터 좌우 귀에 도달하는 음향 경로(acoustic path)의 영향으로 크로스톡(crosstalk)이 발생하게 되는데, 이를 고려하지 않을 경우, 음원의 방향감과 공간감이 왜곡될 수 있다. 때문에 <그림 3>과 같이 크로스톡 음향 경로에 의한 영향을 제거하고, 특정 위치에 있는 청자에게 임의의 음향 효과를 재현하고자 하는 ‘crosstalk cancellation’ 기술이 필요하다[6][7].

질의응답 정보가 도움이 되었나요?

참고문헌 (23)

  1. 1. https://www.youtube.com/watch?v0eE4DcHUJ8M 
  2. 2. D. Begault. 3-D Sound for Virtual Reality and Multimedia . Academic Press, Boston, MA, 1994. 
  3. 3. Jot Jean-Marc, Veronique Larcher, and Olivier Warusfel. "Digital signal processing issues in the context of binaural and transaural stereophony" the 98th AES Convention. Audio Engineering Society, 1995. 
  4. 4. Schroeder, Manfred R. "Digital simulation of sound transmission in reverberant spaces." The Journal of the Acoustical Society of America 47 (1970): 424. 
  5. 5. Cooper, Duane H., and Jerald L. Bauck. "Prospects for transaural recording." Journal of the Audio Engineering Society 37.1/2 (1989): 3-19. 
  6. 6. Gardner, William G. 3-D audio using loudspeakers. Springer, 1998. 
  7. 7. 장대영, 서정일, 이태진, 박기윤, 강경옥, "실감방송을 위한 3차원 오디오 기술", 전자통신동향분석 제19권 제4호 2004년 8월. 
  8. 8. Algazi, V. Ralph, et al. "The cipic hrtf database." Applications of Signal Processing to Audio and Acoustics, 2001 IEEE Workshop on the. IEEE, 2001. 
  9. 9. Shimada, Shoji, Nobuo Hayashi, and Shinji Hayashi. "A clustering method for sound localization transfer functions." Journal of the Audio Engineering Society 42.7/8 (1994): 577-584. 
  10. 10. Zotkin, D. Y. N., et al. "HRTF personalization using anthropometric measurements." Applications of Signal Processing to Audio and Acoustics, 2003 IEEE Workshop on.. Ieee, 2003. 
  11. 11. Hu, Hongmei, et al. "Head related transfer function personalization based on multiple regression analysis." Computational Intelligence and Security, 2006 International Conference on. Vol. 2. IEEE, 2006. 
  12. 12. Kahana, Yuvi, et al. "Numerical modelling of the transfer functions of a dummy-head and of the external ear." Audio Engineering Society Conference: 16th International Conference: Spatial Sound Reproduction. Audio Engineering Society, 1999. 
  13. 13. Evans, Michael J., James AS Angus, and Anthony I. Tew. "Spherical harmonic spectra of head-related transfer functions." Audio Engineering Society Convention 103. Audio Engineering Society, 1997. 
  14. 14. http://www.dts.com/professionals/sound-technologies/headphonex.aspx 
  15. 15. Collins, Tim. "Binaural Ambisonic Decoding with Enhanced Lateral Localization." Audio Engineering Society Convention 134. Audio Engineering Society, 2013. 
  16. 16. Jot, Jean-Marc, Veronique Larcher, and Jean-Marie Pernaux. "A comparative study of 3-d audio encoding and rendering techniques." Audio Engineering Society Conference: 16th International Conference: Spatial Sound Reproduction. Audio Engineering Society, 1999. 
  17. 17. Noisternig, Markus, et al. "A 3D ambisonic based binaural sound reproduction system." Audio Engineering Society Conference: 24th International Conference: Multichannel Audio, The New Reality. Audio Engineering Society, 2003. 
  18. 18. Gorzel, Marcin, et al. "On the perception of dynamic sound sources in ambisonic binaural renderings." Audio Engineering Society Conference: 41st International Conference: Audio for Games. Audio Engineering Society, 2011. 
  19. 19. ISO/IEC JCT1 SC29 WG11 Output Doc. N13411, "Call for Proposals for 3D Audio," The 103rd MPEG Meeting, Geneva, Jan. 2013. 
  20. 20. ISO/IEC JCT1 SC29 WG11 Input Doc. M31271, "Description of Yonsei proposal for MPEG-H 3D Audio Binaural CE," The 106th MPEG Meeting, Geneva, Oct. 2013. 
  21. 21. ISO/IEC JCT1 SC29 WG11 Input Doc. M31297, "Description of Yonsei proposal for MPEG-H 3D Audio Binaural CE," The 106th MPEG Meeting, Geneva, Oct. 2013. 
  22. 22. ISO/IEC JCT1 SC29 WG11 Input Doc. M32223, "Technical Description of ETRI/Yonsei/WILUS Binaural CE proposal in MPEG-H 3D Audio," The 107th MPEG Meeting, San Jose, Jan. 2014. 
  23. 23. ISO/IEC JCT1 SC29 WG11 Input Doc. M32270, "Preliminary CE proposal on LFE binauralization for MPEG-H 3D Audio," The 107th MPEG Meeting, San Jose, Jan. 2014. 

문의하기 

궁금한 사항이나 기타 의견이 있으시면 남겨주세요.

Q&A 등록

DOI 인용 스타일

"" 핵심어 질의응답