$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"

논문 상세정보

가상 콘서트홀 기반의 인터랙티브 음향 체험 인터페이스

Interactive sound experience interface based on virtual concert hall

초록

본 논문에서는 가상 콘서트홀에서 사용자가 인터랙티브한 음향 체험을 할 수 있는 인터페이스에 대해 제안한다. 제안하는 인터페이스는 가상 콘서트홀을 기반으로 좌석 위치별 음향 체험 시스템과 악기 제어 및 음향 체험 시스템으로 구성된다. 제안하는 인터페이스의 각 시스템을 구현하기 위해 인공 잔향 알고리즘과 멀티채널 음원 분리, 머리전달함수를 적용하였다. 제안하는 인터페이스는 유니티(Unity)를 사용하여 구현되었으며 사용자는 가상현실기기인 오큘러스 리프트(Oculus Rift)를 통해 가상 콘서트홀을 체험할 수 있고 립 모션(Leap Motion)을 통해 별도의 입력 도구없이 손동작만으로 시스템을 제어할 수 있으며 헤드폰을 통해 시스템이 제공하는 음향을 체험할 수 있다.

Abstract

In this paper, we propose an interface for interactive sound experience in the virtual concert hall. The proposed interface consists of two systems, called 'virtual acoustic position' and 'virtual active listening'. To provide these systems, we applied an artificial reverberation algorithm, multi-channel source separation and head-related transfer function. The proposed interface was implemented by using Unity. The interface provides the virtual concert hall to user through Oculus Rift, one of the virtual reality headsets. Moreover, we used Leap Motion as a control device to allow a user experience the system with free-hand. And user can experience the sound of the system through headphones.

본문요약  * AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의
  • 본 논문에서는 최신의 기술 트랜드인 가상현실과 음향 처리 기술을 융합하여 가상현실을 기반으로 가상 콘서트홀 기반의 인터랙티브 음향 체험 인터페이스에 대해 제안하였다.

    본 논문에서는 최신의 기술 트랜드인 가상현실과 음향 처리 기술을 융합하여 가상현실을 기반으로 가상 콘서트홀 기반의 인터랙티브 음향 체험 인터페이스에 대해 제안하였다. 본 논문에서 제안하는 인터페이스의 시스템을 구현하기 위해 인공 잔향 알고리즘과 멀티채널 음원분리 기반의 간섭 제거방식을 적용하였다.

  • 이에 본 논문에서는 가상 콘서트홀을 생성하여 현실의 콘서트홀에서는 불가능한 인터랙티브한 음향 체험을 할 수 있는 인터페이스를 제안한다.

    이와 같은 가상현실 콘텐츠는 현실 세계의 시간적, 물리적 제한을 뛰어넘어 실제 환경에서는 불가능했던 다양한 일들을 가상으로 가능케 할 수 있다는 장점이 있다. 이에 본 논문에서는 가상 콘서트홀을 생성하여 현실의 콘서트홀에서는 불가능한 인터랙티브한 음향 체험을 할 수 있는 인터페이스를 제안한다.

가설 설정
  • 본 방식에서는 하나의 악기에 최소한 하나 이상의 마이크 채널을 배정하여 동일한 시간대에서 각 악기의 연주음을 녹음한 멀티채널 녹음 본을 사용하며 악기-채널 간의 관계는 사전 정보로서 알고 있다는 가정에 따라 프로세스가 진행된다.

    본 방식에서는 하나의 악기에 최소한 하나 이상의 마이크 채널을 배정하여 동일한 시간대에서 각 악기의 연주음을 녹음한 멀티채널 녹음 본을 사용하며 악기-채널 간의 관계는 사전 정보로서 알고 있다는 가정에 따라 프로세스가 진행된다. 악기-채널 간의 관계를 채널 선택함수수 ∅(j) ⊆ {1,2, .

  • 잔향음은 초기 잔향음과 후기 잔향음으로 구분된다.

    실내공간의 음향은 음원에서 출력되어 사용자에게 직접 전달되는 직접음과 다양한 반사 경로에 따라 반사되어 전달되는 잔향음으로 구성된다. 잔향음은 초기 잔향음과 후기 잔향음으로 구분된다. 초기 잔향음은 직접음이 도착한 이후 100 ms 이내에 사용자에게 입력되는 초기에 벽면에 의해 반사되는 음들을 나타낸다.

본문요약 정보가 도움이 되었나요?

질의응답 

키워드에 따른 질의응답 제공
핵심어 질문 논문에서 추출한 답변
인터페이스
제안된 인터페이스는 어떻게 구성되어있는가?
가상 콘서트홀을 기반으로 좌석 위치별 음향 체험 시스템과 악기 제어 및 음향 체험 시스템으로 구성

본 논문에서 제안하는 인터페이스는 가상 콘서트홀을 기반으로 좌석 위치별 음향 체험 시스템과 악기 제어 및 음향 체험 시스템으로 구성된다. 이때 실제의 콘서트홀을 가상으로 재현하여 사용하기에는 기술적 한계가 있으며, 제안하는 인터페이스의 주된 목적은 실제 콘서트홀의 가상으로의 재현이 아닌 사용자에게 실제로는 불가능한 인터랙티브한 음향 체험을 제공하는데 있으므로 제안하는 인터페이스에서는 실제의 콘서트홀이 아닌 임의의 콘서트홀을 가상으로 생성하여 사용하였다.

가상 콘서트홀의 음악 콘텐츠
가상 콘서트홀의 음악 콘텐츠는 어떤 형태로 탑제되는가?
연주의 녹음 본

가상 콘서트홀의 음악 콘텐츠로는 연주의 녹음 본이 탑재된다. 같은 공간에서 다양한 종류의 악기가 동시에 연주되는 것을 녹음할 때, 녹음 본에는 해당하는 악기의 소리뿐 만 아니라 다른 악기의 간섭 음 또한 포함된다.

음향 구현 시 고려했던 좌석에 따른 특징
음향 구현 시 고려했던 좌석에 따른 특징은?
1) 1층맨 앞좌석: 악기의 직접적인 음량이 크며 잔향감이 거의 없어 악기의 소리가 뚜렷함;2) 1층 뒷좌석: 악기의 직접적인 음량이 크며 잔향감이 들고 둘러싸인 느낌이 듦;3) 2층 좌석: 악기의 직접적 음량보다 잔향감이 더 크고 풍부하며 무대로부터 떨어진 느낌이 듦;4) 3층 좌석: 악기의 소리가 명료하지 않으며 잔향 감이 매우 크고 무대로부터 멀리 떨어진 느낌이 듦.

청취 평가 방식은 MOS(Mean Opinion Score) 평가 방식을 사용하였으며 피험자 스스로 좌석별 설문에 대해 1점(전혀 그렇지 않음)부터 5점(매우 그러함)까지 점수를 매기는 방식으로 진행하였다. 설문 문항은 음향 구현 시 고려했던 좌석에 따른 특징을 내포하며, 이는 다음과 같다:1) 1층맨 앞좌석: 악기의 직접적인 음량이 크며 잔향감이 거의 없어 악기의 소리가 뚜렷함;2) 1층 뒷좌석: 악기의 직접적인 음량이 크며 잔향감이 들고 둘러싸인 느낌이 듦;3) 2층 좌석: 악기의 직접적 음량보다 잔향감이 더 크고 풍부하며 무대로부터 떨어진 느낌이 듦;4) 3층 좌석: 악기의 소리가 명료하지 않으며 잔향 감이 매우 크고 무대로부터 멀리 떨어진 느낌이 듦.

질의응답 정보가 도움이 되었나요?

저자의 다른 논문

참고문헌 (6)

  1. 1. J. Patynen, A virtual symphony orchestra a for studies on concert hall acoustics, (Ph.D. thesis, Aalto University School of Science, 2011). 
  2. 2. T. Pratzlich, R. Bittner, A. Litukus, and M. Muller, "Kernel additive modeling for interference reduction in multi-channel music recordings," in Proc. IEEE ICASSP, 584-588 (2015). 
  3. 3. M. R. Schroeder, "Digital simulation of sound transmission in reverberant spaces," J. Acoust. Soc. Am. 47, 424-431, (1970). 
  4. 4. J. Dattorro, "Effect design - part 1: reverberator and other filters," J. Audio Eng. Soc. 45, 660-684, (1997). 
  5. 5. E.Vincent, R. Griboncal, and C. F'evotte, "Performance measurement in blind audio source separation," IEEE Trans. Audio, Speech, Language Process. 14, 1462-1469 (2006). 
  6. 6. Y. Ephraim and D. Malah, "Speech enhancement using a minimum mean-square error log-spectral amplitude estimator," IEEE Trans. Acoust. Speech Signal Process. 33, 443-445 (1985). 

문의하기 

궁금한 사항이나 기타 의견이 있으시면 남겨주세요.

Q&A 등록

DOI 인용 스타일

"" 핵심어 질의응답