과학 기술의 발전 지능적인 시스템의 출현을 가능하게 하고 있다. 지능적 시스템의 쓰임은 비단 산업 현장뿐만 아니라 인간에게 즐거움을 주는 유희의 도구로까지 이르렀다. 그러한 시스템에 요구되는 요소들은 기계적 제어와 더불어 인공 지능, 시청각적 기능 등의 융합이라고 해도 과언이 아니다. 크게 나누어 음성과 영상이라는 두 부분으로 나눌 수 있는데, 음성을 이용한 시스템 구현에서 사용될 수 있는 기본적인 방법이 ...
과학 기술의 발전 지능적인 시스템의 출현을 가능하게 하고 있다. 지능적 시스템의 쓰임은 비단 산업 현장뿐만 아니라 인간에게 즐거움을 주는 유희의 도구로까지 이르렀다. 그러한 시스템에 요구되는 요소들은 기계적 제어와 더불어 인공 지능, 시청각적 기능 등의 융합이라고 해도 과언이 아니다. 크게 나누어 음성과 영상이라는 두 부분으로 나눌 수 있는데, 음성을 이용한 시스템 구현에서 사용될 수 있는 기본적인 방법이 음상 정위(sound localization)이다. 어떤 공간상에서 발생하는 음성이나 음향으로부터 음원의 위치를 추적하는 음상 정위 기술은 음성/음향 획득을 위한 sound acquisition, 원격회의, 음성인식 시스템, video surveillance 시스템 등 다양한 분야에서 응용 가능한 기반 기술이다. 음원들을 특정 각도에 정위시키는데 있어서 가장 중요한 단서는 수평면에 위치한 두 귀에서의 파면의 상대적인 차이이다. 음상 정위에 사용되는 단서로는 두 귀간의 시간차(Interaural Time Difference: ITD)와 두 귀간의 레벨차(Interaural Level Difference: ILD)가 있다. 특히 ITD는 음원의 방위에 중요한 단서가 된다. ITD는 마이크로폰에 수신되는 파형들 사이에 존재하는 상대적인 신호의 시간지연(TDOA: time difference of arrival)으로 볼 수 있다. 본 논문에서는 음이 수평면의 어느 한 방향에서 발생할 때 두 개의 마이크를 사용하여 마네킹(사람의 머리로 가정)이 없을 때와 있을 때, 각 마이크에 입력된 음으로 시간차(ITD)와 진폭차(ILD)를 구해서 비교해 보았다. 또한 두 개의 마이크 중심과 음원의 거리를 변화시켜서 거리별 음의 특성이 어떻게 나타나는지 분석해 봄으로써 몇 cm이상의 데이터가 음상정위에 유효한지를 보였다. 이것은 음상 정위나 음성 인식 등의 방법을 로봇과 같은 시스템에 적용할 때 데이터베이스 구축시 알아야 할 환경 요건의 토대가 될 것이다.
과학 기술의 발전 지능적인 시스템의 출현을 가능하게 하고 있다. 지능적 시스템의 쓰임은 비단 산업 현장뿐만 아니라 인간에게 즐거움을 주는 유희의 도구로까지 이르렀다. 그러한 시스템에 요구되는 요소들은 기계적 제어와 더불어 인공 지능, 시청각적 기능 등의 융합이라고 해도 과언이 아니다. 크게 나누어 음성과 영상이라는 두 부분으로 나눌 수 있는데, 음성을 이용한 시스템 구현에서 사용될 수 있는 기본적인 방법이 음상 정위(sound localization)이다. 어떤 공간상에서 발생하는 음성이나 음향으로부터 음원의 위치를 추적하는 음상 정위 기술은 음성/음향 획득을 위한 sound acquisition, 원격회의, 음성인식 시스템, video surveillance 시스템 등 다양한 분야에서 응용 가능한 기반 기술이다. 음원들을 특정 각도에 정위시키는데 있어서 가장 중요한 단서는 수평면에 위치한 두 귀에서의 파면의 상대적인 차이이다. 음상 정위에 사용되는 단서로는 두 귀간의 시간차(Interaural Time Difference: ITD)와 두 귀간의 레벨차(Interaural Level Difference: ILD)가 있다. 특히 ITD는 음원의 방위에 중요한 단서가 된다. ITD는 마이크로폰에 수신되는 파형들 사이에 존재하는 상대적인 신호의 시간지연(TDOA: time difference of arrival)으로 볼 수 있다. 본 논문에서는 음이 수평면의 어느 한 방향에서 발생할 때 두 개의 마이크를 사용하여 마네킹(사람의 머리로 가정)이 없을 때와 있을 때, 각 마이크에 입력된 음으로 시간차(ITD)와 진폭차(ILD)를 구해서 비교해 보았다. 또한 두 개의 마이크 중심과 음원의 거리를 변화시켜서 거리별 음의 특성이 어떻게 나타나는지 분석해 봄으로써 몇 cm이상의 데이터가 음상정위에 유효한지를 보였다. 이것은 음상 정위나 음성 인식 등의 방법을 로봇과 같은 시스템에 적용할 때 데이터베이스 구축시 알아야 할 환경 요건의 토대가 될 것이다.
Research of system connected with human's quality of life is gone variously recently. Lively field may be development of human friendship style robot resolutely among it. Can take Japan and American AIBO, Airobo etc. for representative example. These robot confronts and provoke more impression that ...
Research of system connected with human's quality of life is gone variously recently. Lively field may be development of human friendship style robot resolutely among it. Can take Japan and American AIBO, Airobo etc. for representative example. These robot confronts and provoke more impression that is friendship enemy with human by recognizing passive character following speaker's location. Method tat use here is sound localization, sound localization refers to that sound source's direction that emit sound wave in brief distinguishes where it is. Human can know direction and distance that sound happens with two ears. However, find out sound source's occurrence direction and distance by acoustic wave inputed in microphones more than two who system takes the place of two ears of human. Main method two microphones to each reach that save time lag(interaural time difference : ITD) and level difference(interaural level difference : ILD) privately and find out direction and distance. Save phase difference and time lag(ITD) between two signals, and do distinction about sound source's direction through geometrical relation of horizontal level using cross-correlation function of signal that 1.5kHz low Bandwidth reaches in two microphones. Bandwidth more than 1.5kHz is used as clue about distance of sound source with level difference(amplitude difference : ILD) of two signals. This paper shows distance that speaker must keep in recording experimentally according as database's use for correct distinction of sound localization is required. Show viewer's experiment way and consequences after explain method that main discourse saves sound localization cue(ITD, ILD). Finally, describe about final conclusion and hereafter research direction.
Research of system connected with human's quality of life is gone variously recently. Lively field may be development of human friendship style robot resolutely among it. Can take Japan and American AIBO, Airobo etc. for representative example. These robot confronts and provoke more impression that is friendship enemy with human by recognizing passive character following speaker's location. Method tat use here is sound localization, sound localization refers to that sound source's direction that emit sound wave in brief distinguishes where it is. Human can know direction and distance that sound happens with two ears. However, find out sound source's occurrence direction and distance by acoustic wave inputed in microphones more than two who system takes the place of two ears of human. Main method two microphones to each reach that save time lag(interaural time difference : ITD) and level difference(interaural level difference : ILD) privately and find out direction and distance. Save phase difference and time lag(ITD) between two signals, and do distinction about sound source's direction through geometrical relation of horizontal level using cross-correlation function of signal that 1.5kHz low Bandwidth reaches in two microphones. Bandwidth more than 1.5kHz is used as clue about distance of sound source with level difference(amplitude difference : ILD) of two signals. This paper shows distance that speaker must keep in recording experimentally according as database's use for correct distinction of sound localization is required. Show viewer's experiment way and consequences after explain method that main discourse saves sound localization cue(ITD, ILD). Finally, describe about final conclusion and hereafter research direction.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.