$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 자극음의 음향적 특성과 청각 뇌간에서의 전기생리학적 반응의 상관성
Correlation of acoustic features and electrophysiological outcomes of stimuli at the level of auditory brainstem 원문보기

한국음향학회지= The journal of the acoustical society of Korea, v.35 no.1, 2016년, pp.63 - 73  

전현지 (한림대학교 일반대학원 언어병리청각학과) ,  한우재 (한림대학교 자연과학대학 언어청각학부, 청각언어연구소)

초록
AI-Helper 아이콘AI-Helper

청각기관의 음조체계로 인해 사람들은 일반적으로 주파수 분포에 따라 소리를 듣는다. 그러나 어음인지 측면에서 어음의 음향적 특성이 사람의 뇌에서 어떻게 인식되는지는 여전히 명확하지 않다. 따라서 본 연구에서는 유사한 고주파수 음향적 특성을 갖는 두 개의 어음이 청각 뇌간에서 전기생리학적으로 어떻게 발현되는 지 확인하고자 하였다. 정상 청력을 지닌 20대 성인 33명이 실험에 참여하였다. 자극음으로 두 개의 한국어 단음절 /자/와 /차/, 4개의 주파수로 구성된 톤버스트음(500, 1000, 2000, 4000 Hz)을 사용하여 청성뇌간반응을 얻었다. 연구 결과, 단음절과 톤버스트음 모두 높은 재현성을 보였고, 파형 V는 모든 피검자에게서 잘 발현되었다. 피어슨 상관관계 분석 결과, 3671 ~ 5384 Hz 대역에서 에너지 분포를 갖는 /자/ 음절은 4000 Hz의 톤버스트음과 높은 상관관계를 나타냈다. 그러나 /차/ 음절은 1000 Hz와 2000 Hz의 톤버스트음과 높은 상관성을 보여, 3362~5412 Hz의 음향적 특성과 청각 뇌간에서 생리학적 반응은 일치하지 않았다. 이러한 결과를 바탕으로 사람의 어음인지과정을 면밀히 조사하기 위해 음향-청지각적 매핑후속 연구가 필요하겠다.

Abstract AI-Helper 아이콘AI-Helper

It is widely acknowledged that the human auditory system is organized tonotopically and people generally listen to sounds as a function of frequency distribution through the auditory system. However, it is still unclear how acoustic features of speech sounds are indicated to the human brain in terms...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 더불어, 본 연구에서는 넓은 주파수 대역의 에너지 분포를 가지는 클릭음 대신 주파수 특이성을 가진 톤버스트음을 이용한 청성뇌간반응 검사의 결과를 /자/와 /차/의 청성뇌간반응 검사 결과와 비교하고자 하였다. 이를 위해, 1) 단음절 /자/와 /차/에서의 청성뇌간반응 검사 결과의 재현성을 확인하였고, 2) 톤버스트음을 이용한 청성뇌간반응 검사 결과와 /자/, /차/음을 이용한 청성뇌간반응 검사 결과의 주파수별 상관관계를 비교 분석하고자 하였다.
  • 유사한 고주파수의 어음은 감각신경성 난청인들에게 가장 분별하기 어려우며 주로 낮은 어음명료도를 보인다. 더불어, 본 연구에서는 넓은 주파수 대역의 에너지 분포를 가지는 클릭음 대신 주파수 특이성을 가진 톤버스트음을 이용한 청성뇌간반응 검사의 결과를 /자/와 /차/의 청성뇌간반응 검사 결과와 비교하고자 하였다. 이를 위해, 1) 단음절 /자/와 /차/에서의 청성뇌간반응 검사 결과의 재현성을 확인하였고, 2) 톤버스트음을 이용한 청성뇌간반응 검사 결과와 /자/, /차/음을 이용한 청성뇌간반응 검사 결과의 주파수별 상관관계를 비교 분석하고자 하였다.
  • 한국어 말소리를 활용한 청성뇌간반응의 초기 연구로써, 본 연구에서는 가장 유사한 고주파수 대역의 에너지를 갖고 있는 두 개의 한국어 단음절, /자/와 /차/를 사용하여 청각 뇌간에서 전기생리학적으로 어떻게 발현되는지 확인하고자 하였다. 유사한 고주파수의 어음은 감각신경성 난청인들에게 가장 분별하기 어려우며 주로 낮은 어음명료도를 보인다.

가설 설정

  • 따라서 최근 말소리를 이용하여 청신경계에 대한 연구에 관심이 집중되고 있으며 이는 추후 중추청각기관의 의미있는 객관적 검사 결과로 이어질 수 있다.[10] 둘째, 시간적인 요소와 스펙트럼의 특징이 풍부하다. 말소리는 지속시간과 상승시간이 길어서 청자가 이를 지각하는데 있어서 기본주파수와 포먼트 등을 고려해야 한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
말소리를 이용한 청신경계에 대한 연구가 관심이 집중되는 이유는 무엇인가? 클릭음과 톤버스트음은 간결하고 단순한 자극으로 구성되어 고강도 자극을 제시했을 때 청자의 반응을 명확히 분별할 수 있는 장점을 가지고 있지만, 근본적으로 말소리, 음악, 환경음 등 우리가 일상생활에서 접할 수 있는 소리와는 큰 차이를 보인다. 첫째, 말소리는 복합적이고 역동적인 신호음으로 여러 자모음의 결합으로 다양한 의미를 내포하고 있다. 이에 반해, 클릭음을 이용한 청성뇌간반응 결과는 단순하고 청자의 소리 변별 혹은 이해 능력을 객관적으로 확인하기에는 큰 한계가 있기 때문에 사람의 언어인지적 측면에서 그 응용가치가 떨어진다. 따라서 최근 말소리를 이용하여 청신경계에 대한 연구에 관심이 집중되고 있으며 이는 추후 중추청각기관의 의미있는 객관적 검사 결과로 이어질 수 있다.
사건관련유발전위를 이용한 연구는 어떤 장점을 갖고 있는가? 한편, 사건관련유발전위(event related potentials)는 특정 감각, 인지, 운동 영역과 관련된 사건의 직접적인 결과를 뇌 반응으로 측정한다.[3] 사건관련유발전위를 이용한 연구는 자기공명영상 및 양전자단층촬영과 같은 화상기법을 사용하는 실험들에 비해 가격이 저렴하고 인체에 직접적인 자극 없이 전극 부착만으로 반응을 얻어낼 수 있는 비침습적 특성이 큰 장점이다.[4] 사건관련유발전위의 여러 종류 중 하나인 청성유발전위(auditory evoked potentials)는 소리 자극을 통하여 청각 기관 및 뇌신경의 반응을 이끌어내며, 소리가 말초부터 중추청각기관에 이르는 동안 자극받은 뉴런들의 변화를 잠복기로 구분 짓는다.
사건관련유발전위는 어떻게 측정하는가? 한편, 사건관련유발전위(event related potentials)는 특정 감각, 인지, 운동 영역과 관련된 사건의 직접적인 결과를 뇌 반응으로 측정한다.[3] 사건관련유발전위를 이용한 연구는 자기공명영상 및 양전자단층촬영과 같은 화상기법을 사용하는 실험들에 비해 가격이 저렴하고 인체에 직접적인 자극 없이 전극 부착만으로 반응을 얻어낼 수 있는 비침습적 특성이 큰 장점이다.
질의응답 정보가 도움이 되었나요?

참고문헌 (27)

  1. T. M. Talavage, M. I. Sereno, J. R. Melcher, P. J. Ledden, B. R. Rosen, and A. M. Dale, "Tonotopic organization in human auditory cortex revealed by progressions of frequency sensitivity," J. Neurophysiol. 91, 1282-1296 (2004). 

  2. K. Kandler, A. Clause, and J. Noh, "Tonotopic reorganization of developing auditory brainstem circuits," Nat. Neurosci. 12, 711-717 (2009). 

  3. S. J. Luck, An Introduction to the event-related potential technique (The MIT Press, Cambridge, 2005), pp. 1-50. 

  4. W. Han, "P1-N1-P2 complex and acoustic change complex elicited by speech sounds: Current research and applications," Audiol. 6, 121-127 (2010). 

  5. J. Drift, M. Brocaar, and G. Zanten, "The relation between the pure-tone audiogram and the click auditory brainstem response threshold in cochlear hearing loss," Audiol. 26, 1-10 (1987). 

  6. K. Lee, and S. Jeong, "Hearing threshold prediction using auditory brainstem response and auditory steady state response in infants and young children" (in Korean), Korean J. Otohinolaryngol-Head Neck Surg. 54, 592-602 (2011). 

  7. C. H. Chien, T. Y. Tu, A. S. Shiao, S. F. Chien, Y. F. Wang, A. C. Li, and M. J. Yang, "Prediction of the pure-tone average from the speech reception and auditory brainstem response thresholds in a geriatric population," ORL J Otorhinolaryngol Relat Spec. 70, 366-372 (2008). 

  8. C. G. Matas, "Medidas eletrofisiologicas da audicao: audiometria detronco cerebral. Em: Carvallo RMM. Fonoaudiologia informacao paraformacao," Procedimentos em audiologia. Rio de Janeiro: Guanabara Koogan. 43-57 (2003). 

  9. M. P. Gorga, D. W. Worthington, J. K. Reiland, K. A. Beauchaine, and D. E. Goldgar, "Some comparisons between auditory brainstem response thresholds, latencies and the pure-tone audiogram," Ear Hear. 6, 105-112 (1985). 

  10. N. Russo, T. Nicol, B. Trommer, S. Zecker, and N. Kraus, "Brainstem transcription of speech is disrupted in children with autism spectrum disorders," Dev. Sci. 12, 557-567 (2009). 

  11. J. H. Song, E. Skoe, P. C. Wong, and N. Kraus, "Plasticity in the adult human auditory brainstem following short-term linguistic training," J. Cogn. Neurosci. 20, 1892-1902 (2008). 

  12. A. Palmer, and S. Shamma, "Physiological representations of speech," in Speech Processing in the Auditory System, edited by S. Greenberg, W. A. Ainsworth, A. N. Popper, and R. R. Fay (Springer, New York, 2004). 

  13. J. H. Song, K. Banai, N. M. Russo, and N. Kraus, "On the relationship between speech- and nonspeech-evoked auditory brainstem responses," Audiol. Neurotol. 11, 233-241 (2006). 

  14. K. L. Johnson, T. Nicol, S. G. Zecker, A. R. Bradlow, E. Skoe, and N. Kraus, "Brainstem encoding of voiced consonant-vowel stop syllables," Clin. Neurophysiol. 119, 2623-2635 (2008). 

  15. S. Greenberg, WPP, No. 52: Temporal neural coding of pitch and vowel quality (eScholarship, California, 1980), pp. 1-183. 

  16. G. C. Galbraith, P. W. Arbagey, R. Branski, N. Comerci, and P. M. Rector, "Intelligible speech encoded in the human brain stem frequency following response," Neuro. Report. 6, 2363-2367 (1995). 

  17. D. L. Strait, N. Kraus, E. Skoe, and R. Ashley, "Musical experience and neural efficiency effects of training on subcortical processing of vocal expressions of emotion," Eur. J. Neurosci. 29, 661-668 (2009). 

  18. J. Lee, H. Jang, and H. Jung, "A study on frequency characteristics of korean phonemes" (in Korean), Audiol. 1, 59-66 (2005). 

  19. J. Kim, H. Hong, H. Shin, K. Lee, B. Hong, and J. Lee, "Development of korean standard monosyllabic word lists" (in Korean), Audiol. 4, 126-140 (2008). 

  20. Praat: doing phonetics by computer, http://www.fon.hum.uva.nl/praat/, 2015. 

  21. F. R. Pinto, and C. G. Matas, "A comparison between hearing and tone burst electrophysiological thresholds," Rev. Bras. Otorhinolaryngol. 73, 513-522 (2007). 

  22. K. R. Vander Werff, and K. S. Burns, "Brain stem responses to speech in younger and older adults," Ear Hear. 32, 168-180 (2011). 

  23. N. Russo, T. Nicol, G. Musacchia, and N. Kraus, "Brainstem responses to speech syllables," Clin. Neurophysiol. 115, 2021-2030 (2004). 

  24. H. No and S. Chae, "Acoustic analyses of monosyllabic words which are difficult to discriminate in the high frequency hearing loss" (in Korean), Korean J. Otolaryngol. 44, 700-706 (2001). 

  25. A. Moller, "Review of the roles of temporal and place coding of frequency in speech discrimination," Acta Otolaryngol. 119, 424-430 (1999). 

  26. A. S. Bregman, Auditory scene analysis: The perceptual organization of sound (The MIT Press, Cambridge, 2005), pp. 47-211. 

  27. H. Ryu, H. Shim, and J. Kim, "A study of the relation between korean consonant perception test (KCPT) and hearing thresholds as a function of frequencies" (in Korean), Audiol. 7, 153-163 (2011). 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로