$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

말소리지각에 대한 종설: 음성공학과의 융복합을 위한 첫 단계
A review of speech perception: The first step for convergence on speech engineering 원문보기

디지털융복합연구 = Journal of digital convergence, v.15 no.12, 2017년, pp.509 - 516  

이영림 (단국대학교 심리학과)

초록
AI-Helper 아이콘AI-Helper

사람들은 항상 사건들과 접하고 말소리 지각과 같은 사건을 지각하는데 별 어려움이 없다. 생물학적 운동의 지각과 마찬가지로, 말소리 지각에 대한 두 이론이 논쟁해 왔다. 이 논문의 목적은 말소리 지각에 대해 설명하고 말소리 지각에 대한 운동이론과 직접지각 이론을 비교하는 것이다. 운동이론학자들은 인간은 운동신경의 명령에 의해 말소리를 지각하고 생성해 내기 때문에 인간은 말소리 지각에 있어서 특별한 감각을 가지고 있다고 주장해 왔다. 하지만, 직접지각 이론학자들은 말소리 지각은 여느 다른 소리를 지각하는 것과 다르지 않다고 제안했다. 왜냐하면, 말소리를 지각하는 것은 다른 모든 사건을 지각하는 것과 마찬가지로 필요한 정보를 직접 탐지하면 되기 때문이다. 음성공학과의 융합에 있어서 이러한 인간의 기본적인 말소리 지각 능력을 먼저 이해하는 것이 중요하다. 따라서 이러한 말소리 지각에 대한 기본적인 이해는 인공 지능, 음성 인식 기술, 음성 인식 시스템 등에 사용될 수 있을 것으로 기대된다.

Abstract AI-Helper 아이콘AI-Helper

People observe a lot of events in our environment and we do not have any difficulty to perceive events including speech perception. Like perception of biological motion, two main theorists have debated on speech perception. The purpose of this review article is to briefly describe speech perception ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

가설 설정

  • , downward sloping part of each track) was covered with sandpaper to make the sound in phase 2 distinctively as the steel ball rolled onto the flat (or upward slope) from the downward sloping part of the track. Observers were asked to judge whether the downward sloping part of each track (the phase 1 part) is steep or shallow.
  • That is, perception of speech sounds is perception of a specific pattern in intended phonetic gestures. Second, since same mechanism is used both for speech perception and speech production, they must be internal and innate. To perceive speech sounds is linked to phonetic gestures depending on vocal-tract shapes, articulatory movements.
  • Thus, observers can discriminate nonspeech stimuli if they use only the relative onset time. three stimuli were presented and observers were asked to decide whether the third stimulus was same as other two stimuli. The results showed that observers performed much poorly to discriminate nonspeech sounds compared to speech sounds.
본문요약 정보가 도움이 되었나요?

참고문헌 (27)

  1. Y. Lee, "A review of event perception: The first step for convergence on robotics", Journal of Digital Convergence, Vol. 13, No. 4, pp. 357-368, 2015. 

  2. A. Yim, D. Kim, and S. Rhee, "Korean ESL learners' perception of English segments: a cochlear implant simulation study", Phonetics and Speech Sciences, Vol. 6, No. 3, pp. 91-99, 2014. 

  3. R. L. Diehl, and K. R. Kluender, "On the objects of speech perception", Ecological Psychology, Vol. 1, pp. 121-144, 1989. 

  4. C. A. Fowler, "An event approach to the study of speech perception from a direct-realist perspective", Journal of Phonetics, Vol. 14, pp. 3-28, 1986. 

  5. J. A. S. Helpso, B. Tuller, E. Vatikiotis-Bateson, and C. A. Fowler, "Functionally specific articulatory cooperation following jaw perturbations during speech: Evidence for coordinative structures", J. of Experimental Psychology: Human Perception and Performance, Vol. 10, pp. 812-832, 1984. 

  6. P. B. Denes, and E. N. Pinson, "The speech chain: The physics and biology of spoken language", New York: W. H. Freeman and Company, 1996. 

  7. R. E. Remez, P. E. Rubin, D. B. Pisoni, and T. D. Carrell, "Speech perception without traditional speech cues", Science, Vol. 212, pp. 947-950, 1981. 

  8. G. Johansson, "Visual perception of biological motion and a model for its analysis", Perception & Psychophysics, Vol. 14, pp. 201-211, 1973. 

  9. C. A. Fowler, and B. Rakerd, "Work group on speech and sign language", In W. H. Warren & R. E. Shaw (Eds.), Persistence and Change, Hillsdale, NJ: Erlbaum, pp.283-298, 1985. 

  10. A. M. Liberman, and I. G. Mattingly, "The motor theory of speech perception revised", Cognition, Vol. 21, pp. 1-36, 1985. 

  11. P. Eiman, E. R. Siqueland, P. Jusczyk, and J. Vigorito, "Speech perception in infants", Science, Vol. 171, pp. 125-138, 1985. 

  12. R. L. Diehl, and M. A. Walsh, "An auditory basis for the stimulus-length effect in the perception of stops and glides", J. of Acoustical Society of America, Vol. 85, pp. 2154-2164, 1989. 

  13. A. M. Liberman, K. S. Harris, J. Kinney, and H. Lane, "The discrimination of relative onset-time of the components of certain speech and nonspeech patterns", J. of Experimental Psychology, Vol. 61, pp. 379-388. 

  14. D. B. Pisoni, T. D. Carrell, and S. J. Gans, "Perception of the duration of rapid spectrum changes in speech and nonspeech signals", Perception & Psychophysics, Vol. 34, pp. 314-322, 1983. 

  15. J. L. Miller, and A. M. Liberman, "Some effects of later-occurring information on the perception of stop consonant and semivowel", Perception & Psychophysics, Vol. 25, pp. 457-465, 1979. 

  16. P. Eimas, "The equivalence of cues in the perception of speech by infants", Infant Behavior and Development, Vol. 8, pp. 125-138, 1985. 

  17. C. T. Best, M. Studdert-Kennedy, S. Manuel, and J. Rubin-Spitz, "Discovering phonetic coherence in acoustic patterns", Perception & Psychophysics, Vol. 45, pp. 237-250, 1989. 

  18. C. A. Fowler, and B. Galantucci, "The relation of speech perceptio nand speech production", In D. B. Pisoni & R. E. Remez (Eds.), The Handbook of Speech Perception, Oxford, UK: Blackwell, pp. 633-652, 2005. 

  19. J. J. Gibson, "A theory of direct visual perception" In J. Royce & W. Rozeboom (Eds.), The Psychology of Knowing, New York and London: Gordon and Breach, pp. 215-227, 1972. 

  20. C. A. Fowler, "Sound-producing sources as objects of perception: Rate normalization and nonspeech perception", J. of Acoustical Society of America, Vol. 88, pp. 1236-1249, 1990. 

  21. E. Yoon, "The effects of perceptual training on speech production: Focusing on Korean vowels", Studies in Foreign Language Education, Vol. 22, No. 2, pp. 1-27, 2013. 

  22. J. Hwang, "Voice recognition performance improvement using the convergence of Bayesian method and selective speech feature extraction", J. of the Korea Convergence Society, Vol. 7, No. 6, pp. 7-11, 2016. 

  23. J. Lee, J. Lee, and J. Lee, "Speech recognition of Korean phonemes 'ㅅ','ㅈ','ㅊ' based on sign distribution volatility", J. of KIISE: Computing Practices and Letters, Vol. 19, No. 7, pp. 377-382, 2013. 

  24. S. Nam, E. Jean, and I. Park, "A real-time embedded speech recognition system", The Institute of Electronics Engineers of Korea-Computer and Information, Vol. 40, No. 1, pp. 74-81, 2003. 

  25. Y. Lee, and S. Kim, "Study on the situational satisfaction survey of smart phone based on voice recognition technology", J. of Digital Convergence, Vol. 15, No. 8, pp. 351-357, 2017. 

  26. H. Yuk, and B. Cho, "A study on the humanistic measure about cultural changes of voice recognition technology", J. of Digital Convergence, Vol. 13, No. 8, pp. 21-31, 2015. 

  27. M. Chung, S. Park, B. Chae, and J. Lee, "Analyses of major research trends in artificial intelligence through analysis of thesis data", J. of Digital Convergence, Vol. 15, No. 5, pp. 225-233, 2017. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로