$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

음성 비식별화 모델과 방송 음성 변조의 한국어 음성 비식별화 성능 비교
Comparison of Korean Speech De-identification Performance of Speech De-identification Model and Broadcast Voice Modulation 원문보기

스마트미디어저널 = Smart media journal, v.12 no.2, 2023년, pp.56 - 65  

김승민 (숭실대학교 소프트웨어학부) ,  박대얼 (숭실대학교 소프트웨어학부) ,  최대선 (숭실대학교 소프트웨어학부)

초록
AI-Helper 아이콘AI-Helper

뉴스와 취재 프로그램 같은 방송에서는 제보자의 신원 보호를 위해 음성을 변조한다. 음성 변조 방법으로 피치(pitch)를 조절하는 방법이 가장 많이 사용되는데, 이 방법은 피치를 재조절하는 방식으로 쉽게 원본 음성과 유사하게 음성 복원이 가능하다. 따라서 방송 음성 변조 방법은 화자의 신원 보호를 제대로 해줄 수 없고 보안상 취약하기 때문에 이를 대체하기 위한 새로운 음성 변조 방법이 필요하다. 본 논문에서는 Voice Privacy Challenge에서 비식별화 성능이 검증된 Lightweight 음성 비식별화 모델을 성능 비교 모델로 사용하여 피치 조절을 사용한 방송 음성변조 방법과 음성 비식별화 성능 비교 실험 및 평가를 진행한다. Lightweight 음성 비식별화 모델의 6가지 변조 방법 중 비식별화 성능이 좋은 3가지 변조 방법 McAdams, Resampling, Vocal Tract Length Normalization(VTLN)을 사용하였으며 한국어 음성에 대한 비식별화 성능을 비교하기 위해 휴먼 테스트와 EER(Equal Error Rate) 테스트를 진행하였다. 실험 결과로 휴먼 테스트와 EER 테스트 모두 VTLN 변조 방법이 방송 변조보다 더 높은 비식별화 성능을 보였다. 결과적으로 한국어 음성에 대해 Lightweight 모델의 변조 방법은 충분한 비식별화 성능을 가지고 있으며 보안상 취약한 방송 음성 변조를 대체할 수 있을 것이다.

Abstract AI-Helper 아이콘AI-Helper

In broadcasts such as news and coverage programs, voice is modulated to protect the identity of the informant. Adjusting the pitch is commonly used voice modulation method, which allows easy voice restoration to the original voice by adjusting the pitch. Therefore, since broadcast voice modulation m...

주제어

참고문헌 (23)

  1. 장준혁, "디지털 소외계층을 위한 지능형 IoT 애플리케이션의 공개 API 기반 대화형 음성 상호작용 기법," 스마트미디어저널, 제11권, 제10호, 22-30쪽,?2022년 11월 

  2. 이명호, 임명진, 신주현, "텍스트와 음성의 앙상블을 통한 다중 감정인식 모델," 스마트미디어저널,?제11권, 제8호, 65-72쪽, 2022년 09월 

  3. 김진수, 최방호, 조기환, "산업 영역에서 빅데이터?개인정보 보호체계에 관한 연구," 스마트미디어저널, 제8권, 제1호, 09-18쪽, 2019년 3월 

  4. Mawalim, Candy Olivia, et al., "Speaker?anonymization by modifying fundamental?frequency and x-vector singular value," Computer Speech & Language, Vol. 73:101326,?May 2022. 

  5. Patino, Jose, et al., "Speaker anonymisation using?the McAdams coefficient," arXiv preprint?arXiv:2011.01130, 2020. 

  6. Tomashenko, Natalia, et al., "The voiceprivacy?2020 challenge: Results and findings," Computer?Speech & Language, Vol. 74:101362, Jul. 2022. 

  7. Zhao, Yi, et al., "Voice conversion challenge 2020:?Intra-lingual semi-parallel and cross-lingual?voice conversion," arXiv preprint?arXiv:2008.12527, 2022. 

  8. Mawalim, Candy Olivia, Shogo Okada, and?Masashi Unoki, "System Description: Speaker?Anonymization by Pitch Shifting Based on?Time-Scale Modification (PV-TSM)," 2nd?Symposium on Security and Privacy in Speech?Communication, 2022. 

  9. Khamsehashari, Razieh, et al., "Voice?Privacy-Leveraging Multi-Scale Blocks with?ECAPA-TDNN SE-Res2NeXt Extension for?Speaker Anonymization," Proc. 2nd Symposium?on Security and Privacy in Speech?Communication, pp. 43-48, Incheon, Korea, Sep.?2022. 

  10. Meyer, Sarina, et al., "Cascade of phonetic?speech recognition, speaker embeddings gan and?multispeaker speech synthesis for the?VoicePrivacy 2022 Challenge," Proc. 2nd?Symposium on Security and Privacy in Speech?Communication, 2022. 

  11. Masood, Momina, et al., "Deepfakes Generation?and Detection: State-of-the-art, open challenges,?countermeasures, and way forward," Applied?Intelligence, Vol. 53:3974-4026, Jun. 2022. 

  12. H. Kai, S. Takamichi, S. Shiota and H. Kiya,?"Lightweight Voice Anonymization Based on?Data-Driven Optimization of Cascaded Voice?Modification Modules," 2021 IEEE Spoken?Language Technology Workshop (SLT), pp.?560-566, Shenzhen, China, Mar. 2021. 

  13. S. McAdams, "Spectral fusion, spectral parsing?and the formation of auditory images", Ph.D?dissertation, Stanford University, 1985. 

  14. L. Lee et al., "A frequency warping approach to?speaker normalization," IEEE Transactions on?speech and audio processing, vol. 6, no. 1, pp.?49-60, 1998. 

  15. 양승정, 이종태, "TD-PSOLA 를 이용한 음성 파형 편집에 관한 연구," 대한산업공학회 추계학술대회 논문집, 311-314쪽, 1999년 10월 

  16. 정현욱, 김종국, 배명진, "PSOLA 알고리즘을 이용한 친절전화기능의 구현에 관한 연구," 한국음향학회 학술대회논문집, 93-96쪽, 2004년 

  17. S. Takamichi et al., "The NAIST?text-to-speech system for the Blizzard Challenge?2015," Proc. Blizzard Challenge workshop,?Berlin, Germany, Sep. 2015. 

  18. Rosenberg, Aaron E., "Automatic speaker?verification: A review," Proceedings of the?IEEE, Vol. 64, No. 4, PP. 475-487, Apr. 1976. 

  19. Yu, Dong, and Li Deng, Automatic Speech?Recognition: A Deep Learning Approach,?Springer London, 2016. 

  20. AI Hub(2018). https://aihub.or.kr/ (accessed?Nov., 8, 2022). 

  21. Desplanques, Brecht, Jenthe Thienpondt, and?Kris Demuynck, "Ecapa-tdnn: Emphasized?channel attention, propagation and aggregation in?tdnn based speaker verification," arXiv preprint?arXiv:2005.07143, 2020. 

  22. 민소연, et al., "한국어 특성 기반의 STT 엔진 정확도를 위한 정량적 평가방법 연구," 한국산학기술학회 논문지, vol. 21, no. 7, pp. 699-707, 2020 

  23. CLOVA Speech Recongnition(CSR).?https://www.ncloud.com/product/aiService/csr?(accessed Nov., 28, 2022). 

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로