$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[해외논문] Counterfactually Fair Automatic Speech Recognition 원문보기

IEEE/ACM transactions on audio, speech, and language processing, v.29, 2021년, pp.3515 - 3525  

Sarı, Leda (University of Illinois at Urbana-Champaign, Department of Electrical and Computer Engineering, Urbana, IL, USA) ,  Hasegawa-Johnson, Mark (KAIST, Daejeon, Korea) ,  Yoo, Chang D.

Abstract AI-Helper 아이콘AI-Helper

Widelyused automatic speech recognition (ASR) systems have been empirically demonstrated in various studies to be unfair, having higher error rates for some groups of users than others. One way to define fairness in ASR is to require that changing the demographic group affiliation of any individual ...

참고문헌 (42)

  1. 10.1109/ICASSP.2015.7178964 

  2. 10.21437/Interspeech.2020-1290 

  3. The Corpus of Regional African American Language Version 2020 05 kendall 2020 

  4. Proc Adv Neural Inf Process Syst Causal effect inference with deep latent-variable models louizos 0 6446 

  5. Proc 6th Int Conf Learn Representations ICLR CausalGAN: Learning causal implicit generative models with adversarial training kocaoglu 2018 

  6. Pearl, Judea. Causal Diagrams for Empirical Research. Biometrika, vol.82, no.4, 669-688.

  7. NIST SCTK Toolkit fiscus 2018 

  8. Proc 32nd Int Conf Mach Learn ser Proc Mach Learn Res Unsupervised domain adaptation by backpropagation ganin 2015 37 1180 

  9. Proc Adv Neural Inf Process Syst PyTorch: An imperative style, high-performance deep learning library paszke 2019 8026 

  10. Proc Int Conf Mach Learn Deep speech 2: End-to-end speech recognition in English and Mandarin amodei 0 173 

  11. 10.1145/3422841.3423533 

  12. Morgan, Marcyliena H.. Indirectness and interpretation in African American women’s discourse. Pragmatics : quarterly publication of the International Pragmatics Association, vol.1, no.4, 421-451.

  13. Proc Int Conf Learn Representations Learning the difference that makes a difference with counterfactually-augmented data kaushik 0 1 

  14. 10.18653/v1/2020.findings-emnlp.7 

  15. Proc 1st ACL Workshop Ethics Natural Lang Process Gender and dialect bias in youtube’s automatic captions tatman 0 53 

  16. Koenecke, Allison, Nam, Andrew, Lake, Emily, Nudell, Joe, Quartey, Minnie, Mengesha, Zion, Toups, Connor, Rickford, John R., Jurafsky, Dan, Goel, Sharad. Racial disparities in automated speech recognition. Proceedings of the National Academy of Sciences of the United States of America, vol.117, no.14, 7684-7689.

  17. 10.21437/Interspeech.2006-349 

  18. 10.1109/ASRU.2013.6707705 

  19. 10.1109/ICASSP.2016.7472692 

  20. 10.1145/3347449.3357480 

  21. Proc Mach Learn Healthcare Conf Counterfactual reasoning for fair clinical risk prediction pfohl 0 325 

  22. 10.1145/3287560.3287564 

  23. Bickel, P. J., Hammel, E. A., O'Connell, J. W.. Sex Bias in Graduate Admissions: Data from Berkeley. Science, vol.187, no.4175, 398-404.

  24. 10.1145/3194770.3194776 

  25. Workshop on Fairness Accountability and Transparency in Machine Learning (FAT/ML) Fairer and more accurate, but for whom? chouldechova 2017 

  26. 10.1017/CBO9780511803161.008 

  27. Proc Adv Neural Inf Process Syst Equality of opportunity in supervised learning hardt 0 3315 

  28. Proc ACM SIGKDD Int Conf Knowl Discov Data Mining Mathematical notions vs. human perception of fairness: A descriptive approach to fairness for machine learning m 0 2459 

  29. Proc Adv Neural Inf Process Syst Counterfactual fairness kusner 0 4066 

  30. Friedler, Sorelle A., Scheidegger, Carlos, Venkatasubramanian, Suresh. The (Im)possibility of fairness : different value systems require different mechanisms for fair decision making. Communications of the ACM, vol.64, no.4, 136-143.

  31. Chouldechova, Alexandra. Fair Prediction with Disparate Impact: A Study of Bias in Recidivism Prediction Instruments. Big data, vol.5, no.2, 153-163.

  32. Evaluating and mitigating bias in image classifiers: A causal perspective using counterfactuals dash 2021 

  33. 10.1145/2090236.2090255 

  34. 10.1145/1143844.1143891 

  35. ICML Representation Learning Worksop Sequence transduction with recurrent neural networks graves 2012 

  36. 10.1109/ICASSP.2013.6638947 

  37. 10.21437/Interspeech.2019-2680 

  38. 10.21437/Interspeech.2017-1296 

  39. 10.1145/3351095.3372864 

  40. 10.1109/ICASSP.2016.7472621 

  41. Chouldechova, Alexandra, Roth, Aaron. A snapshot of the frontiers of fairness in machine learning. Communications of the ACM, vol.63, no.5, 82-89.

  42. 10.21437/Interspeech.2017-1566 

LOADING...

활용도 분석정보

상세보기
다운로드
내보내기

활용도 Top5 논문

해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.

관련 콘텐츠

오픈액세스(OA) 유형

GOLD(Hybrid)

저자가 APC(Article Processing Charge)를 지불한 논문에 한하여 자유로운 이용이 가능한, hybrid 저널에 출판된 논문

유발과제정보 저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로