$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"

동향 상세정보

인공지능 사용에 따라 편향된 부작용의 발생을 우려하고 있는 영국 경찰

UK police are concerned AI will lead to bias and over-reliance on automation

2019-10-01

최근 영국 경찰은 인공지능을 사용함에 따라 자신들의 경찰업무수행에 있어 자동화에 대한 지나친 의존도와 편견이 증가되는 현상이 발생할 수 있음을 우려하고 있는 것으로 나타나 관련 내용을 살펴보고자 한다.

영국 정부의 자문기구인 데이터 윤리혁신센터가 추진한 최근 연구에 의하면 경찰들은 인공지능이 편견을 가중시킬 수 있다는 조사결과가 도출된 것으로 나타났다고 한다.
[출처: https://www.gov.uk/government/publications/report-commissioned-by-cdei-calls-for-measures-to-address-bias-in-police-use-of-data-analytics]

특히 인종 프로파일링이 심각한 문제로 인지되고 있는 가운데, 인간에 대한 편견이 기존 경찰데이터를 기반으로 인공지능이 알고리즘화되었다면 실제 인공지능이 경찰력의 업무수행에 활용될 경우 젊은 흑인들에게 불리하게 작용할 수도 있는 것으로 나타났다고 한다. 뿐만 아니라 불우한 배경을 지닌 개개인들이 보다 많은 대중교통수단을 활용하는 경향이 나타나 대중교통수단에 대한 데이터 수집 빈도가 높아짐에 따라 보다 많은 개개인들이 검열 대상이 될 수도 있는 것으로 나타났다.

게다가 안면인식 알고리즘의 정확도에 대한 의문성 마저도 제기되고 있는 것으로 나타났으며, 어두운 피부톤을 지닌 여성들을 분별하는데 어려움을 겪는 기술적 오류도 발생하고 있는 것으로 조사되었다.

위와 같은 연구결과를 토대로 유사한 인공지능 기반의 솔루션 또는 기술이 실제 현장에 도입되었을 경우, 잠재적으로 치명적인 영향을 사회에 끼칠 것으로 예상되고 있어 이로운 기술을 안전하고 책임감있는 채택이 가능하도록 기술적 보완이 우선 이루어져야 할 것으로 보인다.

관련기관 artificialintelligence-news.com
과학기술분류 정보/통신
본문키워드(한글) 인공지능, 자동화 편향, 인종 프로파일링,
본문키워드(영문) artificial intelligence, automation bias, racial profiling,
원문언어 영어
국가 영국
원문출판일 2019-09-17
출처 https://artificialintelligence-news.com/2019/09/17/uk-police-concerned-ai-bias-automation/