아마존의 최근 채용 스캔들에서 영감을 얻은 질문이 있는데, 채용 과정에서 여성에 대한 차별로 기소되었습니다. 더 많은 정보는 여기에 :
Amazon.com Inc의 머신 러닝 전문가는 큰 문제를 발견했습니다. 새로운 채용 엔진은 여성을 좋아하지 않았습니다.
이 팀은 2014 년부터 최고 인재 검색을위한 기계화를 목표로 취업 지원자의 이력서를 검토하기 위해 컴퓨터 프로그램을 구축해 왔습니다
. ...
... 그러나 2015 년까지이 회사는 새로운 시스템이 소프트웨어 개발자 직무 및 기타 기술 직종 후보를 성별에 중립적으로 평가하지 않는다는 것을 깨달았습니다.
아마존의 컴퓨터 모델은 10 년 동안 회사에 제출 된 이력서의 패턴을 관찰하여 지원자를 대상으로 교육을 받았기 때문입니다. 대부분은 기술 업계에서 남성 지배력을 반영한 남성에서 나왔습니다. (기술의 성별 분석에 대한 그래픽은 여기를 참조하십시오. ) 실제로 Amazon 시스템은 남성 후보가 선호된다고 스스로에게 가르쳤습니다. "여성 체스 클럽 주장"과 같이 "여성"이라는 단어가 포함 된 이력서를 처벌했습니다. 그리고이 문제에 대해 잘 알고있는 사람들에 따르면 두 여자 대학을 졸업했다. 그들은 학교의 이름을 지정하지 않았습니다.
아마존은 이러한 특정 용어를 중립으로 만들기 위해 프로그램을 편집했습니다. 그러나 이것이 기계가 차별을 입증 할 수있는 다른 후보 분류 방법을 고안하지는 않을 것이라고 보장하지 않았다.
시애틀 회사는 경영진이 프로젝트에 대한 희망을 잃었 기 때문에 작년 초까지 팀을 해산 시켰습니다
.
카네기 멜론 대학교 (Carnegie Mellon University)에서 기계 학습을 가르치는 니 하르 샤 (Nihar Shah)와 같은 컴퓨터 과학자들은 아직해야 할 일이 여전히 많다고 말합니다.
"알고리즘이 공정한지 확인하는 방법, 알고리즘이 실제로 해석 가능하고 설명 가능한지 확인하는 방법-아직 멀었습니다."MASCULINE LANGUAGE
[Amazon]은 아마존의 에든버러 엔지니어링 허브에 약 12 명으로 구성된 팀을 구성했습니다. 그들의 목표는 웹을 빠르게 크롤링하고 채용 할 가치가있는 후보를 찾아 낼 수있는 AI를 개발하는 것이 었습니다.
이 그룹은 특정 직무 및 위치에 초점을 맞춘 500 대의 컴퓨터 모델을 만들었습니다. 그들은 각 후보자들에게 과거 이력서에 나타난 약 5 만 단어를 인정하도록 가르쳤다. 이 알고리즘은 다양한 컴퓨터 코드를 작성할 수있는 능력과 같이 IT 지원자에게 공통적 인 기술에 거의 영향을 미치지 않는 법을 배웠습니다 ...
대신,이 기술은 남성 엔지니어의 이력서에서보다 일반적으로 발견되는 동사를 사용하여 자기 자신을 묘사 한 후보자를 선호했습니다. 한 사람이 말했다.
새로운 사람들을 모집하는 데 도움이되는 5 성급 순위와 같은 개인 데이터의 출력을 예측하는 통계 모델을 만들고 싶다고 가정 해 봅시다. 윤리적 제약으로 성 차별을 피하고 싶다고합시다. 성별과는 별개의 두 개의 프로파일이 주어지면 모델의 결과는 같아야합니다.
성별 (또는 이와 관련된 모든 데이터)을 입력으로 사용하고 그 효과를 수정하거나 이러한 데이터를 사용하지 않아야합니까?
성별에 대한 차별이 없는지 어떻게 확인합니까?
통계적으로 판별되지만 윤리적 인 이유로 원하지 않는 데이터에 대해 모델을 어떻게 수정합니까?