페이지상단으로이동

안면 인식 기술, 끊임없이 인종 차별 논란 유발...왜?

    • 고다솔 기자
    • |
    • 입력 2021-03-05 15:06
    • |
    • 수정 2021-03-05 15:06

이제 우리 일상 속 어디에서나 안면 인식 기술을 접할 수 있다. 아이폰의 페이스 아이디 기능부터 대형 백화점 입구의 열 감지 센서, 길거리 CCTV까지 일상 속 여러 곳에 안면 인식 기술이 숨어있다.

국내에서는 아직 크게 문제가 된 사례가 없지만, 해외에서는 오래전부터 안면 인식 기술의 인종 차별 문제가 큰 논란이 되었다. 최근, 해외에서 안면 인식 기술이 낳은 인종 차별 논란과 문제의 원인을 아래와 같이 설명한다.

우버·우버이츠 기사 부당해고
글로벌 월간지 와이어드에 따르면, 영국의 우버 운전기사와 우버이츠 배달 기사 다수가 부당 해고당했다. 부당 해고를 당한 우버 앱의 안면 인식 시스템 '리얼타임 ID 체크(Real Time ID Check)' 인증 실패 이후, 우버 기사로 일할 권리를 박탈당했다. 논란이 되는 부분은 리얼타임 ID 체크 인증에 실패해, 우버에서 퇴출당한 근로자 전원이 유색 인종이라는 사실이다.

우버는 근로자가 자신의 계정을 타인에게 양도해, 대신 근무하지 못하도록 막기 위해 앱에 접속할 때마다 근로자에게 셀프카메라 제출을 통한 안면 인증을 요구한다.

문제는 우버가 사용하는 안면 인식 시스템의 인식 정확도가 인종마다 다르다는 사실이다. 실제로 우버의 안면 인식 시스템의 백인 남성 안면 인식 오차는 0%지만, 유색인종 남성의 안면 인식 오차는 최대 6%인 것으로 확인됐다.

우버의 안면 인식 시스템은 미국에서도 논란이 되었다. 2019년, 어느 한 흑인 우버 운전기사가 우버의 안면 인식 시스템 인종 차별 문제를 언급하면서 소송을 제기했다. 그는 안면 인식 시스템이 자신의 얼굴을 인식하지 못해, 강제로 사진 밝기를 높인 뒤 신원 인증에 실패했다는 이유로 우버에서 퇴출당한 것으로 알려졌다.

브라질 지하철 안면 인식 카메라, 인종 차별적 치안 감시
미국 매체 바이스의 보도에 따르면, 치안 강화 목적으로 브라질 지하철 및 기차 시스템에 적용된 안면 인식 기반 감시 시스템이 인종 차별 논란에 휩싸였다. 대중을 스캔하고 분석해, 개인의 데이터베이스를 찾는 카메라가 유색인종 시민의 얼굴만 제대로 인식하지 못하기 때문이다.

실제로 감시 카메라가 피부색이 어두운 어느 한 여성을 살해 용의자로 잘못 인식해, 경찰에 연행된 사건이 발생했다. 이처럼 피부색이 어두운 시민의 얼굴을 제대로 인식하지 못한 사례가 다수 보고됐다.

브라질 현지에서는 문제 발생의 원인으로 감시 카메라에 적용된 안면 인식 기술의 수준이 낮다는 점을 지적했다. 2018년, MIT 조이 부오람위니(Joy Buolamwini) 교수는 백인 남성보다 흑인 여성의 안면 인식 정확도가 무려 35% 더 낮다는 사실을 확인했다.

한편, 브라질 내에서는 감시 카메라에 탑재된 안면 인식 시스템의 인종 차별 논란에도 불구하고 의회 차원의 문제 해결 대책 논의가 제대로 이루어지지 않고 있다.

끊임없는 인종 차별 논란과 이어지는 반발
여러 국가에서 안면 인식 기술의 인종 차별 논란이 끊이지 않자 국제앰네스티가 나섰다. 올해 초, 국제앰네스티는 인종 차별 문제를 지적하며, 대규모 감시 형태의 안면 인식 기술 사용 전면 중단을 촉구하는 캠페인을 벌였다.

국제앰네스티 AI 및 인권 연구팀의 매트 마흐무디(Matt Mahmoudi)는 "안면 인식 기술은 법률 집행 기관이 무기화하는 데 악용되고, 세계 공동체 소외 문제를 일으킬 수 있다. 이 때문에 세계 어디에서나 신원 확인이라는 명목으로 사용되는 안면 인식 기술이 인권을 저해할 위험성이 있다"라고 주장했다.

국제앰네스티만 안면 인식 기술을 비판하는 것이 아니다. 뉴욕 비영리단체 어반 저스티스 센터(Urban Justice Centre)의 감시 기술 관측 프로젝트(Surveillance Technology Oversight Project) 수석 총괄인 알버트 폭스 찬(Albert Fox Cahn)은 안면 인식 기술 자체가 편견을 지니고 있으며, 민주주의와 반대된다고 말한다.

그는 "지난 몇 년간 뉴욕 경찰이 안면 인식 기술로 뉴욕 시민 수만 명의 신원을 확인했다. 그러나 이 과정에서 무고한 유색인종 시민을 범죄자로 낙인하고, 부당하게 체포하는 일이 여러 차례 발생했다. 따라서 시민의 권리 보호를 위해 인종 차별적인 안면 인식 기술 사용을 금지해야 한다"라고 설명했다.

문제의 원인은?
안면 인식 기술의 인종 차별 문제가 심화되자, 여러 연구 기관에서 안면 인식 시스템의 인식 정확도 분석 연구를 진행했다. 여러 기관에서 이루어진 총 189종의 안면 인식 시스템 분석 결과, 모든 시스템이 유색인종의 얼굴만 제대로 인식하지 못하는 것으로 확인됐다.

게다가 연구실에서 안면 인식 기술을 제작하는 과정에 기술이 적용되는 실제 세계가 제대로 반영되지 않은 것으로 드러났다.

에섹스대학교 사회학자인 피터 퍼시(Peter Fussey) 교수는 모든 인종의 얼굴을 똑같이 정확하게 인식하는 안면 인식 기술이 존재하지 않는다고 말한다. 실제 안면 인식 기술 제작 과정에서부터 인종에 따른 선입견과 같은 불평등한 환경이 적용됐기 때문이다.

고다솔 기자 | [email protected]

댓글 [ 0 ]
댓글 서비스는 로그인 이후 사용가능합니다.
댓글등록
취소
  • 최신순
닫기

뉴스레터 구독하기

세상을 바꾸고 있는 블록체인과 IT 관련 이야기를 쉽고 재미있게 만나보세요.

개인정보 수집 및 이용

뉴스레터 발송을 위한 최소한의 개인정보를 수집하고 이용합니다. 수집된 정보는 발송 외 다른 목적으로 이용되지 않으며, 서비스가 종료되거나 구독을 해지할 경우 즉시 파기됩니다.