얼굴 인식 자료 이미지. 게티이미지뱅크 코리아

스캐너에 얼굴을 가져다 대면 출입문이 열리고, 사진만 갖고 있으면 그 인물의 신원을 파악할 수 있는 등 SF 영화에서 흔히 볼 수 있었던 ‘얼굴 인식’ 기능. 더는 영화 속 이야기가 아닙니다. 얼굴 인식 기능은 우리가 살고 있는 바로 지금, 휴대폰 화면 잠금 해제나 전자 결제, 범죄 용의자 식별 등 다양한 시스템에 적용되는 기술인데요.

마이크로소프트(MS)는 지난 11일(현지시간) 자사가 보유한 얼굴 인식 기술을 미국 경찰에 판매하지 않겠다고 밝혔습니다. 브래드 스미스 MS 대표 겸 최고법률책임자(CLO)는 블룸버그 인터뷰에서 “우리는 인권에 기반을 두고 이 인공지능(AI) 얼굴인식 기술을 통제할 국가적 법률이 시행될 때까지 미국 경찰에 얼굴인식 기술을 공급하지 않기로 결정했다”고 했죠. 바로 전날 아마존도 앞으로 1년 동안 미국 경찰에 얼굴 인식 기술을 제공하지 않기로 결정했습니다. MSㆍ아마존 등 글로벌 기업들이 얼굴 인식 기술 사용에 속도를 조절하고 나선 겁니다. 심지어 IBM은 아예 얼굴 인식 기술에 대한 연구 중단을 선언했어요.

 왜 얼굴 인식 기술을 멀리하는 거지? 
미 조지아주 애틀랜타에서 한 시위 참가자가 불타고 있는 경찰차 위에 올라 경찰 방패를 든 채 분노하고 있다. 애틀랜타=AFP 연합뉴스

BBC, 포브스 등 외신 보도에 따르면 최근 미국 전역에서 시위를 촉발시킨 ‘조지 플로이드 사건’이 그 이유로 꼽힙니다. 지난달 비무장한 흑인 남성이 백인 경찰에 의해 사망한 사건이죠. 이 사건으로 미국 내 인종차별에 대한 경각심이 높아지면서 글로벌 기업들이 인종차별적 요소가 있는 얼굴 인식 기능과 거리를 둔다는 분석입니다. 아빈드 크리슈나 IBM CEO가 지난 8일 미국 의회에 보낸 서한을 보면 뚜렷해 지는데요. 그는 “IBM은 대량 감시, 인종 프로파일링, 기본 인권 및 자유 침해 또는 우리의 신뢰와 투명성의 원칙과 일치하지 않는 목적을 위해 얼굴 인식 기술은 물론 어떤 기술도 사용하는 것을 반대한다”고 밝혔습니다. 이어 “얼굴 인식 기술을 사법기관이 어떻게 사용해야 하는지에 대한 국가 차원의 논의가 지금 시작돼야 한다”고 주문했어요.

 얼굴 인식과 인종차별이 무슨 관계지? 
얼굴인식시스템이 범죄자로 잘못 인식한 미 의원 28명. 미국시민자유연맹(ACLU)

얼굴 인식 기술은 인공지능(AI)의 사물인식 능력을 활용해 신원확인이나 비밀번호를 대체하는 보안용, 범죄자 식별 등의 치안용으로 활용 가능합니다. 그래서 MS, 아마존은 그 동안 미국 경찰에 얼굴 인식 기술을 제공해 왔죠.

하지만 이 기술에는 치명적인 결함이 있었습니다. 유색인종에 대한 얼굴 인식 기능의 불확실성이 아주 높다는 점입니다.

2018년 IT 매체 씨넷 보도에 따르면 미국 시민단체가 국회의원 사진을 얼굴 인식 프로그램에 넣어 돌린 결과 28명이 범죄자로 지목되는 결과가 나타났습니다. 미국시민자유연맹(ACLU)이 수행한 이 실험에서 단체는 미국 의원 535명 사진을 경찰 데이터베이스에 있는 범죄자 2만5,000명의 얼굴 사진과 대조했는데, 그 결과 28명이 범죄자로 지목됐어요. 그런데 대부분이 유색인종이었던 거죠. 당시 범죄자로 잘못 지목된 아시아계 필 팅 캘리포니아주 의원은 “이 실험은 얼굴인식 소프트웨어가 경찰관들이 착용하는 ‘보디 캠’은 말할 것도 없고 주요 업무에 쓰일 준비가 안 돼 있다는 사실을 더 확고하게 한다”고 말했습니다.

 왜 유색인종에 오류가 더 많은 거지? 

실제 2018년 MIT 미디어랩이 얼굴 인식 프로그램을 분석한 결과 흑인보다는 백인이, 여성보다 남성이 더 정확한 얼굴 인식률을 보였는데요. 이는 테스트에 사용되는 사진의 데이터베이스가 얼굴 인식 결과의 정확성에 영향을 줄 수 있기 때문이라고 해요.

뉴욕타임스는 얼굴 인식에 널리 쓰이는 데이터베이스에서 남성이 70% 이상, 백인이 80% 이상인 것으로 추산된다고 보도했습니다. 그 동안 쌓아온 데이터베이스 자체가 편향돼 있기 때문에 AI 알고리즘도 그에 따라 편향된 결과를 내 놓는다는 것이죠. 특히 스스로 학습하는 AI 특성 상 오랜 기간 동안 축적된 데이터 베이스 자체에 백인, 남성 사진이 더 많다 보니 이 같은 결과가 나온다는 분석입니다.

2015년에는 구글 사진 서비스의 얼굴 인식 기능이 흑인 여성을 고릴라로 인식해 회사 측이 사과 성명을 내는 사태가 벌어지기도 했는데요. 구글은 당시 성명을 내고 “이번 일을 정말 끔찍하게 생각하며 진정으로 죄송하게 생각한다”며 “이런 유형의 결과가 나타나지 않도록 즉각 조치를 취하고 있다”고 밝혔습니다.

 빅 브라더 우려도 만만찮은데 
구글 사진 서비스의 얼굴 자동인식 기능 오류. 흑인 여성을 '고릴라'로 표시해 논란이 일었다. 트위터 캡처

사생활 침해, 대중을 감시하는 ‘빅 브라더’에 대한 우려 등도 얼굴 인식 기능의 그늘로 작용합니다. 1월 뉴욕타임스 보도에 따르면 미국 정부 내에 설치된 프라이버시 시민 자유 감시위원회(PCLOB)는 “얼굴 인식 기술의 급속하고 무질서한 사용은 귀중한 자유에 대한 직접적인 위협을 가져온다”며 정부에 해당 기술 사용 금지를 요구하기도 했습니다.

국내 얼굴 인식 기술의 경우, 어학 시험 중 본인확인, 전자 결제 등 신원확인용으로 주로 쓰입니다. 다행이라고 해야 할까요. 해외에 비교해 상용화가 더디게 진행되고 있는데요. 국내에서 얼굴 인식 기능이 널리 사용 되기 위해서는 개인 정보 유출이나 사생활 침해 문제 등을 막기 위한 정부 가이드 라인과 적절한 규제 마련, 국민적 공감대 형성 등이 필요할 겁니다.

박민정 기자 mjmj@hankookilbo.com

공감은 비로그인 상태에서도 가능합니다

web_cdn 저작권자 © 한국일보 무단전재 및 재배포 금지

국제 최신기사