[기고] 빅테크 기업들의 안면인식기술 거리두기

피처 이미지
CCTV 감시 카메라 [사진=Pixabay]
아마존, 마이크로소프트(MS) 등 글로벌 빅테크 기업들이 전 세계 디지털 전환 시장에서 경쟁력을 키우기 위해 인공지능(AI) 투자에 적극적인 모습이지만, 유독 안면인식기술(FRT) 분야 투자와 실용화에 2년 넘게 조심스러운 태도를 유지하고 있다. 지난 2020년 5월 빅테크 기업 본사 소재지인 미국에서 현지 경찰의 과잉·폭력 진압 때문에 흑인 조지 플로이드가 사망한 사건을 계기로 공권력의 인종차별에 항의하는 시위가 거세게 일자, 주요 기업들이 FRT 관련 기술 개발 투자나 공공 부문 대상 사업 중단을 선언한 뒤 상황이 정체된 모습이다.

FRT는 컴퓨터나 디지털 카메라로 사람 얼굴을 촬영하고 그 신원을 확인해 개인화 맞춤형 정보나 서비스, 부가 혜택을 제공하는 데 유용한 기술이다. 공공 감시나 시설 관리 목적으로 설치된 CCTV 영상 정보를 빠르게 분석해 범죄 용의자 또는 특정 장소 사고를 일으킨 당사자를 추적하는 데도 FRT가 쓰일 수 있다. 하지만 어떤 기술이든 그 자체에 한계가 있고 이를 활용하는 정부나 사법 기관이 그런 한계나 스스로 갖고 있는 편견을 극복할 준비가 돼 있지 않다면 기술을 사용한 결과로 문제를 일으킬 수 있다.

FRT 스타트업인 ‘클리어뷰(Clearview) AI’가 플로이드 사망 사건이 발생했을 때 해당 지역인 미국 미네소타 주 경찰에 기술을 공급한 기업으로 알려졌다. 클리어뷰 AI는 구글, 유튜브, 트위터, 페이스북 등 사회관계망서비스(SNS)에서 불특정 다수 일반인 얼굴 사진을 무작위 수집해 논란을 일으켰던 회사다. 또 몇몇 사례에서 FRT가 ‘백인 남성’만 제대로 식별하고 다른 성별·인종에 대한 인식 성능이 떨어지는 경우가 알려지면서, FRT가 무고한 사람을 범죄 용의자로 인식하거나 공공·민간 분야에서 성차별과 인종차별 도구로 악용될 수 있다는 우려도 가중됐다.

논란이 커지자 인도 출신으로 IBM 최초 유색인종 최고경영자(CEO)가 된 아르빈드 크리슈나 IBM CEO는 2020년 6월 안면 인식 기술 개발 중단을 선언했다. 그는 미국 의회에 보낸 서한에서 IBM이 대규모 감시, 인종 프로파일링, 기본권과 자유를 침해하는 목적에 안면 인식을 포함한 어떤 기술도 반대한다는 입장을 밝히고 사법 기관의 FRT 사용 방식을 국가 차원에서 논의해야 한다고 주장했다. 그 뒤를 이어 아마존과 MS도 FRT에 대한 규제 법안이 마련되기 전까지 일정 기간 경찰에 자신들의 클라우드 기반 FRT를 판매하지 않겠다고 선언했다.

과거부터 FRT에 대한 대중의 신뢰성은 높지 않았다. MIT테크놀로지리뷰 보도에 따르면 2018년 IBM, MS, 메그비(Megvii)가 각각 개발한 상업용 FRT 소프트웨어(SW) 정확도를 비교 분석한 논문이 발표됐다. 이 SW는 피부색이 어두운 여성보다 밝은 남성을 훨씬 더 정확하게 식별했고 IBM 시스템의 유색 인종에 대한 인식 오류율은 34.4%에 달했다. 같은 해 미국시민자유연맹(ACLU)의 아마존 클라우드 기반 FRT 솔루션 ‘레코그니션’ 기술 시험 결과 미국 연방 의원 28명 얼굴을 ‘범죄자’로 오인한 오류가 드러났고 유색 인종에 대한 오류율은 더 높았다.

이 시험 결과를 근거로 ACLU는 아마존에 ‘FRT 시스템을 정부에 판매하지 말라’고 요구했지만 아마존은 제때 답하지 않았다. 플로이드 사망 사건을 계기로 빅테크 기업들이 갑자기 정의감을 갖게 된 것일까. 그보다는 FRT와 같은 기술 오남용 위험을 꾸준히 경고해 온 시민 사회 압력을 더 이상 무시할 수 없게 됐다고 보는 게 타당하다. 조지 플로이드 사망 사건 후 FRT 개발 중단을 선언한 IBM은 전체 매출에서 이 기술 비중이 애초에 낮았고 아마존과 MS은 적절한 규제 도입 후 사업을 재개하겠다는 조건을 달았을 뿐 FRT 솔루션 사업을 포기한 건 아니었다.

여론 악화 방지와 규제 리스크 완화 원하는 AI 기업들

지난 2020년 6월 23일 미국 NBC뉴스에서 AI의 사회적 함의를 연구하는 ‘AI나우인스티튜트’의 메레디스 휘태커 공동설립자는 “조직화하고 사회적으로 알려진 (기술의 파급력에 대한) 연구가 통했다는 점을 보여 준다”면서 “하지만 나는 그 회사들이 정말로 마음을 바꿔서 인종 차별적이고 억압적인 시스템을 해체하는 일에 나서진 않을 것이라고 생각한다”고 말했다. 그를 비롯한 기술 연구자와 ACLU 등 인권단체는 기술 기업의 선언이 FRT에 대한 윤리적 반대보다 경찰 권력에 대한 조사가 강화한 시기의 여론 대응 전략에 가깝다고 평가했다.

MS, 아마존, IBM 등 빅테크 기업이 사법 기관을 비롯한 공공 부문에 관련 기술을 공급하는 사업 계획을 변경할 때 메타(전 ‘페이스북’)도 FRT 기술 규제 리스크에 노출돼 있었다. 메타는 2010년부터 세계 최대 SNS에 올라온 사진·영상에서 이용자 얼굴을 찾는 FRT 기술을 활용했는데 이게 당사자 동의 없는 생체정보 저장을 금지한 일리노이 주 생체정보 보호법(BIPA)을 위반한 것이었다. 이에 제기된 일리노이 주 집단 소송에 합의하기 위해 메타는 6억5000만 달러를 지급하기로 합의했다. 메타는 비슷한 이유로 올해 2월 텍사스 주 정부에 또 피소됐다.

한국에선 개인정보보호위원회도 메타가 2018~2019년 당사자 동의 없이 얼굴 개인정보를 수집해 이용자를 식별하고 사진 속 당사자 이름을 자동 표시하는 등 행위로 개인정보보호법을 위반했다고 판단하고 2021년 8월 과징금 64억4000만원을 부과했다. 당시 개인정보보호위원회는 메타에 동의 없이 수집한 얼굴 정보를 파기하거나 동의를 받는 등 시정 명령을 내렸다. 그해 11월 메타 본사는 아예 서비스에서 사진·영상 속 얼굴 인식 기능을 빼고 이를 위해 그간 수집한 10억명의 얼굴 데이터를 삭제하는 등 FRT 사용 분야를 축소하겠다고 발표했다.

빅테크 기업은 FRT 관련 부정 여론 대응을 넘어 규제 리스크 해소를 원한다. 기업 CEO와 이사회 대상 AI 자문가로 활동하는 글렌 고우는 2020년 6월 23일자 포브스 기고에서 “SW 공급자가 당면한 문제 중 하나는 (FRT 관련) 연방 정부 규정이 없어 주마다 자체 규정을 만들어야 해 지역마다 여러 규제가 존재한다는 것”이라며 “캘리포니아, 뉴햄프셔, 오리건 등 많은 주는 (FRT에 적용되는) 다른 법을 가지고 있고 매사추세츠 주 서머빌, 워싱턴 주 시애틀, 미시간 주 디트로이트 등 지방자치단체는 이 기술 사용에 관한 다른 버전 규정을 뒀다”고 지적했다.

2년 전 사법 기관에 대한 빅테크의 FRT 기술 공급 사업 유예나 개발 중단 자체가 전체 시장에 미치는 영향은 크지 않았을 것으로 보인다. 투자정보서비스인 S&P글로벌 마켓인텔리전스는 공식 웹사이트에 2020년 7월 20일 게재한 기사를 통해 “치안 시스템 개혁에 대한 요구가 잘못된 식별 우려 등 기술 사용에 따른 위험으로 주목을 받고 있지만 (FRT 기술 공급 중단을 선언한 곳 외에) 다양한 기업은 사법 기관과 지속적으로 협력하고 다른 사용 사례를 지원해 공공 부문에서 잠재적인 수익을 창출할 준비가 돼 있다”고 지적했다.

공공 부문 차원 FRT 도입은 오히려 지속해서 확산 중

실제로 미국에서 FRT 도입은 계속 확대되고 있다. 대한무역투자진흥공사(KOTRA) 실리콘밸리무역관에 따르면 2021년 8월 24일 한국 감사원 격인 미국 정부책임처(GAO)는 24개 연방기관 대상으로 조사한 FRT 사용 현황과 향후 계획을 보고서로 정리해 발표했다. 연방기관 10곳이 2023 회계연도까지 FRT 사용을 늘릴 계획으로 나타났다. 조지 플로이드 사망 사건 이후 FRT이 인종 차별 도구가 될 수 있다는 부정적 여론 때문에 미국 의회와 정부가 생체정보 활용 규제 법안을 발의하고 채택하는 움직임이 나타났지만 그럼에도 FRT 기술이 확산되는 것이다.

미국 GAO 조사에 참여한 연방기관 24곳 중 18곳이 클리어뷰 AI, 비질란트솔루션스, 어큐언트 페이스ID 등의 FRT를 사용 중이었다. FRT 분야 연구개발을 수행·지원하거나 보조금을 지급하는 활동으로 범주를 넓히면 교육부, 주택도시개발부, 노동부, 원자력규제위원회, 중소기업청을 제외한 19곳이 FRT 관련 활동에 관여했다. 2023 회계연도까지 FRT 도입 확대 계획을 밝힌 연방기관 10곳은 농무부, 상무부, 국방부, 보건복지부, 국토안보부, 내무부, 법무부, 재무부, 보훈부, 주무부 등이다. 주 목적은 법 집행과 직원 출입관리·보안을 위한 감시, 신원확인이다.

연방 정부 차원의 FRT 규제 법안은 여전히 없다. 지난 5일 CNN비즈니스 보도에 따르면 주, 시, 카운티마다 다양한 자체 FRT 규제가 도입됐다. 2020년 경찰의 안면인식 SW 사용 금지 조례를 통과시킨 뉴올리언즈 시에서 지난달 이 방침을 바꿔 경찰이 상급자 허가로 강력범죄 수사에 안면인식 SW를 쓸 수 있는 길이 열렸다. 2021년 경찰 FRT 사용을 금지한 버지니아 주는 지난 3월 경찰이 FRT를 쓸 수 있는 상황을 법제화했다. 캘리포니아 주에선 2020년부터 3년간 시한부로 도입된 사법기관의 보디캠 FRT 사용 금지 법안이 올해 말 만료된다.

한국에서도 사법기관의 FRT 사용에 대한 관심과 우려가 고조되고 있다. 법무부는 2019년부터 과학기술정보통신부와 함께 출입국 심사 고도화를 위한 ‘AI 식별추적 시스템 개발’ 사업을 추진해 왔다. 출입국 심사 고도화 수단으로 FRT가 투입됐다. 법무부는 이 사업에서 시스템 개발을 위해 사업자와 개인정보 처리 업무 위탁 계약을 체결했다. 사업자는 인천공항 내 AI 학습용 데이터베이스(DB)에 접근해 AI 식별 추적 알고리즘을 고도화했다. DB는 법무부가 수집한 내국인 개인정보 5760만건, 외국인 개인정보 1억2000만건이 암호화한 상태로 들어 있었다.

정보인권연구소 등 시민단체는 이 법무부 사업에서 내외국인 민감 정보 1억7000만건 이상이 정보주체 동의나 개별 고지 없이 처리됐다고 문제를 제기했다. 이 사안을 조사한 개인정보보호위원회는 지난 4월 27일 발표에서 법무부가 개인정보 처리 업무 위탁 계약을 맺은 것은 업체 연구개발이 법무부 관리·감독 아래 이뤄졌고 위탁받은 범위 내에서 개인정보가 처리된 점을 고려해 적법하다고 판단했다. 다만 법무부가 세 번째 위탁 계약을 체결하며 웹사이트에 위탁 사실과 수탁자를 공개하지 않은 것이 법 위반이라며 과태료 100만원을 부과했다.

하지만 정보인권연구소, 민변, 진보네트워크센터, 참여연대 등은 법무부 사업 방식이 “일단 다수 기업과 동시에 위탁계약을 맺어 모두에게 대규모 출입국 개인정보를 이용할 수 있도록 개방하고 실제 출입국관리 목적을 위해 그중 성능이 우수한 소수 기업만 선발”한 것이고 “출입국관리법상 근거가 없는 AI 알고리즘 학습 등 다른 목적으로 사용한 경우에 해당하며 처리 위탁이 아니라 불법적인 개인정보 제3자 제공”이라고 봤다. 이에 문제 없다는 개인정보보호위원회 판단을 “개인정보보호법 제정 취지를 근본부터 무너뜨리는 해석”이라고 비판했다.

전 세계 AI 윤리와 책임 촉구…중국도 민간에 규제 강화

전 세계에서 FRT 등 AI 개발·사용에 윤리와 책임이 요구된다. 유럽연합(EU)은 2019년 4월 ‘신뢰 가능한 AI 윤리 가이드라인’, 2020년 7월 ‘AI 윤리 평가 목록’을 발표했고 한국은 2020년 12월 ‘AI 윤리 기준’을 마련했다. 카카오는 2018년 1월 ‘카카오 알고리즘 윤리 헌장’을 공개했고 네이버는 2021년 2월 서울대 AI 정책 이니셔티브(SAPI)와 협업해 마련한 ‘AI 윤리 준칙’을 내놨다. 방송통신위원회와 정보통신정책연구원은 2019년 11월 솔트룩스와 국내외 민간 IT 기업 전문가 참여로 마련한 ‘이용자 중심의 지능정보사회를 실현하기 위한 원칙’을 발표했다.

일당 독재 중국은 이 흐름에서 예외일까. 낮은 FRT 성능 문제로 논란을 야기했던 중국 AI 스타트업 메그비는 수년 전 홍콩 증시에 상장을 신청하기 전에 전대차 거래 억제를 위한 공공 주택 폐쇄 등 중국 정부의 공공주택 정책을 지원하는 주민 감시 솔루션 공급 실적을 자랑했다. IT 미디어 와이어드는 지난 2019년 9월 보도에 “사생활에 무관심한 정부 기관에 서비스를 제공하기 위해 만들어진 제품이 다른 곳에서 신뢰할만한 인권 수호자가 될 가능성은 낮다”고 지적한 미국 정부 지원 비영리단체 프리덤하우스의 2018년 10월 보고서를 인용했다.

메그비뿐 아니라 이 회사와 경쟁하는 센스타임(SenseTime), 클라우드워크(CloudWalk), 이투(Yitu) 등은 이후 중국에서 FRT를 일상화해 경찰이 용의자를 찾기 위해 공공 장소를 스캔하고 시민들이 자기 얼굴로 상점에서 돈을 내고 세금을 내게 만든 AI 유니콘들이다. 2021년 3월 미국 매체 프로토콜은 중국 전역에 가맹점을 둔 업체의 매장 안면인식 보안 카메라가 방문객 개인정보를 무단 수집하고 신원을 확인하는 데 무단 사용됐다고 폭로한 중국중앙텔레비전 방송을 소개하고 중국 기업 행태가 개인정보 보호와 거리가 멀다고 묘사했다.

하지만 프로토콜은 “정치적 반대에 대한 결과를 감안하면 중국인들이 국가가 후원하거나 국가가 추진하는 감시 프로젝트를 반대하는 목소리를 내는 것은 위험하지만 개인정보보호 옹호 정서는 힘을 얻고 있다”면서 “중국의 한 싱크탱크가 2019년 실시한 조사에서 응답자 70% 이상은 얼굴 인식 데이터 유출을 우려한다고 답했고 40% 이상은 이런 기술 사용이 제한돼야 한다고 답했다”고 지적했다. 관영 방송사인 중국중앙텔레비전이 개인정보보호 우려를 제기한 것은 중국 정부가 이런 사회적 우려를 의식하고 있음을 보여 주는 것으로 해석된다.

중국 최고인민법원은 2021년 7월 28일 ‘개인정보 처리에 안면인식기술 적용 관련 민사사건 심리에서 법률 적용에 관한 규정’을 발간하고 그해 8월 1일 시행에 들어갔다. 이 규정은 얼굴 정보가 민법상 개인정보 범주인 ‘생체정보’임을 명시해 민감한 개인정보로 분류되도록 했고 기업이 이를 처리하려면 다른 개인정보 처리와 별도의 동의를 받도록 했다. 호텔, 쇼핑몰, 은행, 대중교통 정류장, 공항, 스포츠 경기장, 유흥업소 등 사업장과 공공 장소에서 얼굴 확인, 식별, 분석용 FRT 사용을 금지하고 이에 관련된 민사 소송 쟁점에 대한 규정도 담았다.

솔트룩스 네이버블로그 ‘인공지능 인사이트’ 필진으로서 작성한 일곱 번째 정기 원고. 220913 솔트룩스 네이버블로그 포스팅으로 게재됨. 230125 개인 블로그에 원문 비공개로 올림. 230731 공개로 전환.