1년 전 구글에서 초거대 인공지능 기술의 윤리적 문제를 잇따라 제기하고 회사를 떠난 여러 여성 연구자들이 작년 말 설립된 ‘DAIR 연구소(Distributed AI Research Institute)’에서 재회했다. 이들은 구글같은 ‘빅테크 기업’이 인공지능 기술을 개발하고 활용하는 방식에 내재된 편향과 차별의 위험성을 짚고, 대중과 사회에 더 나은 역할을 할 수 있는 인공지능 기술을 직접 만들어가는 데 힘을 쏟을 전망이다. 미국과 한국을 비롯한 각국의 정부, 국제기구, 민간기업 차원에서도 인공지능 기술의 개발과 활용에 윤리적 가치 기준이 반영돼야 한다는 인식에는 공감하고 있다. 하지만 이런 의도를 실제 인공지능 기술로 구현해 나가기 위해 인류는 여전히 시행착오를 필요로 한다.
DAIR, 빅테크 기업에 맞서기 위한 비영리 독립 연구소
인공지능 기술이 기업의 영리활동부터 노동, 법률, 환경, 치안, 건강 등 시민 사회와 공공 부문의 의사결정에 점점 더 깊숙이 관여하고 있다. 그 활용 분야가 개인의 취미나 일반 소비자의 여가 활동에 그치지 않는단 얘기다. 수년 전부터 인공지능 기술이 도입된 분야에서 알고리즘의 편향 문제로 인종·성별 등 여러 요인에 기반한 차별 사례가 불거지고 있다. 개인의 신원 정보와 결합되는 얼굴 인식 기술을 통해 정부가 대규모 시민 감시 체계를 강화할 우려도 나오고 있다.
하지만 시민을 통제하려는 정부와 개발된 기술을 활용해 이익을 얻으려는 기업들이 이같은 문제를 적극적으로 인정하고 외부에 드러내 해결하기보다는 축소·은폐하려는 경향이 짙다. 시민 사회와 구성원들의 이익보다 기업의 이해관계와 정부 기관의 행정적 편의가 우선시되기 때문이다.
DAIR 연구소는 빅테크 기업들이 막대한 자금을 투입하면서 앞다퉈 개발에 열을 올리고 있는 최첨단 인공지능 기술의 위험을 지적하고 해결하기 위한 대안 기술 연구소로 지난 2021년 12월 2일 설립됐다. 과거 구글의 ‘윤리적 인공지능(Ethical AI)’ 공동팀장을 맡았던 연구자 팀닛 게브루(Timnit Gebru)가 구글에서 해고된지 약 1년만에 이 연구소의 설립 소식을 발표했다. 공식 발표문에 따르면, DAIR 연구소는 인공지능 연구, 개발, 배포 활동에 막강한 영향력을 끼치는 빅테크 기업에 맞서기 위해 공동체에 뿌리를 두고 설립됐다. 연구자들이 의제를 설정하고 인공지능 연구를 수행할 독립된 공간을 필요로 한다는 인식에 발맞춰 출범했다.
DAIR 연구소는 특정 빅테크 기업이나 정부, 국가 기관에 소속되지 않고 운영된다. 포드 재단(Ford Foundation), 존 D. 캐서린 T. 맥아더 재단(John D. and Catherine T. MacArthur Foundation), 케이퍼 센터(Kapor Center), 오픈소사이어티 재단(Open Society Foundation)의 자금 지원을 받고 있다. 이 연구소의 출범 소식을 다룬 영국 뉴스통신사 로이터의 보도에 따르면 당시 기준으로 지원받은 자금 규모는 370만 달러(약 45억원) 규모다.
DAIR 연구소 측은 후원 단체들에 대해 “이들은 게브루를 비롯해 개인과 단체가 공공선(public good·公共善)을 위해 기술의 힘을 활용하는 데 집중하는 신흥 분야인 ‘공익 기술(public interest technology)’ 영역이 구축되도록 오랫동안 지원해 왔다”면서 “이들은 DAIR 연구소가 훨씬 더 많은 공익 기술자들을 참여하도록 유도하고, 더 포용적이며 평등한 기술을 향한 움직임을 만들어낼 수 있는 기회가 되길 기대한다”고 밝혔다.
연구소의 설립자인 게브루는 “윤리와 개인의 복지보다 이익을 장려하는 구조와 체계로부터 독립적인 (인공지능 기술 연구) 환경을 조성하는 것”을 연구소의 설립 목표로 내세웠다. 그는 인공지능 기술에 내재된 해악을 예방할 수 있고, 그 제작·배포 시점에 다양성한 관점과 의도적인 절차를 포함한다면 인공지능 기술이 사람과 대립하기보다는 사람을 위해 작동할 것이라고 믿고 있다.
게브루는 “인공지능은 그것이 우리로 하여금 우리에게 불가피하고 우리의 통제를 벗어난 것이라고 믿게 만드는 초인 수준으로 격상돼 있다”면서 “지상으로 다시 내려와야 한다”고 지적했다. 그는 “처음 인공지능 연구, 개발, 배포가 사람과 공동체에 뿌리내릴 때부터 우리는 이런 해악을 마주하고 형평성과 인간성을 중시하는 미래를 만들 수 있다”고 말했다.
사건 이후 줄 잇는 구글 인공지능 윤리 연구자들의 이탈
팀닛 게브루는 흑인 여성 인공지능 기술 전문가이자 구글의 윤리적 인공지능 팀 조직을 꾸린 공동설립자 가운데 한 명이다. 테크크런치같은 온라인 IT전문매체는 게브루에 대해 “인공지능 윤리라는 주제에 대한 최고 전문가 중 한 명”이라고 칭한다. 그의 구글 직원 신분은 지난 2020년 12월까지였다. 당시 게브루는 자신이 연구에 참여해 공동 작성한 논문과 관련된 일로 회사에서 일방적으로 해고당했다고 주장했다.
해당 논문에서 연구자들은 구글의 검색 엔진에 사용된 시스템을 포함하는 인공지능 기술이 작동하기 위해 막대한 탄소 배출 등 환경적 비용을 치러야 한다는 점과 알고리즘의 편향에 따른 차별적인 검색 결과 등 사회적인 문제를 야기할 위험이 있음을 지적했다. 게브루는 이 논문을 외부에 발표하기 위해 사내 검토를 신청했지만 이를 반려한 자신의 상급자와 싸웠고, 구글의 다양성(diversity) 정책 등을 비판하는 내용이 담긴 이메일을 동료 직원들에게 보내기도 했다. 하지만 게브루를 해고한 것이 아니라 “그의 사임을 사측이 수락했다”는 것이 구글의 공식 입장이었다.
게브루와 함께 윤리적 인공지능 팀을 만들고 이끌던 마가렛 미첼(Margaret Mitchell) 연구원도 지난 2021년 2월 자신이 구글에서 해고됐다고 밝혔다. 게브루는 미첼이 해고되기 전 5주 동안 구글의 사내 업무시스템과 이메일 계정에 접근할 수 없도록 차단당한 끝에 개인 이메일로 해고 통보를 받았다고 전했다.
구글은 미첼이 회사의 여러 보안정책을 위반한 것으로 확인돼 해고했다는 입장을 밝혔지만, 실제로는 미첼이 구글 내부에서 인공지능 기술의 윤리 문제를 제기한 게브루를 드러내놓고 지지했기 때문에 ‘회사에 찍힌’ 결과일 수 있다는 분석도 나온다.
미첼은 회사 시스템에 접근할 권한을 빼앗긴 날, 그에 앞서 자신이 회사의 언론담당 부서에 보낸 메일의 전문을 인터넷에 공개했다. 미첼은 이 메일에서 “이번 문제(게브루의 논문 발표 신청 반려와 해고)는 현대 기술의 핵심과 다양성·포용에 대한 근시안적 관점이란 하나의 줄기에서 나타났다”고 비판했다. 미첼은 지난 2021년 8월 미국의 오픈소스 인공지능 기술 스타트업인 ‘허깅페이스(Hugging Face)’에 입사했다. 구글에서 해고된 후 6개월 만이다.
구글은 이후에도 더 많은 인공지능 전문가들을 잃었다. 구글 직원이었던 알렉스 한나(Alex Hanna)와 딜런 베이커(Dylan Baker)가 회사를 떠났다. 두 사람은 게브루의 DAIR 연구소로 합류했다.
지난 2월 2일 온라인 매체 비즈니스인사이더의 보도에 따르면 알렉스 한나는 구글의 수석 연구 과학자였다. 그는 DAIR 연구소에서 ‘연구 책임자 역할(the role of director of research)’을 맡을 예정이다. 한나는 개인 블로그에 2월 2일이 구글에서 자신의 마지막 근무일이라고 언급하고 과거 부서장이었던 게브루와 미첼에 대한 회사측의 처우에 비판적인 입장을 드러냈다.
딜런 베이커는 구글에서 소프트웨어 엔지니어로 일했던 인물로, DAIR 연구소에 ‘엔지니어 겸 연구원’ 자격으로 합류한다. 베이커 또한 2월 2일 블로그를 통해 2월 말에 구글의 윤리적 인공지능 부서를 떠나기로 했다고 예고하면서 “나는 윤리적인 문제를 염두에 두고 구글을 떠나는 많은 사람들 중의 하나”라고 밝혔다. 그는 “내가 말할 수 있는 것은 거의 없다”면서도 “나는 목소리를 내기 위해 자신의 경력을 걸고 구글의 해악과 불의를 나보다 더 철저하고 정교하게 파헤친 사람들과 입장이 같다”고 언급했다.
구글은 공식 입장으로 “알렉스와 딜런의 공헌에 감사한다”면서 “우리는 우리의 인공지능 원칙에 따라 책임있는 인공지능 분야에서 우리의 연구를 계속 확장하고 있다”고 밝혔다.
각국 디지털 알고리즘과 인공지능 기술의 윤리·책임 인식 확산세
기술 기업들에 대한 사회적 책임 요구가 지속적으로 확대되는 추세다. 기술이 일반 대중의 일상과 업무, 경제·사회·문화적 활동에 미치는 영향이 광범위하고 그만큼 기술이 차별·불공정하게 작용됐을 때 당사자가 감수해야 할 피해와 사회적 비용도 커지고 있기 때문이다.
제조, 의료, 교통, 환경, 교육 등 모든 산업 분야에 광범위한 도입이 추진되고 있는 인공지능 기술을 개발하고 보유하고 운영하고 서비스하는 기업들에 대해서도 마찬가지다. 2010년대 중반부터 권한과 능력을 가진 곳에서 인공지능 기술을 오남용하거나 알고리즘에 의한 차별, 프라이버시 침해 등을 일으킬 가능성이 제기돼 ‘인공지능 윤리’가 세계적인 의제로 떠올랐다.
각국 정부와 국제기구는 인공지능 윤리의 실현을 위한 원칙을 마련해 왔다. 국제연합교육과학문화기구(UNESCO·유네스코)는 지난 2019년 5월 특별전문가그룹을 통해 인공지능 윤리에 대한 권고사항 초안을 마련했고, 지난 2021년 11월 193개 회원국 만장일치로 이 권고를 채택했다. 경제협력개발기구(OECD)는 이사회 차원에서 2019년 5월 ‘인공지능 권고안’을 발표하고 그 해 6월 주요 20개국(G20) 정상 선언문에 권고안의 내용을 반영했다.
유럽연합은 2018년 12월 인공지능 고위전문가그룹을 통해 마련된 신뢰할 수 있는 인공지능 윤리 가이드라인을 발표했고, 이어 2019년 4월 기업과 정부가 인공지능을 개발할 때 지켜야 할 윤리 지침을 발표했다. 일본은 2019년 3월 통합혁신전략추진회의를 통해 ‘인간 중심의 인공지능사회 원칙’을 만들었다.
한국은 주요국, 국제기구, 학회, 기업 등에서 발표된 국내외 주요 인공지능 윤리원칙을 분석해 2020년 12월 ‘인공지능 윤리기준’을 발표했다. 이 기준은 인공지능 개발에서 활용까지의 모든 과정에 걸쳐 고려돼야 할 인간의 존엄성, 사회의 공공선, 기술의 합목적성이라는 3대 원칙과 인권, 프라이버시, 다양성, 공공성, 책임성, 안전성, 투명성 등 10대 핵심요건을 제시했다.
빅테크뿐 아니라 민간 기업 전반에 인공지능 윤리 화두로
인공지능 기술을 보유한 민간 기업들 사이에서도 스스로 책임과 윤리 기준을 강조하는 흐름이 일었다.
카카오는 지난 2018년 ‘카카오 알고리즘 윤리헌장’을 발표하고 이듬해인 2019년 사회 구성원을 소외시키지 않겠다는 ‘기술의 포용성’ 조항을 추가했다. 카카오의 인공지능 윤리기준에 해당하는 카카오는 이 헌장으로 기본원칙과 포용성 외에도 차별에 대한 경계, 학습 데이터 운영, 알고리즘의 독립성, 알고리즘에 대한 설명, 아동과 청소년에 대한 보호 등을 의식하겠다는 회사 차원의 다짐을 내보였다.
네이버는 지난 2021년 11월 서울대인공지능정책이니셔티브(SAPI)와의 협업으로 마련한 ‘네이버 인공지능 윤리 준칙’을 공개했다. 이 준칙에는 네이버가 사람을 위한 인공지능 개발, 다양성 존중, 합리적 설명과 편리성의 조화, 안전을 고려한 서비스 설계, 프라이버시 보호와 정보보안 등을 중시하고 구체적으로 실현해 나가겠다는 메시지가 담겼다.
구글은 지난 2018년 6월 ‘구글이 바라보는 인공지능’이라는 제목으로 인공지능 기술 개발 시 지키고자 하는 원칙을 발표했다. 그 내용은 인공지능을 활용하는 목적이 사회적으로 유익할 것, 불공정한 편견을 만들거나 강화하지 않을 것, 설계·테스트 시 안전성을 우선할 것, 인간을 위해 책임을 다할 것, 개인정보보호를 위한 설계 원칙을 적용할 것, 과학적 우수성에 대한 높은 기준을 유지할 것, 이런 원칙에 부합하는 용도에 인공지능 기술이 활용되게 할 것 등 7가지였다.
구글이 이 원칙과 함께 내부에 인공지능 윤리 전문가 부서를 꾸리고 수년간 운영했지만, 결국 이 전문가들은 윤리적인 문제를 제기하고 회사를 떠나 독립적인 연구조직을 만들기에 이르렀다. 기업 차원에서 윤리 기준의 내용을 마련하고 선언하는 것도 쉬운 일은 아니지만, 조직 안에서 이를 건강하게 수용하고 원칙을 실현해 나가는 것은 훨씬 더 어려운 일임을 보여 주는 사례다.
한국에서 인공지능 윤리 문제에 대한 대중적 관심과 사회적 논의가 촉발된 직접적인 계기는 지난 2020년 12월 시범 출시돼 몇 주만에 일 사용자 20만명 수준의 폭발적 인기를 끌다가 2021년 1월 중단된 ‘이루다’ 서비스였다.
이루다는 인간과 광범위한 주제로 대화가 가능한, 인공지능 분야에선 ‘오픈 도메인 다이얼로그(open domain dialogue)’ 문제를 푸는 기술로 개발된 페이스북 메신저 기반의 인공지능 챗봇이었다. 이루다는 ’20대 여대생’이라는 가상의 인격을 부여받아 10~20대 이용자들과 대화를 이어갈 수 있도록 만들어졌다. 이루다 서비스 이용자들은 이루다와 실제 인간 친구처럼 페이스북 메신저로 수시로 다양한 주제나 관심사에 대해 자연스러운 대화를 나눌 수 있고 즉각적인 답을 해 준다는 점에 호응했다. 3주간 서비스 이용자는 82만명, 서비스 종료일 하루 이용자는 39만명이었다.
하지만 이루다가 내놓은 발화 중에는 ‘인종, 성 소수자 차별·혐오 발언’이 있었다. 서비스 개발업체가 앞서 이 회사의 다른 서비스 이용자 70만여명으로부터 수집한 실제 지인 간의 카카오톡 대화 속 문장 100억건에서 실제 인간의 차별·혐오가 담긴 발화가 그대로 노출된 결과였다. 이 외에도 개인정보보호위원회에 1억여원의 과징금·과태료를 부과받을만큼 소홀했던 개인정보 보호조치와 데이터 수집·관리 정책, 이용자들 사이에서 논란을 일으킨 일부 이용자의 이루다를 향한 성희롱과 폭언 등 복합적인 인공지능 기술 개발과 활용에 얽힌 문제가 종합적으로 불거졌다.
이루다 서비스 개발사는 기존 데이터와 인공지능 모델을 폐기하고 새로운 이루다를 선보일 계획이다. 출시에 앞서 지난 2021년 9월 개인정보 처리방침 등을 개정하고 서비스 대상자 연령을 만14세 이상으로 제한해 새로 이용자 사전 가입을 받고 있다. 개발사 측은 지난 2021년 9월 조선일보와의 인터뷰에서 이루다 서비스 당시 문제가 됐던 편향 발언, 성희롱 유도 발언을 받아줬던 맥락을 인지하고 대응하기 위한 학습에 집중하고 있다고 밝혔다.
—
솔트룩스 네이버블로그 ‘인공지능 인사이트’ 필진으로서 작성한 두 번째 정기 원고. 220308 솔트룩스 네이버블로그 포스팅으로 게재됨. 230125 개인 블로그에 원문 비공개로 올림. 230228 공개로 전환.