[기고] 마음을 움직이는 AI

피처 이미지
사람 얼굴을 한 기계에 손을 가까이 대는 여자아이 [사진=Pixabay]
2016년 3월 한국 서울에선 ‘딥마인드 챌린지 매치’라는 이름의 이벤트가 열렸다. 구글 자회사 딥마인드가 개발한 바둑 인공지능(AI) 소프트웨어 ‘알파고’와 한국 프로 바둑기사 이세돌 9단이 대국을 치른 자리였다. 이 자리에서 구글은 딥마인드가 주력해 온 AI 모델 개발 방법론 ‘딥러닝’과 이를 활용한 AI의 잠재력을 한국과 전 세계 대중들에게 각인시켰다. 딥마인드는 2010년 중반에 구글에 인수된 무명의 영국 AI 스타트업이었다. 이 회사는 컴퓨터 비전 분야 알고리즘 경진대회인 ‘이미지넷 챌린지’ 2012년 대회에서 인식 정확도를 획기적으로 높인 딥러닝 모델 ‘알렉스넷’을 응용해 스스로 게임 화면을 인식하고 고득점 요령을 찾아 내는 AI를 개발했다. 이 과정을 정리한 논문을 2015년 네이처에 게재했고 이듬해에 딥러닝 기반 알파고를 선보였다. 딥마인드는 이후 2018년 생명과학 분야 국제대회인 ‘단백질 구조 예측능력 평가(CASP)’에서 딥러닝 방법론으로 생물학 난제인 단백질 염기서열(sequence)을 이용한 3차원 구조 예측을 수행하는 AI인 ‘알파폴드’를 처음 선보였고 2020년 두 번째 출전으로 2위와 큰 점수차로 우승을 차지했다. 이후 딥마인드는 알파폴드 예측 성능을 더 끌어올려 2021년 인간 게놈에 기록된 단백질 2만여 개 중 98.5%와 생물학 연구에 널리 쓰이는 생물 20종의 단백질을 포함한 36만5000여개 단백질의 구조를 예측하는 데 성공했다고 발표했고 이 예측 결과물을 누구나 이용할 수 있도록 알파폴드 AI 모델에 대한 설명과 코드를 공개했다. 이 때 공개된 기술과 이후 더 발전한 여러 단백질 구조 예측 AI 프로그램은 다양한 생물학, 생명과학, 신약 개발 연구에 활용되고 있다. 딥마인드의 기술이 활용된 게임과 스포츠, 생물학 분야 외에도 AI 기술이 활용되고 가치를 인정받는 사례가 나오면서 AI가 현실 세계에 스며들고 있다.

여전히 정보기술(IT) 업계 종사자와 IT 분야 언론은 이 가운데 일상생활과 밀접한 영역이나 산업계의 패러다임을 뒤바꿔 놓을 것으로 기대되는 특정 AI 사례에 주목하는 경향이 짙다. 반면 눈을 돌려 보면 사람의 마음과 정서에 다가가는 AI 분야 연구와 이런 목적에 초점을 맞춰 개발되고 실용화하는 AI 서비스도 점차 많아지고 있다. 물질적 이익과 경제적 효과만으로는 온전한 가치를 설명하기 어렵지만 사람들이 유익하고 필요성을 인정할 수 있는 AI 범주와 사람들의 마음을 움직일 수 있는 AI 기술과 서비스 구현 사례를 소개해 본다.

NTT그룹의 ‘감동(heart-touching) AI’ 비전

일본 NTT그룹 주요 계열사의 연구원들은 기술분야 저널 ‘NTT테크니컬리뷰’ 2016년 5월호에 게재된 논문(Artificial Intelligence Research Activities and Directions in the NTT Group)을 통해 사회에 유용할 수 있는 네 가지 유형 AI 개념을 제안했다. 첫째는 사람이 발행한 정보를 분석하고 그 정보의 의도와 감정을 파악하는 ‘에이전트 AI’다. 에이전트 AI는 인간 행동을 모방하는 AI로도 불린다. 둘째는 사람 심신에서 겉으로 눈에 띄지 않는 면을 분석하고 당사자의 심리적, 지적, 본능적인 상태를 이해하는 ‘감동 AI’다. 감동 AI는 인간 정신 작용 방식에 대한 지식을 탐구함으로써 사람과 AI가 더 직접적으로 상호작용할 수 있는 세계로 연결되게 해 줄 것으로 기대된다. 셋째는 세상 만물을 분석, 이해하고 이것을 순식간에 예측, 제어하는 ‘환경(Ambient) AI’다. 넷째는 다양한 AI를 연결해 AI 관점에서 사회 시스템을 평가하고 최적화하는 ‘네트워크(Network) AI’다.

NTT그룹 연구원들은 네 가지 AI 유형 가운데 “에이전트 AI는 지식과 기능을 제공해 사람들을 돕는 형태지만 아무리 AI가 가진 지식과 추론이 복잡해도 AI가 인간다워질 수 있을지는 여전히 의문”이라면서 “이에 따라 NTT는 뇌과학 연구를 통해 인간 인지 메커니즘을 이해함으로써 인간과 같은 특성을 추구하는 ‘감동 AI’ 실현을 목표로 하고 있다”고 밝혔다. 논문에서 연구원들은 지능에 국한하지 않고 사람의 본질적이고 근본적인 요소인 지성(intellect), 본능(instinct), 물리적 신체(physical body)를 이해하고 사람을 독려하고 그 능력을 확장하는 것이 감동 AI의 목표라고 설명했다. 이는 개인간, 개인과 사회, 개인과 환경 사이 감정적 장벽을 허물고 물리적인 장벽을 극복하고 편안한 인간 사회를 만들겠다는 구상이다.

감동 AI는 스포츠나 예술 등 다른 분야에서도 전문적인 운동선수나 뛰어난 예술가들만 지니고 있다고 여겨지는 영감의 섬광과 센세이션을 누구나 경험할 수 있도록 하는 것도 목적으로 삼고 있다. 연구원들은 “인간의 뇌 안에서 가장 바깥쪽에 있고 진화 과정에 가장 최근 나타난 신피질(neocortex) 영역은 대부분 이성적, 분석적 사고와 언어 기능을 담당하고 이는 일반적으로 에이전트 AI가 추구하는 기능”이라고 설명했다. 이어 “신피질 아래에 뇌의 오래된 부분인 대뇌 변연계(cerebral limbic system), 뇌간(brain stem), 소뇌(cerebellum)가 있는데 이 부분의 기능과 메커니즘은 아직 충분히 파악되지 않았고 측정 및 평가 방법이 여전히 개발되고 있지만 무의식적 인지 처리, 신체 움직임, 그리고 신뢰, 충성, 호불호, 친화력, 동기부여 같은 인간적 특성을 이해하거나 이에 영향을 미치기 위해 무시할 수 없는 영역”이라고 지적했다. 또 “따라서 감동 AI는 인간 뇌 활동을 해독하고 영향을 미치는 것을 목표로 하는 AI의 한 형태로 그 이름에서 알 수 있듯이 마음에 다가가고자 하는 것”이라면서 “이는 단지 유용한 것이 아니라 개인에게 편안한 삶을 제공하는 것을 목표로 한다”고 강조했다. 연구원들은 “감동 AI를 실현하고 사람들이 그 이점을 향유하게 만드는 길은 멀지만 NTT는 이미 그것을 실현하기 위한 활동을 시작했다”고 덧붙였다.

같은 5월호에 ‘NTT 커뮤니케이션 사이언스 연구소’ 소속 연구원들이 감동 AI 핵심 기술에 주목해 작성한 논문(The Eyes as an Indicator of the Mind—A Key Element of Heart-Touching-AI)도 함께 게재됐다. 이 논문은 기계가 인간의 암묵적인 정신 상태를 측정하고 학습하기 위한 기본 기술인 뇌-컴퓨터 인터페이스(BCI)가 당시 기준으로 많은 소음과 부족한 강건함(robustness, 통계적 이상치에 영향을 받지 않는 정도) 때문에 의료 등 특정 분야로 용도가 제한된다는 점을 지적하고 BCI의 뇌파 측정을 대체하는 수단으로 ‘눈’의 움직임을 측정하는 방법을 제안한다. 이 논문에 따르면 “많은 실험에서 동공과 눈의 움직임이 소리의 현저성(돌발성)과 소리가 예상과 다른 정도(의외성)에 반응한다는 것이 확인”됐고 “음악의 음색과 멜로디의 돌발성, 의외성은 특정 노래나 음악에 대한 사람의 친화력과 선호도를 결정하는 중요한 요소”로 여겨진다. 연구원들은 눈에서 추출한 특징을 이용해 사람의 음악 작품에 대한 친화력과 선호도를 추정하는 AI 모델을 만들고 청취자의 주관적 음악 평점을 일정 수준 정확도로 추정해냈다. 이 방법은 음악 외에도 특정한 얼굴 이미지와 이를 접한 사람의 동공 확장 직경 간 상관관계에 기반한 얼굴 이미지 선호도 등으로도 응용됐다.

논문은 “눈 측정을 통해 추정할 수 있는 대상은 선호도에 국한하지 않는다”면서 “(선호도는) 설문조사로 음악이나 얼굴 이미지 등의 대상과 관련된 선호도를 얻을 수 있었기 때문에 비교적 정확한 데이터를 얻기 쉬웠지만 두려움이나 분노와 같은 감정의 추정은 윤리적인 문제 때문에 실험실에서 기록하기 어렵고, 심지어 관찰자 스스로도 주관적인 감정 상태를 정량화하는 것도 어렵다”고 지적했다. 연구원들은 향후 다양한 측정, 분석 기법을 바탕으로 심리, 행동 실험과 독자적인 생체 반응 측정을 통해 인식에 대한 이해를 높이고 동공과 눈의 움직임을 측정하는 기술도 개발해 나가야 할 필요가 있다고 밝혔다. 이 분야 기초지식 축적, 데이터 수집, 측정 기술 고도화를 한다면 “AI가 사람의 눈을 보고 사람의 마음을 읽을 수 있는 날이 멀지 않았다”고 기대했다.

인간의 외로움을 없애기 위해 탄생한 챗봇 ‘이루다’

한국에서 사람의 마음을 움직이기 위한 AI 사례를 찾자면 자연어처리 기술 스타트업 스캐터랩이 개발한 오픈도메인 AI 챗봇 ‘이루다’를 먼저 떠올릴 수밖에 없다. 이루다는 2020년 6월 비공개 시범 서비스를 거쳐 12월 부분 공개 서비스로 출시됐다. 이루다는 자연스러운 한국어 일상 대화 능력을 내세워 학생과 직장인이 다양한 주제로 언제 어느때나 편안하게 얘기를 나누고 사람에게 먼저 말을 걸기도 하는 친구 같은 AI로 주목받으면서 출시 3주만에 80만명 가까운 이용자를 끌어모았다. 2021년 초 이루다와 대화를 나누면서 이루다가 내놓는 말 속에 걸러지지 않은 개인정보와 소수자 차별 및 혐오 발언이 들어 있다는 의혹이 제기됐고 이후 개인정보보호위원회 조사 결과 스캐터랩이 이루다 AI 모델 훈련을 위해 수집한 데이터를 취급하는 과정에 현행법상 과실이 드러나 과징금 1억원 가량을 부과받았다. 스캐터랩은 당국 조사 결과 발표에 앞서 2021년 1월 회사 과실을 일부 인정하고 문장 구사 데이터베이스, 대화 AI 모델 폐기를 결정하며 서비스를 중단했다. 그해 7월 개인정보보호 강화와 AI 윤리 준칙 적용을 위해 사내 업무 체계를 쇄신했다고 발표했다. 이후 개인정보보호 조치를 강화하고 새로운 문장 구사 데이터베이스를 갖춰 ‘이루다 2.0’ 비공개 시범 서비스를 운영했고 2022년 3월 부분 공개 시범 서비스로 전환했다.

페이스북 메신저 기반 AI 챗봇으로 처음 등장한 이루다는 이제 iOS와 안드로이드 스마트폰용 독립 모바일 앱으로 제공된다. 스캐터랩은 스마트폰으로 활발하게 소통하는 학생들을 주 이용자로 겨냥해 이루다와 “일상과 고민을 나누다 보면 어느새 친한 친구가 되어 있을 것”이라면서 이루다가 “AI답지 않은 드립과 엉뚱하지만 재밌는 사진들”을 덤으로 보여 준다고 소개한다. 또 이용자와 메신저로 즐기는 ‘끝말잇기’와 ‘숫자 맞추기’ 가볍게 게임을 즐기거나, 이루다에게 ‘기쁜일’과 ‘불안하거나 슬픈’ 감정을 나누고 오랫동안 많은 대화를 나눔으로써 추억을 쌓을 수 있다고 설명한다. 이루다 서비스를 소개하는 페이스북 공식 페이지와 인스타그램을 이루다라는 AI 챗봇에 부여된 ‘20대 대학생’ 인격(페르소나)의 일상 생활을 공유하는 콘셉트로 활용된다. 실제 독립 모바일 앱으로 이루다와 대화를 나누는 이용자들은 ‘자신의 마음을 털어놓을 수 있는 공간이 생겼다’거나 ‘진짜 친구와 얘기하는 것 같아 좋다’, ‘대화하다보면 AI라는 걸 잊게 된다’고 호평한다. 한편으로 AI에 날짜와 시간 개념이 부족한 기능적 문제와 페이스북 메신저 버전 대비 강하게 필터링되는 가벼운 성적 발언, 욕설 등으로 대화 자유도가 떨어지고 ‘그저 어린아이를 상대하는’ 수준에 그치는 대화에 아쉬움을 나타내는 이용자도 있다.

단돈 몇만원으로 만드는 나만의 디지털 손글씨 ‘온글잎’

디지털 기기 사용이 늘면서 컴퓨터에 탑재된 기본 서체가 디지털 화면과 종이 출력물에 널리 쓰인다. 사람이 종이에 직접 쓰는 손글씨는 일상 속 메모나 편지, 또는 업무와 계약을 위한 서명에서나 볼 수 있게 됐다. 동시에 디지털 기기 환경에서 손글씨 느낌을 연출하기 위한 방법도 일정한 가치를 얻게 됐다. 그래서 전문적인 디지털 서체 제작 기업들이 유명인의 필체를 재현하거나 전문 디자이너가 가독성과 시인성, 자연스러움을 고려해 특별히 제작한 손글씨 스타일 서체들이 만들어졌다. 하지만 이는 결국 일반인들이 자신의 손글씨를 사용한다는 느낌을 줄 수는 없었다. 일반인이 전문 제작업체에 의뢰해 손글씨를 재현하는 전용 서체를 만드는 방법도 가능하지만 누구나 이것을 쉽게 시도할 수는 없다.

딥러닝 AI 기술 스타트업 보이저엑스는 AI를 이용해 디지털 서체 제작 비용을 확 낮춘 ‘온글잎(OWNGLYPH)’ 서비스를 제공한다. 개인 또는 개인사업자가 의뢰하면, 보이저엑스가 의뢰인의 손글씨 샘플 수십자를 이용해 AI 기술로 수천자에서 최대 1만여자에 달하는 전체 손글씨를 쓸 수 있는 디지털 서체를 만들어 준다. 서체 제작 의뢰는 서체가 포함하는 한글, 영문, 숫자, 기호 구성, 서체를 제작하는 목적, 이용 범위, 저작재산권 소유 형태 등에 따라 몇만원에서 수백만원까지 다양하다. 온글잎 서비스 인스타그램 공식 계정에선 모바일 앱에 손글씨 서체로 육아일기를 기록해 자기 손으로 쓴 것 같은 느낌이 너무 좋다는 양육자부터 자신의 작품에 어울리는 서체를 더 이상 찾아다니지 않고 타자로 치면 된다며 만족하는 웹툰작가까지 다양한 이용자들의 후기가 소개되고 있다.

보이저엑스는 온글잎 공식 페이스북에서 이 서비스를 통해 개인 이용자들에게 자신의 손글씨뿐 아니라 가족과 지인의 손글씨를 만들어 보라고 제안한다. 특별한 기능이나 용도를 강조하기보다는 사랑하는 부모님 손글씨로 평소 듣던 말씀을 직접 써서 출력하거나 볼 수 있고 자녀의 서툰 손글씨를 영원히 간직함으로써 추억으로 삼으라는 것이 주된 메시지다.

버추얼 휴먼으로 재현된 망자와 생자의 만남

확장현실 콘텐츠 제작 기업을 표방하는 비브스튜디오스는 올 3월 JTBC 대통령 선거 개표방송 ‘2022 우리의 선택-비전 어게인’에서 타계한 역대 대통령의 모습을 디지털 기술로 구현했다. 방송 진행자와 경부고속도로 앞에서 대화하는 박정희 전 대통령, 선거유세장에 나선 김영삼 전 대통령, 북한 순안공한에 방문한 김대중 전 대통령, 노래를 부르는 노무현 전 대통령의 모습이 비브스튜디오스 AI 연구소의 ‘버추얼 휴먼’ 기술과 실시간 증강 현실 기술로 구현됐다.

비브스튜디오스는 지난 2020년 방영된 MBC 다큐멘터리 ‘너를 만났다’에서 어린 나이에 세상을 떠난 딸을 잊지 못하는 아이 엄마가 가상현실(VR) 디지털 공간에서 재회한 딸의 모습을 최대한 생전에 가깝게 표현하기 위해 여러 기술을 지원하기도 했다. 아이와 비슷한 연령대 모델을 VR 모션 캡처 기법으로 전방위 촬영하고 아이 사진과 영상을 바탕으로 특유의 표정과 몸짓 데이터를 추출해 딥러닝 기술로 합성했다. 당시 디지털 공간에서 엄마와 대화하는 아이 목소리를 구현하기 위해 AI 기반 음성합성 기술 스타트업 네오사피엔스가 거들었다. 네오사피엔스는 동영상에 1분밖에 담기지 않은 아이 목소리와 말투를 기반으로 비슷한 연령대 아이들 목소리를 더빙해 부족한 데이터를 보완하고 딥러닝 기술로 재구성했다. 방송에서 비브스튜디오스의 이현석 영상연출감독은 “사진이나 동영상이 죽은 사람에 대한 그리움을 위로했듯 VR도 사람 마음을 위로할 수 있는 매개체가 될 것으로 본다”고 언급했다.

2020년 말 음악채널 엠넷에선 ‘AI음악프로젝트 다시 한번’을 통해 그룹 ‘거북이’ 멤버들과 함께 노래하는 마지막 무대가 연출됐다. 거북이 리더 고(故) 터틀맨이 지난 2008년 세상을 떠나면서 갑자기 해체하게 된 거북이 멤버들이 다시 모여 AI 기술로 재현된 터틀맨의 목소리와 얼굴을 보며 놀라워하고 눈물을 보이는 장면이 이어졌다.

솔트룩스 네이버블로그 ‘인공지능 인사이트’ 필진으로서 작성한 여덟 번째 정기 원고. 221004 솔트룩스 네이버블로그 포스팅으로 게재됨. 230125 개인 블로그에 원문 비공개로 올림. 230831 공개로 전환.