구글홈·아마존에코는 AI용 센서일 뿐이다?

지난달 AI 관련 업무가 하달됐다. 태스크포스(TF)팀장을 통해 2017년 6월 5일 섭외된 전문가 초빙 강의를 들었다.

한양대학교 에리카(ERICA) 캠퍼스 이상근 조교수가 시간을 할애했다. 정제된 설명으로 진행된 강의를 현장에서 요약 타이핑했다. 가독성이 좋지 않아 내용을 첨삭하면서 재구성했고, 향후 취재 방향에 영감을 준 메시지를 제목으로 삼았다.

다만 기사가 아니라서 정리된 내용에 대해 강연자의 자문을 구하진 않았다. 이 글은 강연자가 실제로 아래 내용을 직접 주장, 전달했다는 근거로 쓰일 수 없다. 표현의 불명확함이나 내용 및 수치상의 오류는 순전히 수강자의 한계다.

[사진=Pixabay] 인공지능을 형상화한 이미지.

기초개념

  • 인공지능은 인간 인지와 관련된 기능을 흉내내는 기계(HW or SW). 인공지능 방법론에서 머신러닝의 비중이 80~90% 정도 차지. 여기엔 통계학과 정보과학 이론이 결합돼 있음.
  • 인공지능이 잘 풀 수 있는 문제 유형은 입력데이터 또는 계산과정(함수)은 복잡하지만 결과로 얻는 출력데이터가 간단한 것들. a) 암유전체 데이터로부터 위험성을 결정하는 유전자 찾기, b) 자동차 자율주행시스템 c) 바둑
  • 인공지능이 잘 풀 수 없는 문제 유형은 필요한 출력데이터가 간단치 않은 것들. a) 스타크래프트 – 입력데이터는 플레이어의 자원과 유닛, 적의 (추정되는) 자원과 유닛과 전략, 전장의 건물 및 유닛의 배치. 출력데이터는 각 유닛의 이동 및 공격 등 행동, 건설과 업그레이드와 유닛생산과 자원 사용 결정 등 여러가지. b) ‘안전한’ 자율주행시스템. 자율주행 자체는 구현할 수 있지만 ‘안전함’을 정의하는 것이 어렵기 때문.

용어적 접근

  • 구현방법론의 차원에서, ‘인공지능’이라는 전체 범주 안에 ‘기계학습(머신러닝)’이라는 부분집합이 있다. 머신러닝 안에 ‘표현형 학습’이라는 부분집합이 있다. 표현형 학습 안에 ‘딥러닝’이라는 부분집합이 있다. 더 쉽게 말하면, 딥러닝은 표현형 학습에 포함된다. 표현형 학습은 머신러닝에 포함된다. 머신러닝은 인공지능에 포함된다.
  • 딥러닝과 머신러닝의 관계만을 놓고 보면, 머신러닝 자체는 다양한 기술, 기법, 장치를 활용해 수행. 딥러닝은 머신러닝을 수행하기 위한 기술, 기법, 장치 중에서도 ‘딥뉴럴넷(DNN)’을 활용해 수행.
  • 1980년대 인공지능 방법론 중 머신러닝은 입력데이터(X값)로 일정유형의 출력데이터(Y값)를 얻는 함수(f)를 도출하는 과정을 사람이 직접 수행했음. 현대 머신러닝 방법론으로는, 이미 적절한 함수의 범주가 주어지고, 주로 그 함수를 도출하기 위해 필요한 파라미터를 찾는 작업을 함.
  • DNN을 활용하는 딥러닝 방법론은 1980년대 인공지능 개발방법론에서 제안된 ‘퍼셉트론’ 범주에서 크게 바뀌지 않았음. 퍼셉트론 방법으로 수행되는 데이터 연산 단계(레이어)를 늘리면 멀티레이어 퍼셉트론. 여기에는 X값으로 Y값을 얻기까지 거치는 중간단계(히든레이어)와 중간단계에 적용되는 변수(히든유닛)가 추가됨. 히든레이어가 둘 이상이면 DNN이라고 부름.
  • 머신러닝에서 흔히 언급되는 ‘학습(training)’이 실제로는 함수의 수치 최적화 문제. 주어진 입력값을 사용해 결과값 오차를 최소화하는 최적의 파라미터를 찾는 과정. 최적화 행위에는 오차를 줄이는것뿐아니라 계산효율을 높이는 것도 포함돼 있는데, 계산효율을 높이는 쪽은 흔히 간과되는 영역. 슈퍼컴퓨팅(HPC). 국내 기술력이 취약한 분야이기도.

4차산업혁명과의 연관성

  • 3차산업혁명은 자동화(?) 성격이 커서 현업 당사자가 아니라면 1차 2차 산업혁명만큼 각 개인이 느낄 변화가 크지 않았음. (부정확하게 이해된 부분) 4차산업혁명은 인공지능으로 바뀌는 것. 제조에 적용하면 스마트팩토리. 스마트팩토리 기초 개념은 독일이 주창했고 제조현장에 기존 생산구조는 유지하되 센서설치해서 잘해보자는 접근이었는데 결과적으로는 스마트팩토리와 멀어지고 다른 접근 요구됨.
  • 스마트팩토리의 좋은 사례는 구글 데이터센터 전력절감을 위해 DCIM에 인공지능 적용한 것. 세계 20여곳에 한 곳당 8천억원씩 들여 지하 3~4층 규모 건물로 구축된 구글데이터센터의 최대 과제가 발열과 이를 처리하는 전력소모 최적화. 비선형적인 상태값을 보고 사람이 일일이 판단해 냉각 최적화하기가 어려웠음. 5년전 이 문제 해결을 위해 연구 시작, 2년전부터 쿨링 컨트롤러 데이터를 모으기 시작, 딥마인드 알파고를 활용해 컨트롤하는 기능을 시뮬레이션한 뒤 지난 1년간 데이터센터(일부인지 전체인지 불명) 쿨링을 전부 그 인공지능으로 제어. 2012년 구글 연간 전기사용량은 440만MW였는데 이후 여기서 냉각을 위한 전력소모 40% 줄이고 비용 운영비 15% 절감.

인공지능 실용화 사례

  • 음성인식, 음성합성 시스템. 구글 웨이브넷 TTS 언급. human speech 점수가 4.55일 때 웨이브넷이 4.21로, 이 분야 경쟁사 parametric(3.86)과 concat(3.67)을 압도. 관련 업체를 인수한 구글은 그 데이터를 모두 자산화하는 방식을 취해 그 데이터를 스마트하게 활용하고 있기 때문이라고 평가. (인간이 수집 정제한 데이터를 기업 인수로 쉽게 확보하고 그걸 활용한 알고리즘 기반 인터넷서비스를 내놓으면서 더 많은 데이터 입력을 유도, 알고리즘을 고도화한다는 의미) 국내서 그나마 스마트하게 데이터를 수집하는 회사는 OCR과 인간의 수기입력을 병행하는 명함관리앱 리멤버 정도.
  • 포뮬러E 사례 소개. 스포츠레이싱인데 콕핏 정비시간 20초 제한이라는 룰이 존재. 차량 정비나 배터리 교체에는 부족한 시간이라 사람이 옮겨 타는 수준의 이벤트밖에 발생하지 않음. 노잼. 흥행하기 어려움. 레이스를 재미있게 만들기 위해 사람(레이서)을 빼버림. 인공지능으로 주행하는 자동차경주 ‘로보레이스(roborace)’ 시스템이 개발되고 있음. 엔비디아 자율주행차량 시스템이 탑재됨. 시연 기록 영상에서 엔비디아 시스템을 적용한 자율주행형 포뮬러 자동차가 트랙을 천천히 돌기 시작해 10여바퀴 돌며 점차 기록을 단축해가는 모습이 인상적. 포뮬러E 임원이 나와서 구경하다 활짝 웃고 박수치며 감.

인공지능 방법론 중에 최근 들어 딥러닝 뜨는 이유

  • 데이터가 많아져서. 데이터 가진 쪽이 갑이 됨. (현재 경쟁전선은 데이터 확보 경쟁이기도 하다는 설명) 누구, 기가지니, 이런것은 기술의 총아가 아님. 없는 데이터 쌓기 위해 만든 것. 사용자가 이런 스마트스피커 제품 각 가정에 놓고 음성명령 내리고 하는 게 기업에 부재한 음성데이터를 쌓으려는 계책. 스마트한 접근. 지금 인식률은 저조할 것. 5년쯤 뒤에 괜찮아질 것. 이런 제품 사용자들 동의하는 약관에 그 데이터 기업에 넘어간다는 내용 들어가 있음. 구글 비전 같은 서비스도 제공사이트 작은 글씨로 구글이 데이토 소유한다고 안내함.
  • 인공지능 기법 자체는 크게 안 바뀜. 이걸 빨리 풀 수 있는 기법(최적화)의 발전 수준 면에서 국내는 많이 미흡. 텐서플로, 카페, 테아노(인공지능 앱 프레임워크)같은 것 국내에서 못 만드는 이유가 최적화 쪽 투자 안 해서. 보기에 괜찮은 껍데기(디바이스와 UI) 만들 수 있지만 그 안에서(혹은 뒷단에서) 돌아가는 코어를 만들기 어려운 것.
  • 미국은 인공지능을 4차산업혁명 견인차로 삼고 있음. 최적화에 막대한 투자. 저비용 초고성능 컴퓨터 등장 추세. 플롭스(FLOPS, 초당부동소수점연산단위)를 테라급으로 수행하는 컴퓨터 소형화되고 있음. ETRI가 200억원 들여 만든 게 80테라FLOPS짜리. 서울대의 ‘천둥’이 25억원 들여 만든 100테라짜리. 커제9단과 대국 벌인 알파고 성능이 이 정도. 현재 이 정도 성능의 슈퍼컴퓨터는 데스크톱 크기 정도로 대당 1억5천(만원)이면 만듦. 40억원 있으면 이 방(회사 회의실) 가득 채우는 정도 규모의 알파고 시스템 만들 수 있고.

강연자 연구분야

  • 돈 써서 기계 사도 최적화 쉽지 않음. 정형화된 프로그램이 있는 게 아니기 때문. 풀려는 문제를 계산할 프로그램에 분산 알고리즘, 병렬알고리즘을 만들어줘야 함. 이 부분에 비용이 많이 들어감. 나는 수치를 최적화하는 기법을 자동화하는 특허를 내려고 함.
  • 의료분야 유전체분석 쪽에서 의대와 협력해 대장암진단 공동연구 중. 영상진단 자동화시스템을 개발할 예정. 또 이상 발생했을 때 설명 가능한 원인을 찾을 수 있는 인공지능 모델을 개발하려고 함. 현존 딥러닝 방법론 최대 문제는 이상 생겨도 설명가능한 원인을 찾을 수가 없음. 자율주행차 사고나도 사고원인 설명이 안 됨.
  • 학습된 인공지능을 임베디드 기기에서도 돌아갈만한 크기로 만들어낼 수 있는 ‘모델 압축’ 쪽 과제도 하려고.

질의응답

딥러닝 뜨기 전 주목됐던 머신러닝 방법론은

  • 커널메서드(kernel method)라는 게 있었음. 독일에서 50년정도 이론적으로 정립됨. 이 방법론으로 구현한 머신러닝은 학습이 왜 잘되는지 잘 안되는지 설명 가능.
  • 딥러닝은 이걸 못함. 실제 적용해보니까 잘 되더라 정도지 왜 잘 되는지는 만든 사람도 모름.

머신러닝 안의 ‘표현형 학습’에서 가리키는 ‘표현형’이란

  • (주로 머신비전에서) 기계가 데이터를 인식하기 위해 필요한 특성을 간추린 정보. 얼룩말사진을 인식해야 한다고 예를 들면, 얼룩말 전체 그림에서 얼룩말 겉모습의 특징인 줄무늬 부분 이미지를 여러개 작은 조각으로 나눔.
  • (이하는 설명이 아니고 자체 이해한 부분 서술) 주어진 데이터와 특징을 대조하기 위해 이런 특징을 대표하는 ‘필터’라는 걸 만들고 사진 전체를 ‘훑는’ 작업을 수행해야 함. 과거에는 필터를 만들고 대조하는 걸 사람이 수작업으로 했다면, 딥러닝은 이걸 자동화한 것.

설명대로라면, 구글 홈, 아마존 에코, SKT 누구, KT 기가지니, 이런 소위 ‘스마트스피커’는 인공지능 기술의 총아 이런 게 아니고 그냥 데이터 포집기나 센서에 불과하단 얘긴가

  • 맞음. 누구나 기가지니 이런 것도 일반사용자에게 제공되는 인터넷서비스들처럼 데이터 수집을 위한 것. 국내에 그간 보유된 데이터가 많지 않기 때문에 사업자들이 향후 활용할 데이터를 당장 확보하려고 제품을 앞다퉈 내놓은 것.

(추가질문) 국내외 업체의 기기들이라는 게 인식률 정도 차이가 있다뿐 본질은 같다는 말씀으로 들리는데

  • 사실 국내 제품이라고 인식률이 떨어지고, 구글이나 아마존이 만들었대서 특별히 더 높을 것도 없음.
  • 당장 인식률이 얼마나 되는지, 얼마나 제품이 똑똑한지 이런건 중요한 게 아님. 인공지능 기술에 초점을 맞춰 접근하려고 한다면 이런 디바이스에 진지하게 집중하는 건 별로 가치가 없을 것.