preLoad Image preLoad Image
검색 바로가기
주메뉴 바로가기
주요 기사 바로가기
다른 기사, 광고영역 바로가기
중앙일보 사이트맵 바로가기

스피커 보며 허공에 손가락을 돌렸다, 볼륨이 커졌다

8일(현지시각) 2019 국제 전자제품박람회(CES)가 열린 미국 라스베이거스 컨벤션센터 노스홀. 기아자동차가 마련한 자동차 운전석 모형에 앉았다. 중앙일보 기자가 살짝 웃음을 짓자 갑자기 조명이 노란색 계열로 바뀌면서 은은한 향기가 흘러나왔다. 자동차가 운전자의 표정을 보고 어울리는 설정을 스스로 변경한 것이다. 라스베이거스 고속도로 가상 주행을 시작했다. 다소 지루해서 하품했더니 조명이 푸른색 계열로 바뀌면서 증강현실(AR) 게임을 추천했다. 전방에 주행 중인 기아차 스포티지·K9 사이로 풍선이 등장했다. 검지손가락으로 찌르는 동작을 취했더니 풍선이 ‘펑’ 터졌다. 자동차는 또 지루하지 않은 풍경을 감상할 수 있는 대안 경로(라스베이거스 스트립로드)을 제안했다.
 
현대모비스가 CES 2019에서 선보인 4세대 자율주행 콘셉트카에서 관람객이 손가락을 허공에 대고 차량을 조작하고 있다. [사진 현대모비스]

현대모비스가 CES 2019에서 선보인 4세대 자율주행 콘셉트카에서 관람객이 손가락을 허공에 대고 차량을 조작하고 있다. [사진 현대모비스]

인근 현대모비스 부스에 등장한 자율주행 콘셉트카 운전석에 앉았다. 대시보드 송풍구를 응시하면서 검지손가락을 들고 허공을 가리켰다. 시계방향으로 손가락을 빙글 돌렸더니 따듯한 바람이 점점 강하게 불었다. 이번에는 스피커를 응시하며 검지손가락을 돌리자 볼륨이 커졌다. ‘가상 공간 터치 기술’이다. 현대판 마법사가 된 느낌이었다.
 
◆생체신호·표정 감지 … 운전자도 모르는 감정 파악=CES에서 등장한 차량용 핵심 기술은 한 가지 공통점이 있다. 인공지능(AI)이 운전자·탑승객의 취향을 스스로 파악한다는 점이다. 사람은 때론 자신이 무엇을 좋아하는지 명확히 판단하지 못하는 경우도 있다. 하지만 차량용 AI는 다르다. 운전자 본인이 머리로는 받아들이지 못하더라도 몸이 선호하는 취향이 있다면 이를 족집게처럼 골라서 추천한다.
 
차량용 AI가 운전자보다 더 운전자를 잘 파악하는 배경에는 3가지 기술이 자리한다. 첫째, 정밀 인식 기술이다. 얼굴은 인간의 감정을 가장 잘 보여주는 대표적인 신체다. CES에서 만난 자동차는 운전자·동승객의 표정 변화를 정확히 인지하려고 천장에 카메라를 설치했다. 차종에 따라 A필러(앞창문과 운전석 창문 사이 기둥)나 백미러(후사경·rear view mirror)에 설치하기도 한다.
 
기존 카메라와는 다른 3차원 카메라다. 일반 카메라는 픽셀마다 색깔 정보를 저장하는데, 3차원 카메라는 색깔 정보와 함께 거리 정보까지 저장한다. 따라서 평면적인 모습을 기록하는 일반 카메라와 달리, 3차원 카메라는 대상을 입체적으로 인식할 수 있다.
 
스티어링휠 상단에 설치한 심전도센서는 운전자 생체정보를 인식한다. 여기 엄지손가락을 올려두면 자동차가 심장박동의 변화를 측정한다. 스티어링 휠은 피부 전도율도 측정한다. 예를 들어 긴장하면 손바닥에 땀이 나고 체온이 달라지는데, 자동차가 운전자의 이런 생체정보를 파악해서 감정 변화를 가늠하는 것이다.
 
CES 2019에서 ‘실시간 감정반응 차량제어’를 설명하는 기아차 이진모 책임연구원(오른쪽)과 신휘원 기아차 연구원. [문희철 기자]

CES 2019에서 ‘실시간 감정반응 차량제어’를 설명하는 기아차 이진모 책임연구원(오른쪽)과 신휘원 기아차 연구원. [문희철 기자]

관련기사
물론 신체 변화를 일부 감지한다고 인간의 감정을 정확히 이해할 수는 없다. 복잡다단한 인간의 감정을 고려하면 지나치게 제한적이고 단순한 정보다.
 
이런 문제를 차량용 AI는 딥러닝(deep learning·심층학습) 기술로 넘어섰다. 사람이 장기간 경험을 바탕으로 사물을 이해하고 판단하는 것처럼, AI도 장기간 데이터 분석해 발전한다. 예를 들어 주행시 조수석에 탑승한 사람을 수시로 관찰한 결과 언제나 오른쪽 눈을 찡그리고 있었다면, 다음에 동일인이 탑승해서 찡그리더라도 이를 ‘기분 나쁜 상태’로 판단하지 않는 식이다.
 
기존 규칙 기반 기술은 인간이 자동차를 위해서 정교하게 규칙을 프로그래밍했다. 입꼬리가 입술에서 어느 정도 비율로 구부러지고, 눈매가 하방으로 어느 정도 쳐지면 ‘우울하다는 감정’이라는 규칙을 정하는 식이다.
 
기아차가 올해 중국에서 출시할 신형 스포티지에 탑재된 바이두의 AI 로봇이 운전자의 피로도를 감지하고 있다. [사진 바이두]

기아차가 올해 중국에서 출시할 신형 스포티지에 탑재된 바이두의 AI 로봇이 운전자의 피로도를 감지하고 있다. [사진 바이두]

하지만 아무리 정교하게 규칙을 모델링해도 모든 사람에게 적용할 수는 없었다. 사람마다 표정이 다르거나 감정이 달라질 수 있는데 모든 사람에게 적용할 수 있는 규칙을 찾기는 쉽지 않다.
 
반면 딥러닝 기술은 스스로 학습하며 정확성을 높이는 특징이 있다. 구글 딥마인드가 개발한 알파고가 기보를 꾸준히 학습해 이세돌 바둑기사를 넘어선 것처럼, 차량용 AI도 데이터를 학습할수록 발전한다. 시행착오를 반복하면서 수많은 변수 데이터가 의미하는 감정을 보다 정확히 추출할 수 있다.
 
◆인식·딥러닝·제어기술이 AI 발전 이끌어=셋째, 차량 제어기술이다. 정보(감정)의 의미를 이해한 다음에는 실제로 차량을 조작해서 탑승객 취향에 적합한 환경을 조성해야 한다. 현대차그룹이 CES 부스에서 선보인 AI는 자동차의 진동·소리·온도·향기·조명을 조절할 수 있다.
 
[그래픽=김경진 기자 capkim@joongang.co.kr]

[그래픽=김경진 기자 capkim@joongang.co.kr]

또 운전자가 패널·버튼을 직접 누르지 않고도 차량을 제어할 수 있는 ‘가상공간 터치 기술’도 적용했다. 운전자를 상시 주시하고 있는 3차원 카메라가 손가락을 인식해서 차량 내부 기기를 조작하는 시스템이다. 예컨대 허공에서 검지손가락으로 버튼을 누르거나 좌우로 움직이면 내비게이션·공조장치 조작이 가능하다.
 
현대차그룹이 CES에서 선보인 가상공간 터치 기술을 프로그래밍한 김석중 브이터치 연구부문 공동대표는 “BMW가 선보였던 가상공간 차량 조작 기술은 1개의 제스처가 단 1개의 기능을 지시한 데 비해, 현대차그룹이 선보인 기술은 3~4가지 제스처만으로 차량 실내 기기 수십 개를 조작할 수 있다”며 “범용으로 사용할 수 있다는 점에서 매우 앞선 차량 제어 기술”이라고 말했다. 
 
라스베이거스(미국)=문희철 기자 reporter@joongang.co.kr
AD
온라인 구독신청 지면 구독신청

중앙일보 핫 클릭

PHOTO & VIDEO

shpping&life

뉴스레터 보기

김민석의 Mr. 밀리터리 군사안보연구소

군사안보연구소는 중앙일보의 군사안보분야 전문 연구기관입니다.
군사안보연구소는 2016년 10월 1일 중앙일보 홈페이지 조인스(https://news.joins.com)에 문을 연 ‘김민석의 Mr. 밀리터리’(https://news.joins.com/mm)를 운영하며 디지털 환경에 특화된 군사ㆍ안보ㆍ무기에 관한 콘텐트를 만들고 있습니다.

연구소 사람들
김민석 소장 : kimseok@joongang.co.kr (02-751-5511)
국방연구원 전력발전연구부ㆍ군비통제센터를 거쳐 1994년 중앙일보에 입사한 국내 첫 군사전문기자다. 국방부를 출입한 뒤 최장수 국방부 대변인(2010~2016년)으로 활동했다. 현재는 군사안보전문기자 겸 논설위원으로 한반도 군사와 안보문제를 깊게 파헤치는 글을 쓰고 있다.

박용한 연구위원 : park.yonghan@joongang.co.kr (02-751-5516)
‘북한의 급변사태와 안정화 전략’을 주제로 북한학 박사를 받았다. 국방연구원 안보전략연구센터ㆍ군사기획연구센터와 고려대학교 아세아문제연구소 북한연구센터에서 군사ㆍ안보ㆍ북한을 연구했다. 2016년부터는 중앙일보에서 군사ㆍ안보 분야 취재를 한다.