preLoad Image preLoad Image
검색 바로가기
주메뉴 바로가기
주요 기사 바로가기
다른 기사, 광고영역 바로가기
중앙일보 사이트맵 바로가기
닫기
닫기

[트랜D]인공지능(AI)의 오판 최대한 줄이려면

인공지능(AI)도 종종 오판한다. 잘못된 알고리즘 설계 때문일 수도 있고, 학습한 데이터 자체가 문제를 갖고 있을 수도 있다. 그리고 인간 세상에 나와, 기계 스스로는 생각하지 못한 사건에 부딪혀 작동을 멈추는 경우도 있다. 철학자 드레이퓌스(Dreyfus)는 기계가 ‘패스트푸드점에 가서 햄버거를 사 오라’는 것을 해내지 못할 것이라고 했다. 현실 세계에서는 무수히 많은 종류의 사건이 발생하기 때문에 이 모든 경우의 수를 고려하다가 무한한 시간이 걸려 결국 일을 해내지 못한다는 논리다. 비슷한 이유로 자율주행 차의 완전한 무인 자동화에 대해 비판적으로 보는 이들도 많다.
 

유재연의 ‘인사이드 트랜D’

로봇에게 맥락을 학습시키는 이유

실제로 AI가 현실을 파악하도록 연구자는 AI에게 ‘맥락(context)’를 학습시킨다. 특히 이미지를 인식하며 현실에서 움직여야 하는 로봇은 이러한 학습이 반드시 필요하다. 마이크로소프트(MS) 연구진은 지난 3월 드론이 실제 어느 상황에서든 제대로 목표물을 향하도록 하는 알고리즘 연구를 공개했다. 비바람이 몰아치고, 트랙 모양이 바뀌더라도 허들을 넘어갈 수 있도록 학습시키는 것이다. 이때 1인칭 시점, 즉 조종자 시점에서 시뮬레이션 된 비행경로를 실제 환경 데이터 이미지에 넣어 학습을 시키는 방식을 활용했다고 한다. 사람의 시각 운동을 모방해, 어떤 맥락에서든 목표를 향해갈 수 있도록 훈련한 것이다. 
그림1. 마이크로소프트 연구진의 프레임워크 설명. 다양한 트랙 모양과 기상 상황에서도 비행이 가능하도록학습이 되어있다.https://www.microsoft.com/en-us/research/blog/training-deep-control-policies-for-the-real-world/

그림1. 마이크로소프트 연구진의 프레임워크 설명. 다양한 트랙 모양과 기상 상황에서도 비행이 가능하도록학습이 되어있다.https://www.microsoft.com/en-us/research/blog/training-deep-control-policies-for-the-real-world/

AI도 ‘현실’에서는 사람 손을 탄다

꼭 거창한 AI 로봇 이야기까지 가지 않더라도, 실제 AI 솔루션을 현장에서 쓰려면 이래저래 손이 많이 간다. 연구소 안에서 수십 번의 유저 스터디와 프로토타이핑을 마쳤어도, 실제 사람의 사용법은 가지각색이기 때문이다. 실제 필자가 AI 챗봇을 만들 때도, 연구실에서는 미처 생각지 못한 일들이 현장에서 벌어지는 것을 왕왕 보았다. 이를테면인터넷 연결 신호 저하로 인한 파일 전송의 실패나 예상치 못한 데이터의 입력, 사용자의 반복적 재접속 등으로 벌어지는 에러가 AI를 괴롭혔다.  
 
며칠 전 MIT 테크놀로지리뷰에도 구글 헬스에서 개발한 한 의료 AI가 생각보다 제대로 활용되지 못했다는 내용이 실렸다. 해당 AI는 안구 촬영 이미지로 당뇨병 환자의 망막 질환을 90% 넘는 정확도로 찾아낼 수 있었다. 소요 시간도 고작 10분 안팎. 그런데 실제 태국의 병원에서 써 본 결과, 예상보다 많은 시간이 걸려 활용에 어려움이 있었다.  
 
대개 알고리즘 설계에서 쓰이는 데이터는 잘 정제된 경우가 많다. 개발자 입장에서도 높은 정확도의 알고리즘을 보장하기 위해선, 그만큼 선명하고 잘 뽑힌 이미지가 있어야 하는 법. 하지만 실제 태국 병원 현장에서 찍는 사진들에는, 조도나 흔들림 등의 이유로 노이즈가 많이 끼어 알고리즘이 제대로 읽지 못하는 경우가 많았다. 그뿐만 아니라 현지 상황에 따라 솔루션과 연계된 클라우드로의 이미지 파일 전송이 느려지는 경우도 발생해, 오히려 인간 의사가 직접 보는 것보다도 효율이 떨어졌다고 한다.  
 
이러한 이미지 인식 AI의 성능은 사용자가 쓰는 기기의 특성에 따라 떨어질 수도 있다. 사용자가 쓰는 기기의 사양에 따라 데이터의 질도 충분히 달라질 수 있기 때문이다. 예를 들어 사람 얼굴 사진을 통해 나이를 예측하는 AI 프로그램의 경우, 저화질 카메라로 촬영한 얼굴을 ‘동안’으로 인식하는 경향성을 보이기도 한다. 단지 사용자의 카메라 화소가 낮다는 이유로, 피부가 뽀얗게 보이고 주름이 잘 찍히지 않아서 벌어진 일이다.  

사람의 노력이 AI를, 그리고 우리의 삶을 더 좋게 만든다.

‘탁상’에서 곱게 만들어진 AI일수록, 현장 적응력을 더 키워야 한다. 그러기 위해서는 AI 솔루션을 쓰는 인간 사용자의 노력도 조금은 필요하다. 망막 사진을 조금 더 깔끔하게 찍어준다거나, 적극적인 솔루션 활용을 위하여 인터넷 인프라를 조금 더 개선한다거나, 더 본질에서는 AI가 이해하기 쉬운 데이터에 대한 나름의 ‘교육’을 실시한다거나 하는 일들이 여기에 속한다. AI 리터러시 교육이 점차 늘어나는 것도 이러한 이유 때문이다.
 
이런 가운데 싱가포르의 한 대학 연구진이 개발한 AI가, 한국의 코로나19 종식 시기를 5월 12일로 예측했다고 한다. 그런데 해당 연구진의 웹사이트에 들어가 보면, 우리로 치면 ‘신천지 집단 감염’과 같은 갑작스러운 상황이 발생할 경우 예측은 충분히 달라질 수 있다고 명시돼 있다. 이번만큼은 부디 AI의 예측이 들어맞기를 바라며, 우리가 힘을 합쳐 AI에게 힘을 실어주는 것은 어떨까. 방법은 간단하다. 지금까지 AI가 학습한 데이터 패턴대로, 우리가 지금까지 해왔던 것처럼, 우리가 그저 조금만 더 조심하면 될 일이다. 
 
유재연 / 서울대학교 융합과학기술대학원 박사과정 (you.jae@snu.ac.kr)
 
 중앙일보와 JTBC 기자로 일했고, 이후 서울대 융합과학기술대학원 박사과정을 밟고 있다. 이미지 빅데이터분석, 로봇저널리즘, 감성 컴퓨팅을 활용한 미디어 분석에 관심이 많다.
 

관련기사

온라인 구독신청 지면 구독신청

PHOTO & VIDEO

shpping&life