preLoad Image preLoad Image
검색 바로가기
주메뉴 바로가기
주요 기사 바로가기
다른 기사, 광고영역 바로가기
중앙일보 사이트맵 바로가기

못 믿겠다 AI, 설계자도 심층신경망 작동 방식 몰라

[조현욱의 빅 히스토리] 인공지능②
그래픽=박춘환 기자 park.choonhwan@joongang.co.kr

그래픽=박춘환 기자 park.choonhwan@joongang.co.kr

1956년 여름, 컴퓨터·정보과학계의 거물들이 미국 다트머스대학에서 머리를 맞댔다. 컴퓨터 과학자 마빈 민스키, 정보이론가 클로드 새넌, 미래의 노벨상 수상자 허버트 사이먼과 존 내시… 이들의 임무는 여름 한 철 동안  ‘인공 지능(AI)’이라 불리는 새로운 과학 분야를 함께 만들어 내는 것이었다.
 
야심만만한 프로젝트였다. 연구자금을 신청한 서류를 보자. “학습의 모든 측면을 포함해 지능의 여러 특성은 이를 모방하는 기계를 만들 수 있을 정도로 엄밀하게 기술하는 것이 이론상 가능하다.”
 
이들의 희망 사항은 “기계로 하여금 ▶언어를 사용하고 ▶추상적 관념과 개념을 형성하며 ▶현재로서는 인간만이 해결할 수 있는 문제를 풀고 ▶자신을 스스로 개량할 수 있도록 만드는 것”이었다. 목표는 분명히 규정돼 있었다. 기계 번역, 시각 정보의 인식과 처리, 텍스트 이해, 구어 인식, 로봇 제어, 기계 학습….
 
이들의 생각은 기계를 하향식(톱 다운)으로 프로그램하는 것이었다. 컴퓨터가 지능적 행태를 보이도록 만들기 위한 단계적 방법은 다음과 같다. 1) 인간이 언어와 텍스트, 이미지를 처리하는 방식을 반영하는 수학적 모델을 먼저 만든다. 2) 이 모델을 컴퓨터 프로그램의 형태로 실행한다. 3) 이것은 주어진 업무에 대해 논리적 추론을 수행할 것이다.
 
그 뒤 30년간 막대한 자원이 연구에 투입됐지만 이 중 어느 것도 달성되지 못했다. 소프트웨어의 탄력성이 지나치게 부족했던 탓이다. 사람은 지식의 구체적 내용을 컴퓨터 프로그램에 명료하게 적어 넣을 수가 결코 없었다. 지식은 탄력성이 너무나 컸다.
 
 
인공지능의 총아, 빅데이터 기반 기계학습
구글 딥드림 이미지. [사진 구글]

구글 딥드림 이미지. [사진 구글]

실제로 진전이 일어나기 시작한 것은 1990년대 후반에 이르러서였다. 성공에 이르려면 패러다임이 완전히 바뀌어야 했다. 데이터 기반의 AI 시대로 접어든 것이다. 그 핵심 기술은 머신러닝(기계 학습)이고 그 언어는 이제 논리가 아니라 통계였다. 기계 학습이란 컴퓨터가 스스로 학습해서 데이터로부터 패턴을 파악하는 것을 말한다. 충분히 방대한 양의 데이터가 있으면 기계로 하여금 똑똑한 일을 하도록 가르칠 수 있다. 여기에 딥러닝이 가세했다. 이는 좀 더 많은 뉘앙스와 레이어(층)를 갖추고 좀 더 똑똑하게 작동하도록 설계된 기계학습을 말한다.
 
그 응용범위는 넓다. 말을 텍스트로 변화하는 것에서부터 당뇨 환자가 시각을 잃거나 유아가 나중에 자폐 증상을 보이거나 할 징후를 몇 년 앞서 읽어 내는 데 이른다. 재소자의 가석방 심사, 금융 기관의 대출 심사, 회사의 채용에도 수학 모델이 광범위하게 사용되고 있다.
 
AI는 오늘날 공장에서 품질 관리를 담당하고 데이터 센터의 냉각시스템을 관리한다. 정부는 이를 이용해 테러리스트들의 선전 사이트나 이들이 보낸 메일을 찾아낸다. 미 항공우주국(NASA)은 이를 이용해 외계 생명체가 존재할 만한 영역을 탐사하고 있다. 그리고 무엇보다 자율주행차의 핵심을 다룬다. 구글, 페이스북, 애플 등 세계에서 가장 널리 회자되는 10대 회사 중 7곳이 자사 운영의 핵심에 딥러닝을 바탕으로 한 AI를 배치할 것이라고 말했다.
 
그러나 AI에는 신뢰의 문제가 그림자처럼 드리우고 있다. 인간이 이해할 수 없는 방식으로 지시를 이행하는 탓이다. 그 원인은 딥러닝 프로그램의 학습방법에 있다. 이런 프로그램은 자신이 소화하는 데이터에서 패턴을 찾아내면 그에 따라 코드 사이의 연결 강도를 바꾼다. 신경과학자들이 그러리라고 생각하는 실제 뇌의 학습방식을 모방하는 것이다. 이것은 (인공)신경망이라고도 불린다.
 
문제는 AI의 훈련이 끝나고 나면 이를 설계한 사람조차 알 수 없다는 데 있다. 그것이 왜 그런 방식으로 작동하는지도 모르게 된다. 이런 대리인에게 발전소 같은 핵심 인프라를 운영하거나 의학적 결정을 내리게 해도 괜찮을까? 사람들의 생명을 맡겨도 좋을까? 인류는 만든 사람이 이해할 수 없는 방식으로 작동하는 기계를 지금까지 만들어 본 일이 전혀 없다.
 
기계학습 테크닉은 오늘날의 가장 강력한 AI시스템으로 진화했다. 본질적으로 기계가 자신을 스스로 프로그램하는 것이다. 처음에 이런 방식은 실용성이 적었다. 그러다가 많은 산업 분야가 컴퓨터화 되고 대량의 데이터 세트가 등장하면서 다시 관심을 끌게 됐다. 이것은 좀 더 강력한 기계 학습 기술, 특히 인공신경망 기술의 새 버전이 발전하는 계기가 됐다.
 
2010년대에 이르자 규모가 매우 큰, 다시 말해 심층(deep)신경망이 자동 인식에 극적인 개선을 이루게 됐다. 오늘날의 AI 폭발에는 딥러닝이 핵심 역할을 했다. 구어를 사람에 버금가게 인식하는 능력을 컴퓨터에 부여한 것이 그런 예다. 손으로 코드를 써서 컴퓨터에 짜 넣기에는 너무나 복잡한 기술이다. 심층학습은 컴퓨터의 시각적 인지능력과  기계 번역을 극적으로 개선했다. 이제는 의학, 금융, 제조 공정을 비롯한 여러 분야의 의사 결정에 핵심적 역할을 하고 있다.
 
 
딥러닝은 ‘특별히 캄캄한 블랙박스’
기계 학습 기술이 작동하는 방식은 손으로 코드를 적어서 만드는 시스템보다 원래가 훨씬 더 불투명하다. 심지어 컴퓨터 과학자에게도 그렇다. 딥러닝은 특별히 캄캄한 블랙박스라는 뜻이다.
 
사람은 심층신경망의 내부를 들여다보아도 그 작동법을 이해할 수 없다. 추론 과정은 수천 개의 유사 신경세포의 행태 속에 점점이 박혀 있다. 이들 신경세포는 또한 정교하게 연결된 수백 개의 층으로 배열돼 있다. 첫 번째 층의 신경세포들은 예컨대 어떤 이미지상의 한 점(픽셀)의 밝기에 관한 신호를 받아 계산을 수행한 다음 새로운 신호를 내보낸다. 이 같은 출력값은 다음 층의 신경세포들에 입력으로 작용한다. 이런 과정이 복잡한 그물망으로 얽힌 각각의 층에서 반복된 끝에 최종 출력이 생산된다. 출력 결과는 거꾸로 각 층에 전파되면서 개별 신경세포의 계산을 조정하게 된다.
 
신경망에 존재하는 수많은 층은 사물을 각기 다른 추상화 수준에서 인식하는 것이 가능케 한다. 예컨대 개를 인식하도록 설계된 시스템을 보자. 낮은 층에서는 외곽선이나 색채 같은 단순한 사항을 인식하고 높은 층에서는 털이나 눈처럼 좀 더 복잡한 특징을 인지한 뒤 최상위층에서 모두를 종합해 개라고 판정하는 것이다. 만일 기존의 자료를 통해 형성한 신경망에서 이번 데이터를 개라고 판정했는데 실은 고양이였다면 어떻게 될까. 아래층을 향해 거꾸로 신호를 보낸다. “계산을 수정해서 신호의 출력값을 좀 바꿔 봐”. 고양이라는 정답이 나올 때까지 이 과정이 반복된다. 바람직한 결과가 나올 때까지 추론 과정을 거꾸로 수정하는 것이 역전파 과정이다. 이 과정에서 바람직한 결과를 산출하는 신경망 사이의 연결은 강화되고 그렇지 않은 연결은 약화된다. 생물의 뇌가 학습하는 과정을 모방한 것이다.
 
 
죄목도 모른 채 처형당한 은행원 K
만일 AI가 자신이 왜 그런 선택을 했는지를 설명할 수 있다면 신뢰가 강해지고 좀 더 활용도가 높아질 것이다. 혹시 일이 잘못되는 경우라도 자신의 행동에 대한 AI의 설명이 있으면 후속 조사가 훨씬 더 쉬워질 것이다.
 
이것은 암 진단이나 군사 기동 같은 심각한 상황에서 특히 필요한 특징이다. 또한 인공지능의 추론 과정을 아는 것은 이 기술이 우리 일상생활의 보편적이고 유용한 부분이 되기 위해 필수적인 요소다.
 
설명가능성에 이르는 쉬운 해결책은 없다. 수준 높은 패턴 인식이나 복잡한 의사결정에는 심층신경망 내부의 계산 사이의 상호작용이 필수적이다. 하지만 이런 계산은 수학적 함수와 변수가 끝없이 이어진 미궁과 같다. 규모가 아주 작은 신경망은 이해할 수 있을지도 모른다. 하지만 규모가 매우 커지면 이야기가 다르다. 저마다 수천 개의 계산단위를 가진 레이어가 수백 개에 이르는 경우, 그 계산 과정을 이해하는 것은 불가능하다. 예측 불가능하고 조사도 불가능한 기계와 우리는 얼마나 잘 지낼 수 있을까?
 
예컨대 어느 은행의 인공지능 프로그램이 컴퓨터가 당신의 대출을 거부했다고 하자. 하지만 도대체 무슨 근거로 거부 결정을 내렸는지는 실제로 프로그램을 만든 사람도 알 수 없다. 수감자의 가석방 여부를 결정하는 데 도움을 주는 인공지능 프로그램도 마찬가지다. 그렇다면 처분 당사자는 어디 가서 하소연할 것인가.
 
이는 카프카의 소설 『심판』과 비슷한 상황이다. 은행원 K는 어느 날 영문도 모르고 체포된다. 무죄를 입증하려 백방으로 애쓰지만 관료적인 당국은 접촉조차 되지 않는다. 그는 죄목이 무엇인지도 모른 채 처형당한다. “하지만 나는 죄인이 아닙니다.”  K가 말했다. “뭔가 잘못된 겁니다. 누군가가 유죄라는 게 도대체 가능한 일이기나 한가요?” 신부가 대답했다. “맞는 얘기야. 하지만 그게 죄인들이 하는 말이지.”
 
우리 모두 K가 되는 세상이 올 수도 있다. ‘인공지능이 번성하려면 자신을 스스로 설명해야만 한다.’ 지난주 영국 이코노미스트지에 실린 특집 기사 제목이다. 부제는 이렇다 ‘만일 그렇지 못하다면 누가 이것을 신뢰할 것인가?’
 
 
조현욱 과학과 소통 대표
서울대 졸업. 중앙일보 논설위원, 객원 과학전문기자, 한국외국어대 언론정보학부 초빙교수 역임. 2011~2013년 중앙일보에 “‘조현욱의 과학산책’연재. ‘조지형 빅 히스토리 협동조합’을 통해 빅 히스토리를 널리 알리면서 과학 저술과 강연에 힘쓰고 있다.

구독신청

AD
온라인 구독신청 지면 구독신청

중앙일보 핫 클릭

PHOTO & VIDEO

shpping&life

뉴스레터 보기

김민석의 Mr. 밀리터리 군사안보연구소

군사안보연구소는 중앙일보의 군사안보분야 전문 연구기관입니다.
군사안보연구소는 2016년 10월 1일 중앙일보 홈페이지 조인스(https://news.joins.com)에 문을 연 ‘김민석의 Mr. 밀리터리’(https://news.joins.com/mm)를 운영하며 디지털 환경에 특화된 군사ㆍ안보ㆍ무기에 관한 콘텐트를 만들고 있습니다.

연구소 사람들
김민석 소장 : kimseok@joongang.co.kr (02-751-5511)
국방연구원 전력발전연구부ㆍ군비통제센터를 거쳐 1994년 중앙일보에 입사한 국내 첫 군사전문기자다. 국방부를 출입한 뒤 최장수 국방부 대변인(2010~2016년)으로 활동했다. 현재는 군사안보전문기자 겸 논설위원으로 한반도 군사와 안보문제를 깊게 파헤치는 글을 쓰고 있다.

오영환 부소장 : oh.younghwan@joongang.co.kr (02-751-5515)
1988년 중앙일보 입사 이래 북한 문제와 양자 외교 관계를 비롯한 외교안보 현안을 오래 다뤘다. 편집국 외교안보부장ㆍ국제부장과 논설위원ㆍ도쿄총국장을 거쳤고 하버드대 국제문제연구소(WCFIA) 펠로우를 지냈다. 부소장 겸 논설위원으로 외교안보 이슈를 추적하고 있다.

박용한 연구위원 : park.yonghan@joongang.co.kr (02-751-5516)
‘북한의 급변사태와 안정화 전략’을 주제로 북한학 박사를 받았다. 국방연구원 안보전략연구센터ㆍ군사기획연구센터와 고려대학교 아세아문제연구소 북한연구센터에서 군사ㆍ안보ㆍ북한을 연구했다. 2016년부터는 중앙일보에서 군사ㆍ안보 분야 취재를 한다.