preLoad Image preLoad Image
검색 바로가기
주메뉴 바로가기
주요 기사 바로가기
다른 기사, 광고영역 바로가기
중앙일보 사이트맵 바로가기
닫기
닫기

이세돌 AI와 바둑대결 할 때···"AI 해악 우려" 경고한 윤송이

윤송이 사장, 사회적 편견 지닌 AI위험성 경고  

한-스웨덴 비즈니스 서밋에서 발표하는 윤송이 사장. [연합뉴스]

한-스웨덴 비즈니스 서밋에서 발표하는 윤송이 사장. [연합뉴스]

“컴퓨터도 인공지능(AI) 프로그램 과정에서 시스템적, 반복적 오류로 인한 ‘알고리즘 적 편견’을 지니게 됩니다.”
윤송이 엔씨소프트 사장이 지난 18일 서울 송파구 시그니엘서울에서 열린 ‘한국-스웨덴 비즈니스 서밋’ 행사 기조발표에서 한 말이다. 윤 사장은 문재인 대통령과 스테판 뢰벤 스웨덴 총리가 참석한 특별 세션에서 “AI가 우리에게 해를 끼치지 않고 발전할 수 있게 고민이 필요하다”고 강조했다. 이어 “국경을 넘어선 차별과 편견이 지닌 해악을 과거에 목격했는데 AI도 그러한 사회적 편견을 지닐 수 있다”며 “AI 기술을 개발하고 활용하는데 따른 책임감이 필요하다”고 덧붙였다. 미국 스탠퍼드대학 인간중심 AI 연구소(Human-Centered AI Institute, HAI) 자문 위원을 맡고 있는 윤 사장은 엔씨소프트 창업자인 김택진 대표의 부인이다.
 
AI에 대한 책임감을 강조한 윤 사장의 발표는 AI 발전과 활용에 대한 국가적 관심이 쏠리고 있는 상황에서 큰 관심을 모았다. 특히 이날은 이세돌 9단과 바둑 AI ‘한돌’의 대결로 ‘AI의 능력’에 대한 관심이 최고조로 쏠린 때이기도 했다. 엔씨소프트 관계자는 “AI가 어떤 일을 할 수 있는지에만 집중하는 상황이 초래할 위험에 대해 (윤 사장이) 지속적으로 문제 제기를 해왔다”고 설명했다.

특정 인종에 대한 편견 학습한 AI 배심원

이세돌 9단이 지난 18일 바둑AI 한돌을 상대로 한 은퇴 기념 대국 1국 후 복기하고 있다. 김정민 기자

이세돌 9단이 지난 18일 바둑AI 한돌을 상대로 한 은퇴 기념 대국 1국 후 복기하고 있다. 김정민 기자

윤 사장은 지난달에도 엔씨소프트 사내 블로그에 관련 글을 올렸다. 해당 글에서 그는 구글 검색창의 예를 들어 인간이 가진 편견을 학습한 AI와 알고리즘의 위험성을 경고했다. 최고경영자(CEO)를 검색하면 상위 50개가 모두 백인 남성의 사진이 나오는데 이런 데이터로 학습한 AI가 ‘CEO는 어떤 사람일까’라는 질문에 어떤 답변을 하겠냐는 취지였다.
 
또 미국 법원에서 보석 결정을 위해 쓰는 AI 기반 소프트웨어도 언급했다. 미국 배심재판에선 가난한 사람이 배심원으로 참여하기 힘들다. 생업을 팽개치고 며칠씩 이어지는 재판에 참여하기 어려워서다. 이렇다 보니 부유층 의견이 경제적 약자층보다 판결에 많이 반영되는 문제가 생겼다. 이 같은 재판 결과를 학습한 AI도 인간처럼 특정 인종과 소득 계층 피고인에게 불리한 결론을 내리는 경향을 보였다는 얘기였다. 윤 사장은 “기술은 편견이나 불공정함을 여과 없이 담는다”며 “AI를 더 많이 만들어 보급해야 한다고 말하기 전에 우리가 꿈꾸는 미래 사회는 어떤 모습일지 더 많이 논의해야 한다”고 말했다.
 

편견 지닌 인간사회부터 보완 필요

지난 11월 일본 도쿄에서 열린 한 행사에서 관람객들이 영화 터미네이터:다크 페이트에 나오는 AI로봇 모형을 구경하고 있다. [연합뉴스]

지난 11월 일본 도쿄에서 열린 한 행사에서 관람객들이 영화 터미네이터:다크 페이트에 나오는 AI로봇 모형을 구경하고 있다. [연합뉴스]

실제 AI와 AI가 가진 편견에 대한 우려는 대중문화에서도 심심찮게 확인할 수 있다. 지난달 개봉한 영화 ‘터미네이터: 다크 페이트’가 좋은 예다. 영화는 ‘리전’으로 불리는 AI 가 미래 인간 저항군 지도자를 암살하기 위해 암살용 터미네이터를 과거로 보내면서 벌어지는 내용이다. 소셜네트워크서비스(SNS) 상에선 인간에 대한 편견을 가진 AI에 대한 우려 섞인 반응이 많았다. 
 
전문가들도 AI의 발전속도를 볼 때 AI가 가질 편견에 대한 사회적 논의가 필요하다고 지적한다. 이원재 카이스트 문화기술대학원 교수(사회학)는 “사기업 입장에선 AI를 활용해 더 많은 이익을 내야 한다”며 “그러다 보니 인간이 상대적으로 편안해 하는 ‘편견’을 그대로 학습하게 되는 경우가 많다”고 지적했다. 이 교수는 “단순히 편견을 학습한 AI의 알고리즘을 고쳐라는 식의 단선적 논의를 넘어 이 편견을 만들어낸 인간사회부터 어떻게 보완할지 먼저 고민하는 게 근본 처방이 될 것”이라고 덧붙였다.  
 
박민제 기자 letmein@joongang.co.kr

관련기사

AD
온라인 구독신청 지면 구독신청

PHOTO & VIDEO

shpping&life

많이 본 기사

댓글 많은 기사