preLoad Image preLoad Image
검색 바로가기
주메뉴 바로가기
주요 기사 바로가기
다른 기사, 광고영역 바로가기
중앙일보 사이트맵 바로가기
닫기
닫기

AI 윤리의 대모 "사람은 AI를 만들고, AI는 사람을 만든다"

"검색 엔진에 흑인 소녀를 검색했을 때 '죽이는(hot)', '달콤한(sugary)'이 나오는 결과에 대해 물어야 한다. 이것이 최선인가?" (책 『구글은 어떻게 여성을 차별하는가(Algorithms of Oppression)』)
 

AI 편견 지워주는 '윤리 선생님'
프란체스카 로시 IBM 리더 인터뷰

아마존은 2018년 인공지능(AI) 채용 시스템을 폐기했다. AI가 여성을 차별했기 때문이다. 미국 표준기술연구소(NIST)는 지난해 "많은 얼굴 인식 시스템의 아시아·아프리카인 인식률이 백인보다 10~100배 떨어진다"는 보고서를 냈다.
 
프란체스카 로시 IBM AI 윤리 글로벌 총괄 [사진 IBM]

프란체스카 로시 IBM AI 윤리 글로벌 총괄 [사진 IBM]

 
AI를 활용한 기술이 넘쳐나는 세상이지만 AI의 과도한 활용을 걱정하는 목소리도 동시에 커지고 있다. AI 학습 데이터에 인간의 편견이 반영되는 사례가 속속 공개되고 있어서다. AI의 윤리적 결함을 보완하려면 어떻게 해야할까. AI '윤리 선생님'을 자처하는 프란체스카 로시(Francesca Rossi) IBM AI 윤리 글로벌 총괄을 지난달 20일 서울 여의도 한국 IBM 본사에서 화상 인터뷰했다. 그는 유럽위원회(EC) 인공지능 고위 전문가 그룹 멤버기도 하다.
 
AI 윤리란 무엇인가.
사람에게 기대하는 특성을 AI가 갖추도록 하는 것이다. AI는 결국 사람이 더 나은 결정을 하도록 돕는 기계다. 그만큼 신뢰할 수 있어야 한다. IBM 원칙상 신뢰하기 위해선 4개의 기준을 충족해야 한다. 
 
4개 기준을 말해달라.
▶공정성(Fairness) ▶설명 가능성(Explain ability) ▶견고성(Robustness) ▶투명성(Transparency)이다. 공정성은 서로 다른 집단을 차별하지 않는 '편견 없는 알고리즘'이다. 설명 가능성은 AI가 왜 이런 결정을 내렸는지 설명할 수 있어야 한다는 것이다. 예컨대 AI가 의사에게 특정 치료법을 추천했다면, 왜 이 치료법을 골랐는지 인간이 알 수 있어야 한다. 견고성은 오류에 대처하는 능력이다. AI는 학습한 것은 잘 알지만, 아주 작은 차이에도 큰 오차를 내는 기계다. 마지막은 투명성이다. 어떻게 데이터를 모으고 교육했는지, 개발자와 디자이너의 결정이 어땠는지 공개해야 한다는 것이다.
 
2017년 9월 하버드 케네디스쿨 'AI와 일자리' 세션에 패널로 참석한 프란체스카 로시 [사진 IBM]

2017년 9월 하버드 케네디스쿨 'AI와 일자리' 세션에 패널로 참석한 프란체스카 로시 [사진 IBM]

 
AI의 설명을 받아들이지 못한다면.
듣는 사람에 맞춰 설명할 수 있어야 진정한 설명 가능성이다. 의사가 아닌 개발자나 규제 당국이 AI에게 '왜 이 치료법을 추천했냐'고 물어도 대답할 수 있어야 한다. AI는 독립지능이나 대안지능이 아니다. 인간을 돕는 기술이다. 기술의 중심은 언제나 사람이다.
 
AI의 편견을 줄이려면.
어떤 데이터로 AI가 훈련했는지 면밀히 살펴야 한다. 편견을 지우는 과정에도 주의가 필요하다. 예컨대 성차별을 지우다 연령차별을 강화하는 경우가 생길 수 있다. 여기서 '투명성'이 중요해진다. 어떤 데이터를 사용했는지 공개하면 누군가는 '이런 편견이 남아있다'고 문제제기할 수 있다.
 
AI를 만드는 '사람'의 편견은 어떻게 줄이나.
개발자는 다양하게 생각할 수 있어야 한다. 다양한 배경, 다양한 시각을 가진 개발자를 뽑는 이유다. 제대로 된 알고리즘을 만들었다면, 그때부턴 AI가 사람의 편견을 줄여줄 것이다. 사람의 결정은 180가지 이상의 편견이 들어가는 '편견 덩어리'다. 사람이 AI를 만들면, AI가 사람을 (사람답게) 만들 수 있다.
 

관련기사

20200308-프란체스카로시. 그래픽=김은교 kim.eungyo@joongang.co.kr

20200308-프란체스카로시. 그래픽=김은교 kim.eungyo@joongang.co.kr

 
문화마다 윤리적 기준이 다르기도 하다.
만드는 사람이 먼저 문화적 특성을 이해해야 한다. 노인에게 약을 챙겨주는 로봇이라면, 나라마다 노인을 대하는 문화가 다르단 걸 가르쳐야 한다. 지금의 머신러닝은 그걸 스스로 생각할 수 있는 수준이 아니다.
 
EC는 인터뷰 하루 전이었던 지난달 19일 'AI 백서'를 냈다. 헬스케어·치안·교통·생체 인식 등을 '고위험 기술'로 분류하고, 규제하는 내용이었다.
 
유럽이 AI 규제를 강화하는 건가.
백서는 정말 위험한 것'만' 규제하기 위한 것이다. 전통적으로 유럽은 하향식 규제, 미국은 상향식 혁신과 자율규제에 가까운 결정방식을 갖고 있지만, AI에 있어서만큼은 '정밀 규제'라는 비슷한 입장이다. 기술 자체를 규제하는 게 아닌, 기술을 적용할 때 위험할 수 있는 지점만 세밀하게 규제한다는 의미다. 예컨대 얼굴 인식에는 얼굴 감지·얼굴 인증·얼굴 매칭 등 다양한 하위기술이 존재한다. 이때 얼굴 인식 전체를 규제해버리면 장점까지 지우는 과잉규제가 된다.
 
2017년 6월 스위스 제네바에서 열린 국제전기통신연합(ITU) AI 글로벌 서밋(AI for Good Global Summit)에 참석한 프란체스카 로시 [사진 IBM]

2017년 6월 스위스 제네바에서 열린 국제전기통신연합(ITU) AI 글로벌 서밋(AI for Good Global Summit)에 참석한 프란체스카 로시 [사진 IBM]

 
특이점(AI가 인간을 뛰어넘는 시점)은 언제일까.
특이점은 어느 날 혹은 어떤 연도에 갑자기 찾아오는 게 아니다. AI의 가능성이 새 연구, 새 개발자들과 함께 계속 누적되면서 서서히 찾아올 뿐이다. 지금의 AI는 아주 한정적이다. 특정 문제는 잘 해결할 수 있지만, 비슷한 문제는 해결하지 못한다. 비슷한 문제를 해결하려면 처음부터 다시 만들어야 한다.
 
특이점이 온 세상은 유토피아일까, 디스토피아일까.
유토피아에 가깝다고 믿는다. 단, 통제권을 잃지 않으려면 사람이 AI를 활용하는 방법도 함께 발전시켜야 한다. AI 기술자들의 목표는 '기술 발전'이 아니다. 기술은 수단일 뿐, '더 좋은 세상'을 만들기 위한 우리 자신과 사회의 발전이 목표다.
 

팩트로 FLEX, 팩플

김정민 기자 kim.jungmin4@joongang.co.kr
AD
온라인 구독신청 지면 구독신청

PHOTO & VIDEO

shpping&life

많이 본 기사

댓글 많은 기사