preLoad Image preLoad Image
검색 바로가기
주메뉴 바로가기
주요 기사 바로가기
다른 기사, 광고영역 바로가기
중앙일보 사이트맵 바로가기
닫기
닫기

“제대로 된 알고리즘 만들면 AI가 사람의 편견 줄여줄 것”

프란체스카 로시 IBM AI 윤리 글로벌 총괄. [사진 IBM]

프란체스카 로시 IBM AI 윤리 글로벌 총괄. [사진 IBM]

“검색 엔진에 흑인 소녀를 검색했을 때 ‘죽이는(hot)’, ‘달콤한(sugary)’이 나오는 결과에 대해 물어야 한다. 이것이 최선인가?” (책 『구글은 어떻게 여성을 차별하는가(Algorithms of Oppression)』)
 

프란체스카 로시 IBM AI윤리 총괄
공정성·설명가능성·견고성·투명성
AI 신뢰위해 4가지 기준 충족해야

아마존은 2018년 인공지능(AI) 채용 시스템을 폐기했다. AI가 여성을 차별했기 때문이다. AI 학습 데이터에 인간의 편견이 반영되는 사례가 속속 공개되고 있다. AI의 윤리적 결함을 보완하려면 어떻게 해야 할까. AI ‘윤리 선생님’을 자처하는 프란체스카 로시(Francesca Rossi·사진) IBM AI 윤리 글로벌 총괄을 지난달 20일 서울 여의도 한국 IBM 본사에서 화상 인터뷰했다.
 
AI 윤리란 무엇인가.
“사람에게 기대하는 특성을 AI가 갖추도록 하는 것이다. AI는 결국 사람이 더 나은 결정을 하도록 돕는 기계다. 그만큼 신뢰할 수 있어야 한다. IBM 원칙상 신뢰하기 위해선 4개의 기준을 충족해야 한다.”
 
4개 기준을 말해달라.
“▶공정성(Fairness) ▶설명 가능성(Explain ability) ▶견고성(Robustness) ▶투명성(Transparency)이다. 공정성은 서로 다른 집단을 차별하지 않는 ‘편견 없는 알고리즘’이다. 설명 가능성은 AI가 왜 이런 결정을 내렸는지 설명할 수 있어야 한다는 것이다. 견고성은 오류에 대처하는 능력이다. AI는 학습한 것은 잘 알지만, 아주 작은 차이에도 큰 오차를 내는 기계다. 마지막은 투명성이다. 어떻게 데이터를 모으고 교육했는지, 개발자와 디자이너의 결정이 어땠는지 공개해야 한다는 것이다.”
 
AI의 설명을 받아들이지 못한다면.
“듣는 사람에 맞춰 설명할 수 있어야 진정한 설명 가능성이다. AI는 독립지능이나 대안지능이 아니다. 인간을 돕는 기술이다. 기술의 중심은 언제나 사람이다.”
 
AI의 편견을 줄이려면.
“어떤 데이터로 AI가 훈련했는지 면밀히 살펴야 한다. 편견을 지우는 과정에도 주의가 필요하다. 예컨대 성차별을 지우다 연령차별을 강화하는 경우가 생길 수 있다. 여기서 ‘투명성’이 중요해진다. 어떤 데이터를 사용했는지 공개하면 누군가는 ‘이런 편견이 남아있다’고 문제를 제기할 수 있다.”
 
AI를 만드는 ‘사람’의 편견은 어떻게 줄이나.
“개발자는 다양하게 생각할 수 있어야 한다. 다양한 배경, 다양한 시각을 가진 개발자를 뽑는 이유다. 제대로 된 알고리즘을 만들었다면, 그때부턴 AI가 사람의 편견을 줄여줄 것이다. 사람의 결정은 180가지 이상의 편견이 들어가는 ‘편견 덩어리’다. 사람이 AI를 만들면, AI가 사람을 (사람답게) 만들 수 있다.”
 
김정민 기자 kim.jungmin4@joongang.co.kr
AD
온라인 구독신청 지면 구독신청

PHOTO & VIDEO

shpping&life

많이 본 기사

댓글 많은 기사