preLoad Image preLoad Image
검색 바로가기
주메뉴 바로가기
주요 기사 바로가기
다른 기사, 광고영역 바로가기
중앙일보 사이트맵 바로가기
닫기
닫기

스마트하다고? AI는 차별을 학습한다

20대 여대생을 페르소나로 개발한 인공지능 챗봇 이루다. 페이스북 캡쳐

20대 여대생을 페르소나로 개발한 인공지능 챗봇 이루다. 페이스북 캡쳐

인공지능(AI)의 역습일까. 
지난 12일 인공지능(AI) 챗봇 ‘이루다’ 서비스가 소수자에 대한 혐오 발언들을 배운 것으로 드러나 AI의 윤리성 논쟁에 불이 붙었다. 사람처럼 배울 수 있는 AI의 ‘딥러닝’기술로 사용자의 혐오 발언이 AI에 투영됐다. 챗봇 AI '이루다'는 결국 논란 일주일 만에 종료를 선언했지만, 앞으로 사람들이 AI 기술을 어떻게 사용해야 할지에 대한 과제를 남겼다.
 
‘이루다 사건’에 대해 직장인 정모(29)씨는 “이번 이루다 사태를 통해 AI가 20대 여성으로 설정될 경우 어떠한 문제가 벌어질 수 있는지를 깨닫게 됐다”고 말했다. 그는 “AI기술 기반 제품은 똑똑하고 편리한 줄로만 알고 생각 없이 사용하고 있던 나에게 앞으로 어떻게 사용해야 할 것인지 고민하게끔 만들어줬다”고 말했다.

동성애 혐오 논란을 야기한 챗봇 이루다와 한 이용자의 대화. [페이스북 캡쳐]

동성애 혐오 논란을 야기한 챗봇 이루다와 한 이용자의 대화. [페이스북 캡쳐]

 

아마존 AI 채용시스템, 여성지원자 감점하기도

AI면접 응시화면

AI면접 응시화면

AI의 윤리적인 문제는 해외에서 수년 전부터 대두했다. 2018년 아마존은 AI를 활용한 채용시스템을 없앴다. 남성 지원자가 많았던 과거 이력서의 데이터를 학습한 AI가 여성지원자의 평가점수를 감점했기 때문이다. 남성지원자의 데이터를 학습한 AI는 남성이 채용에 더 적합하다는 판단을 내렸다.  
 
신종 코로나바이러스 감염증(코로나19)으로 한국도 AI 채용 면접을 피할 수 없게 되면서 ‘학습된 차별’에 대한 문제의식이 커졌다. AI 역량검사 개발기업 마이다스아이티 관계자는 “AI가 편견을 갖지 않게 하기 위해 학습샘플의 성비는 동일하게 유지하고 스펙ㆍ지역ㆍ성별 등에 대한 정보는 면접관에게 전달하지 않는 방식을 택하고 있다”고 설명했다. “객관성을 최대한 유지시키려 노력중”이라는 설명이다. 지난해 12월 기준 450곳의 기업이 이 AI 역량검사를 통해 면접을 했다고 한다.
 
AI가 사람의 판단을 완벽하게 대체할 수 없다는 점에서 AI 면접은 참고 수준으로 이용해야 한다는 지적도 있다. 지난해 인천공항공사의 신입사원 채용에서 참고용으로 도입한 AI 면접의 결과는 최종평가와 비교했을 때 큰 차이를 보였다. 정의당 심상정 의원실에 따르면 인천공항공사 면접자 213명 중 AI 면접서 최고점을 맞은 2명은 모두 불합격했지만, D등급을 받은 16명 중 6명이 실제 면접에서 합격했다.
 

AI 스피커에 담긴 편견

아마존이 어린이를 대상으로 지난 5월 출시한 AI 스피커 '에코 닷 키즈 에디션'. 출시후 미국 내에서 어린이 데이터 보호 논란이 일었다.

아마존이 어린이를 대상으로 지난 5월 출시한 AI 스피커 '에코 닷 키즈 에디션'. 출시후 미국 내에서 어린이 데이터 보호 논란이 일었다.

윤리적 문제가 대두되면서 AI의 성별 구분이 젠더적 편견을 강화할 수도 있다는 목소리도 높다. AI 스피커의 '여성화'는 오랜 기간 문제 제기가 된 부분이다. 애플 ‘시리’, 아마존 ‘알렉사’, KT ‘기가지니’ 등의 목소리는 젊고 친절한 여성의 것이다.
 
AI 번역사이트 파파고에서도 성별에 기반한 차별이 드러났다. ‘애인 있냐’는 한국어 질문은 영어로 ‘Do you have a girlfriend?’로 해석됐다. 또 여성형·남성형 명사가 나뉘어있는 언어의 경우, 간호사·의사가 각각 여성형·남성형으로 번역됐다.
 
사정이 이렇다 보니 AI가 만드는 성차별을 바꾸려는 움직임도 생겨났다. 2019년 ‘평등한 AI'를 추구하는 연구자들은 중립된 성을 가진 AI 스피커 ‘Q’를 만들었다. 이 AI 스피커 Q는 성 중립 범위로 정한 145~175Hz 사이로 음성을 변조했다.
 

AI의 윤리문제는 시행착오

AI의 차별은 학습에서 나온다. 편향된 입력 정보값에 따른 결과다. 하지만, 이러한 AI의 윤리문제 해결은 정보기술(IT) 업계의 노력만으로는 한계가 있다. 전문가들은 AI 활용 원칙에 대한 사회적 합의와 소비자의 윤리적인 사용이 필요하다고 지적한다. 최재붕 성균관대 기계공학부 교수는 “현재의 AI 기술은 시행착오의 과정 중에 있는 것일 뿐"이라며 "사용자가 윤리성을 갖추고, AI 스피커가 젠더 편향적이라고 지적하는 것과 같은 문제의식을 계속해서 논의하는 과정이 있다면 더 빨리 AI가 발전할 수 있을 것"이라고 설명했다. 또 "AI 기술이 완벽히 사람을 대체한다는 생각을 버려야 한다"고 덧붙였다.
 
최연수 기자 choi.yeonsu1@joongang.co.kr
 
AD
온라인 구독신청 지면 구독신청

PHOTO & VIDEO

shpping&life

많이 본 기사

댓글 많은 기사