preLoad Image preLoad Image
검색 바로가기
주메뉴 바로가기
주요 기사 바로가기
다른 기사, 광고영역 바로가기
중앙일보 사이트맵 바로가기
닫기
닫기

“킬러 로봇 금지하자”

[뉴스위크]

NGO, 인공지능을 가진 기계 스스로 인간을 죽이는 결정을 할 수 있다는 우려에서 운동 펼쳐

‘킬러 로봇’이라고 하면 곧바로 공상과학 영화에 나오는 이미지가 떠오른다. 액체금속으로 얼어붙었다가 총에 맞아 산산조각난 뒤에도 원래 모습으로 돌아가 사람을 공격하는 악당 로봇 ‘T-1000 터미네이터’ 말이다. 그러나 스스로 알아서 사람을 공격하는 자율 로봇 무기가 머지않아 현실이 될지도 모른다.

미군은 이미 벙커에 앉아 드론을 조종해 수천㎞ 떨어진 곳의 목표를 타격하고 있다. 게다가 컴퓨터로 작동되는 드론까지 시험 중이다. 자율적으로 운용되는 드론 사용에 반대하는 사람들이 나서서 막지 않으면 몇 년 뒤면 실전 투입이 가능하다.

최근 그런 치명적인 자율무기를 국제협약으로 금지하기 위해 NGO들의 모임 ‘킬러 로봇 금지운동(Campaign to Stop Killer Robots)’이 발족했다. 그들은 지난 10월 20일 미국 뉴욕 유엔본부에 모여 독립적으로 임무를 수행하는 로봇 무기를 금지하려는 외교협상이 기술 개발보다 훨씬 느리다고 개탄했다.

그들은 인간을 죽이는 결정이 언젠가 기계에 위임될 수 있다는 사실을 가장 우려한다. 미국 온라인 매체 인터셉트가 최근 폭로한 드론 보고서에 따르면 아프가니스탄에서 단 5개월 동안 인간이 조종하는 드론에 의해 사망한 10명 중 9명은 예정된 표적이 아니었다. 호주 뉴사우스웨일스대학의 인공지능(AI) 교수 토비 월시는 현재의 AI 시스템으로 조종되는 자율드론을 사용하면 그보다 더 많은 사상자가 생길 수 있다고 말했다.

월시 교수는 전투원과 민간인을 구분하거나 좀 더 균형 잡힌 대응방안을 선택하는 문제에선 기계가 사람보다 결코 낫지 않다고 지적했다. 컴퓨터로 조종되는 무기는 곧 개발될 수 있지만 AI 두뇌가 터미네이터 식의 정확한 기술로 발전하려면 “50년 이상 걸릴 것”이라고 그는 내다봤다.

일부 자율무기는 이미 사용되고 있다. 대부분은 공격해오는 미사일 등을 표적으로 한다. 예를 들어 미국은 이라크전 당시 패트리어트 미사일 요격 시스템을 첨단기술의 성공 사례로 내세운다. 그러나 그 무기로 연합군 전투기 2대가 격추됐다. 게다가 수㎞ 떨어진 곳의 표적을 식별할 수 있는 기계화 무기도 이미 배치돼 있다. 그 무기는 기술적으로는 인간의 도움 없이 발사될 수 있지만 현재는 이상 징후가 감지되면 경보를 발해 조종 대원이 발사 여부를 최종 결정한다.

유엔 특별조사관 크리스토프 헤인스는 “국가들은 일부 기능에서 컴퓨터가 인간보다 훨씬 빨라 긴급한 상황에서 유리하다고 주장한다”고 말했다. “또 일부 국가는 그런 기술이 표적 확인에도 더 나을 수 있다고 본다.” 특히 최고 군사 강대국인 미국이 자율무기의 연구개발에 앞장 설 가능성이 크다. 미국 국방부 대변인 애드리언 J T 란킨-갤로웨이는 “무기의 자율화에 초점을 맞춘다”고 인정했다. 기존의 기술적 역량을 새로운 방식으로 개조하거나 작전의 이점을 극대화하기 위해 새로운 획기적인 기술에 투자한다는 뜻이다.

그러나 국제로봇무기제한위원회의 이안 커 박사는 좀 더 효율적인 표적 제거로 이전보다 더 인간적인 전쟁이 되진 않는다고 말했다. 또 월시 교수는 기술이 갈수록 저렴해져 군인의 생명과 예산 측면에서 전쟁 비용이 낮아지면서 전쟁이 더 자주 발생할 수 있다고 지적했다.

인권단체 휴먼라이츠워치의 보니 도처티는 기계에 전쟁범죄의 책임을 물을 수도 없고 현행법에선 그런 치명적인 로봇을 만들고 프로그램하고 지시를 내린 사람이 책임을 면할 수 있다고 설명했다. 따라서 희생자를 위한 응징도, 사회적 지탄도 없고 재발 방지도 어렵다. 커 박사는 “인적 요소를 제거하면 인도주의적 목표를 어떻게 이룰 수 있는가?”라고 되물었다. “인간의 연약함이 있어야 전쟁의 강도를 약화시킬 수 있다.”

‘킬러 로봇 금지운동’은 자율무기의 규제보다 전면 금지를 권고한다. 기술이 개발되면 국가가 사용할 유혹에 빠지기 쉽기 때문이다. 또 일단 만들어지면 쉽게 확산돼 끝없는 군비경쟁이 시작될 수 있다. 지난 7월 영국 우주물리학자 스티븐 호킹 박사와 테슬라·스페이스X CEO 엘론 머스크, 애플 공동 창업자 스티브 워즈니액 등 AI 전문가 약 1000명은 군사 목적의 기술사용 금지를 요구하는 공개서한에서 ‘킬러 로봇이 개발되면 암시장에 등장하거나, 테러리스트나 국민을 효과적으로 통제하려는 독재자, 인종청소를 감행하려는 군벌의 손에 들어가는 것은 시간문제’라고 경고했다.

일부 관련자들은 개발을 금지하면 AI의 건설적인 용도 연구도 제한 받는 역효과가 날지 모른다고 우려한다. 예를 들어 자율주행 자동차는 교통사고를 줄여 수백만 명의 목숨을 구할 수 있다. 카네기멜론대학의 컴퓨터과학 교수 마누엘라 벨로소는 “AI는 우리에게 많은 혜택을 줄 수 있는데 그런 유익한 기술을 인간이 사용하지 않는다는 것은 말도 안 된다”고 말했다.

벨로소 교수는 드론이나 AI 같은 기술이 도덕적으로 ‘중립’이라고 설명했다. 위험한 것은 기술 자체보다 사용되는 방식이라는 뜻이다. 또 아무리 금지해도 사람들은 AI를 개발하고 남용할 것이라고 그녀는 덧붙였다. “AI가 앞으로 어떻게 될지는 사람에게 달려 있다. 유익한 용도로 사용하면 좋지만 그렇다고 나쁜 용도로 사용하는 것을 막기는 어렵다.”

헤인스 특별조사관은 킬러 로봇 금지 논의에서 반드시 필요한 구분이 빠져 있다고 생각한다. “낮은 수준의 기계 자율성에는 반대할 생각이 없다. 인간이 더 나은 결정을 하도록 기계가 돕는다면 좋은 일이다. 하지만 기술은 인간의 손이 제어하는 도구가 돼야지 그 반대여선 안 된다. 특히 생사 문제에서 그렇다.”

2년에 걸친 비공식적 다자간 대화에도 ‘킬러 로봇 금지운동’은 진전을 이루지 못했다. 미국은 거기서 어느 정도 예외다. 2012년 무력 사용에서 인간 판단의 ‘적절한 수준’을 요구하는 국방부 정책 지침을 발표했다. 밥 워크 국방부 부장관은 “전쟁에서 인간이 결정을 내리는 데 기계가 도울 수 있다는 의미”라고 말했다.

오는 11월 13일 스위스 제네바의 특정재래식무기 금지협약(CCW) 연례 회의에서 120개 서명국은 킬러 로봇 금지 협의를 지속할지 결정한다. 휴먼라이츠워치 무기부 국장 스티븐 구스는 “논의를 지속하겠지만 우리는 그 이상을 원한다”고 말했다. 같은 단체 소속으로 킬러 로봇 금지운동 연락관인 메리 웨어햄은 “비공식적 유엔 협의는 목표가 너무 낮고 진행도 너무 느리다”며 새로운 국제협약을 위한 협상으로 이어질 수 있도록 공식적 논의가 필요하다고 말했다.

그러나 CCW는 굼뜨기로 악명 높다. 대안은 유엔 외부에서 협약을 마련할 스폰서 국가를 찾는 것이다. 그러나 구스 국장은 “협약에 반대하는 나라는 없지만 앞에 나서려는 나라도 없다”고 말했다. 게다가 시간도 촉박하다. 커 박사는 자율무기에 관해 “우린 이전에 넘은 적이 없는 도덕적 선을 넘었다”고 말했다. “따라서 국제적인 협의가 반드시 필요하다.”

글= 뉴스위크 LAUREN WALKER 기자  번역=이원기
기사 이미지
AD
온라인 구독신청 지면 구독신청

PHOTO & VIDEO

shpping&life

많이 본 기사

댓글 많은 기사