로봇에게 윤리를 기대하는 것은 얼마나 가소로운 일인가? 과학소설(SF) 작가 아이작 아시모프가 1942년 발표한 ‘로봇 3원칙’은 누구를 대상으로 하는 규정인가? 예컨대 ‘인간을 죽거나 다치게 해서는 안 된다’는 제1원칙을 로봇이 전투에서 교전수칙으로 얼마나 잘 숙지하고 실행할 수 있을까? 로봇이 수칙을 지키지 않은 경우 누가 처벌을 받는가? 로봇인가? 지휘관인가? 개발자인가? 처벌은 누가 하는가?
인공지능(AI)에도 도덕을 요구할 수 있는가? 인공지능이 가져올 위험에 대한 우려가 급증하면서 공정성(Fairness), 책임성(Accountability), 투명성(Transparency), 윤리의식(Ethics) 등 일명 ‘FATE’ 규제가 거론되고 있다. 인공지능이 교묘하게 규제를 거스르는 경우 누가 누구에게 제재를 가할 수 있는가? 스스로 판단해서 실행하도록 설계한 인공지능에게 어떻게 책임을 물을 수 있는가?
전투에 투입하는 로봇은 군인을 대신해서 싸우기 때문에 인간을 보호하는 수단이라고 우길 수 있는가? 드론은 아슬아슬한 정찰을 대신해 주고, 로봇은 위험한 임무를 대리해 준다. 적군을 살상하는 것은 드론과 로봇 뒤에 있는 안전한 기지에서 모니터를 보며 버튼을 누르는 군인의 몫이다. 기계를 앞세워 전투를 벌이는 교전수칙에서 지켜야 할 윤리의 주체는 그 군인과 지휘계통일 것이다.
벌써 2년이 넘은 러시아-우크라이나 전쟁에서 최근 로봇과 드론의 대결이 처음으로 벌어졌다. 아우디이우카에서 러시아군이 전투지원 로봇을 동원해 상당한 전과를 올리자, 지난 3월 우크라이나군 정찰 드론이 끈질기게 추적해서 로봇을 파괴하는 데 성공했다. 기계를 앞세워 대리전을 벌이는 군인은 컴퓨터로 리그 오브 레전드(League of Legend)를 하는 게이머와 뭐가 다를까? 서로 ‘양심적으로’ 기계만 파괴한다면 윤리 문제는 쉽게 잠재울 수 있지 않을까?
하드웨어에 인공지능을 숨기면 죄책감이 줄어드는가? 드론 부대를 막기 위해 러시아군이 전파교란(Jamming) 장비를 동원하자, 우크라이나군은 조종 신호가 끊겨도 스스로 탐색·식별·공격하는 인공지능을 드론에 심었다. 지난 3월 쿠?스크에서 우크라이나군의 인공지능 드론은 혼자 러시아군 전차를 찾아내 파괴했다. 오퍼레이터의 명령 없이 스스로 작전을 수행한 것이다. 전투에서 AI가 인간을 공격한 첫 사례일 것이다.
기술과 자본이 훨씬 뛰어난 이스라엘군은 인공지능 무기로 최근 어떤 전과를 올리고 있을까? 이스라엘군은 이달 들어서만도 시리아의 이란 영사관을 공습해서 혁명수비대 여러 명이 사망했다. 또 팔레스타인 가자지구에서 구호 트럭을 ‘오폭’해서 국제구호단체 요원 7명을 죽게 했다. 목표로 겨냥한 하마스 대원이 숨은 곳을 찾아 폭격하는 인공지능 ‘하브소라(Habsora)’의 소행일 것이다. 하브소라는 히브리어로 ‘복음(福音·Gospel)’이라는 뜻이다.
영원히 봉인해야 할 ‘판도라의 상자’가 벌써 열렸는지도 모른다. 인공지능은 이미 사람을 죽이는 방법을 학습하고 있지 않은가? 이스라엘군은 인공지능을 활용해서 ‘정밀타격’하기 때문에 민간인의 희생을 줄인다고 주장한다. 그래서 ‘복음’이란다. 인공지능으로 적과 민간인을 구별할 수 있다는 오만과, 사람을 죽이는 무기를 ‘복음’이라 부르는 모습에 섬뜩한 디스토피아를 엿보게 된다. 누가 아직도 로봇에게 ‘양심’을 기대하는가?
오늘의 뉴스
Hot Photo News
많이 본 기사
이 기사를 스크랩 하시겠습니까?