오피니언 교수실에서

[교수실에서_김재화 소령] 인공지능 시대의 군대윤리

입력 2022. 12. 19   16:49
업데이트 2022. 12. 19   16:53
0 댓글
김재화 해군사관학교 철학교수·소령
김재화 해군사관학교 철학교수·소령



오늘날 많은 군사 전문가들은 미래의 전쟁 패러다임을 바꿀 게임 체인저로 자율무기체계(AWS·Autonomous Weapon System)를 지목하고 있다. 인간으로부터 독립적인 의사결정권을 가진 자율무기체계는 인공지능 기술의 발전에 비례하여 더욱 고도화되는 상황이다. 그중에서도 ‘킬러로봇’이라고도 불리는 자율살상무기(LAWS·Lethal AWS)의 개발은 군대가 임무를 수행함에 있어 몇 가지 중대한 윤리적·법적 문제를 야기할 것이라는 우려가 제기되고 있다.

먼저 윤리적으로는 아무리 전시라 하더라도 인간이 아닌 기계가 스스로의 판단하에 인간을 죽일 수 있도록 허용하는 것은 곧 ‘인간의 존엄성’이라는, 오늘날 전 인류가 공유하는 윤리의 근본 토대를 파괴하는 중대한 위협이라는 문제 제기가 있다. 또한 법적으로는 국제인도법(과거 전쟁법)에서의 기본 원칙 중 민간인 살상금지와 비례성의 원칙에 관한 것으로서, 자율살상무기가 군인과 민간인을 제대로 구분할 수 없을 것이며 군사적 목적 달성에 필요한 인명과 재산 피해 정도를 적절히 판단할 수 없을 것이라는 문제 제기가 있다.

그러나 다른 한편으로는 인공지능 자율살상무기의 개발에 찬성하는 논리도 있다. 찬성론자들은 냉엄한 국제관계의 현실 속에서 전쟁이 없어질 수 없는 것이라면 차라리 ① 인간(군인)보다 기계가 전쟁을 수행하는 것이 수많은 인명 피해를 대신하는 방안이 될 수 있고 ② 전시 민간인 학살이나 약탈, 성폭행과 같은 끔찍한 사고도 방지할 수 있으며 ③ 누가 언제 어떤 명령을 내렸는지를 기록하기가 쉬워 책임 소재를 분명히 가려낼 수 있는 장점이 있다고 주장하기도 한다.

국제사회에서는 인간이 언제나 인공지능에 대한 통제권을 유지해야 하고 반드시 윤리적인 인공지능만을 개발해야 한다는 목소리가 높으며, 2015년에는 전 세계 1000여 명이 넘는 인공지능 전문가들이 모여 인공지능 자율무기체계 개발 금지를 촉구하는 결의안에 서명한 바도 있다.

군대윤리의 측면에서, 만약 고도화된 인공지능 자율무기체계가 군대에 도입된다면 이는 군대라는 사회 속에서 또 다른 행위 주체인 인간(군인)의 윤리적 행위·가치·태도에 큰 영향을 끼칠 수 있다.

가령 인공지능 자율 드론과 로봇을 운용하는 군인들은 자신이 직접 전장에서 전차나 항공기 등을 타고 다니며 포를 발사하는 일은 결코 없을 것이라는 전제 하에, 이러한 상황이 점차 그들로 하여금 전쟁을 마치 게임을 하는 것처럼 인식하는 일명 ‘플레이스테이션 멘털리티’에 빠지게 함으로써 인명살상에 대한 죄책감을 결여시키고 결국 인간의 존엄성을 훼손하는 생명경시 풍조로 이어질 수 있다는 우려는 꾸준히 제기돼 왔다. 또한 사방에 굉음과 포연이 자욱하고 탄환이 빗발치는 가운데 목숨을 걸고 군인이 임무를 수행하는 전쟁 국면이 아예 없어지거나 최소화되면서, 전쟁 자체의 의미와 군인의 희생과 명예와 같은 가치에 대한 국민 인식에 변화가 생길 수도 있다.

따라서 우리 국군은 앞으로 인공지능 자율무기체계를 군대윤리의 새로운 도덕적 행위주체로 추가하는 것에 대해 깊이 숙고해야 할 필요가 있어 보인다. 그리고 만약 그것이 인간(군인)과 상호 작용하는 또 하나의 행위주체로서 군대윤리의 영역에 추가된다면, 그것에 탑재되는 인공지능 소프트웨어는 그 어떤 경우에도 군대윤리를 최우선적으로 따르는 것이어야만 할 것이다.

< 저작권자 ⓒ 국방일보, 무단전재 및 재배포 금지 >

오늘의 뉴스

Hot Photo News

많이 본 기사