기획 완결 한국국방연구원

[KIDA논단] 자율무기체계에 대한 국제적 논의와 우리 군의 대비 방향

입력 2022. 12. 08   13:43
업데이트 2022. 12. 09   07:10
0 댓글

자율무기체계에 대한 국제적 논의와 우리 군의 대비 방향
『국방논단』 1920호(한국국방연구원 발행)

박문언
wunder123@kida.re.kr
한국국방연구원 국방인력연구센터

우리 군은 국방혁신 4.0에서 2028년 이후 “완전 자율”을 바탕으로 지능형 지휘결심체계와 AI 기반의 초연결 전투체계를 계획하고 있다. 현재 특정재래식무기 금지협약(CCW) 기구의 정부전문가그룹회의에서 진행되고 있는 자율무기체계에 대한 논의는 국방혁신 4.0의 자율전투체계와 무관하지 않다.

국제사회의 지속적인 논의에도 불구하고 자율무기체계에 대한 개념은 아직 도출되지 않았지만, 무기체계 자체에 의한 무자비한 인간살상의 문제를 막기 위해 인간통제가 가능하지 않은 자율무기체계를 규제해야 한다는 공통적인 합의는 존재한다.

변화하는 국제사회에 능동적으로 대응하기 위해서 


첫째, 자율성의 활용범위와 미래 전력계획을 고려하여 자율무기체계에 대한 개념을 정립하여야 한다. 

둘째, 무기체계에 대한 인간통제를 강화하기 위해 제네바 제1추가의정서 제36조에 따라 국제법상 금지되는 무기인지 여부를 법적으로 검토할 수 있는 구체적 절차를 마련해야 한다. 

셋째, 자율무기체계는 소프트웨어나 알고리즘에 대한 법적 평가가 이루어져야 하므로 물리적 시험평가보다는 검증, 확인, 인정을 통해 시스템을 평가하는 절차를 마련해야 한다. 


이러한 노력을 통해 무인 무기체계나 유무인 복합체계에 대한 신뢰를 구축할 때 우리 군은 첨단과학기술 강군으로 거듭날 수 있을 것이다.


들어가며

전쟁 양상을 바꾸어 놓을 게임체인저로서 인식되고 있는 자율무기체계(Autonomous Weapons Systems: AWS)의 사용 및 개발에 대해 국제사회에서 활발하게 논의되고 있지만, 그 개념조차 국제적으로 합의를 보지 못하고 있다. 

또한, 군사선진국은 아군의 피해를 최소화하고 무기체계를 효율화할 수 있어 자율무기체계의 적극적인 활용을 원하지만, 기술이나 예산이 부족한 국가에서는 기계에 의한 무분별한 인간살상의 문제가 발생할 수 있는 자율무기체계 자체의 연구나 개발을 반대하고 있다.

우리 군의 국방혁신 4.0은 2028년 이후 AI 발전 3단계에서 “완전 자율”의 개념을 바탕으로 지능형 지휘결심지원체계와 AI 기반 초연결 전투체계를 제시하고 있다. 이는 특정재래식무기금지협약(CCW) 기구에서 논의하고 있는 자율무기체계의 핵심적 개념인 ‘자율성’과 유사성이 있어 국제사회에서 문제가 제기될 수 있다. 


무인 무기체계는 사용 목적에 따라 당연히 자율성을 가질 수 있지만, 무기체계의 주된 목적이 적을 살상하거나 무력화하는 것이라는 점에서 일반적인 시스템에 있어 ‘자율성’ 보다 신중하게 검토할 필요가 있다.

자율무기체계를 정의할 때 자율주행자동차와 같이 자율의 정도에 따라 구분할 수도 있지만, 국제사회에서는 인간행동 결정 모델인 OODA Loop 개념을 통해 구분하거나 무기체계에 있어 핵심적인 기능인 표적선정과 교전에 자율성이 있는 경우를 자율무기체계로 보는 견해도 있다. 


미군은 2012년에 이미 국방부 훈령을 제정하여 자율무기체계에 대한 개념을 정립하였으며, 유럽 대부분의 국가들뿐만 아니라 2019년을 전후로 중국, 러시아, 일본까지 유엔의 정부전문가그룹회의(Group of Government Experts: GGEs)를 통해 각국이 생각하는 자율무기체계의 개념과

이에 대한 규제방안을 제시하고 있다. 우리 군도 국제사회의 논의를 고려해서 장차 국제적 기준에 부합하는 미래 무인무기체계를 구축할 수 있도록 사전에 철저한 준비가 필요하다.

본고에서는 이제까지 CCW 회의에서 진행된 자율무기체계에 대한 논의를 간략하게 확인해 보고 국방혁신 4.0의 “완전 자율”과 관련하여 좀 더 깊이 고민해야 할 사항들과 무인 무기체계의 신뢰성 확보를 위해 추가적으로 노력이 필요한 무기에 대한 법적 검토에 대해 살펴보고자 한다.

국제사회에서의 자율무기체계에 대한 논의

자율무기체계에 대한 문제는 2000년을 전후로 학자들에 의해 지속적으로 제기되었지만, 2010년 Philip Alston이 유엔의 특별보고자로서 드론에 의한 표적 살해(Targeted Killing)의 문제점을 지적하고 살상로봇 기술의 위험성을 유엔총회에 보고하면서 공식화되었다. 2013년 Christof Heyns가 인간 운영자에 의한 개입 없이 작동된 이후 독자적으로 표적선정 및 공격을 실행할 수 있는 자율살상로봇(Lethal Autonomous Robotics)의 문제점을 지적하면서 본격적으로 자율무기체계에 대한 논의를 촉발하였다.

CCW 기구는 2014년부터 비공식 정부전문가회의를 개최하여 자율무기체계에 대한 문제를 논의하였는데, 2017년부터 참여자의 제한이 없는 정부전문가그룹회의로 전환하여 비정부조직, 학술단체, 인권단체, 대학교의 연구소까지도 논의에 참여할 수 있도록 하고 있다.

2022년 8월까지 매년 회의가 개최되었지만, 자율무기체계에 대한 법적 구속력이 있는 문서를 마련하자는 제3세계 국가들의 입장과 정치적인 합의로 충분하며 법적 구속력이 있는 조약을 만들 필요가 없다는 군사선진국의 입장이 첨예하게 대립하고 있다. 


물론 2019년 CCW 회의에서는 자율살상무기체계(Lethal Autonomous Weapon Systems: LAWS) 관련 신기술의 잠재적 개발 및 사용에 있어 기존의 국제인도법(전쟁법)이 적용되어야 한다는 것을 포함하여 11가지의 지도원칙(Guiding Principles)을 도출하였다. 


11개 원칙 중 ‘인간책임’의 원칙은 비록 자율살상무기체계가 자율성을 가지더라도 그 책임은 기계가 아닌 인간에게 존재한다는 것을 명확하게 하였다. ‘인간과 기계의 상호작용’은 인간책임을 가능하게 하는 것으로 인간운용자가 작전적 맥락과 무기체계의 특성에 대해 이해하면서 자율살상무기체계를 운용할 것을 요구한다. 


그 외 국제인도법이나 국제법의 준수를 위해 신무기의 개발 및 배치에 있어 책임 있는 지휘계통의 감독을 요구하였다. 특히, 제네바 제1추가의정서 제36조에 의해 연구·개발·획득에 있어 국제법에 위반되지 않는 적법한 무기인지를 법적으로 검토할 것을 강조하였다. 


자율살상무기체계가 사이버 공격을 받을 수도 있고 테러집단에 의해 위법하게 운용될 위험성도 있어 이에 대한 위험도 반드시 고려되어야 한다고 하였다. 자율살상무기체계의 위험을 평가하고 이를 완화하기 위해 설계, 개발, 배치 시에 소프트웨어를 포함하여 철저한 시험평가가 필요하다고도 하였는데, 11가지 지도원칙에 대한 구체적 내용은 <표 1>과 같다.



올해 CCW 회의에서 우리나라를 포함하여 미국을 중심으로 한 국가들은 법적 구속력과 무관하게 11개 지도원칙의 구체화를 위한 모범 관행을 강조하였다. 영국은 모범 관행 도출을 위해 법적 구속력을 가지지는 않지만, 사이버 분야의 탈린매뉴얼, 해전과 관련된 산레모 매뉴얼, 민간군사기업과 관련된 몽트뢰 문서와 같은 매뉴얼을 작성하자고 제안하였다. 반면, 비동맹국가들은 자율살상무기체계의 사용으로 인한 문제를 사전에 예방하기 위해 법적 구속력이 있는 문서를 작성할 것을 주장하였는데, 서로의 입장이 달라 구체적 합의를 이끌어 내지는 못하였다.

중국은 이전의 입장과 달리, 수용이 불가능한 자율살상무기체계는 법적으로 사용을 금지해야 한다고 주장하였다. 살상성, 자율성, 인간에 의한 종료 불가능성, 무차별한 살상과 자율학습 능력을 가진 완전 자율살상무기체계만을 수용 불가능한 것으로 보고, 법적 구속력 있는 문서에 의해 규제하자는 것이다. 법적 구속력이 있는 문서에 대한 긍정적 입장을 보였다고도 볼 수 있지만, 실질적으로 자율살상무기체계 전체에 대한 법적 구속력 있는 조약을 마련하자는 입장은 아닌 것으로 생각된다.

우리 군의 자율무기체계 개념 정립을 위한 고려 사항


국제사회에서 자율무기체계를 논의함에 있어 무엇을 자율무기체계로 볼 것인지 논란이 많았지만 자율무기체계의 핵심은 자율성에 있다. 국방혁신 4.0에서 3단계 “완전 자율”은 CCW에서 논의하는 자율무기체계의 자율성과 큰 차이가 없다. 국립국어원의 표준어대사전에 따르면 ‘자율성’이라 함은 “자신 스스로의 원칙에 따라 어떤 일을 하거나 자기 스스로 자신을 통제하여 절제하는 성질이나 특성”을 말한다. 


무기체계에 있어 자율성(autonomy)을 가진다는 것은 인간의 개입 없이 외부의 변화하는 상황을 무기체계가 스스로 확인하고 프로그램된 원칙에 따라 결정하여 임무를 수행하는 것을 의미한다. 국방혁신 4.0에서 말하는 무인 무기체계는 자율성의 정도와 임무 수행에 있어 차이가 있을 뿐 실질적으로 CCW에서 논의되고 있는 자율무기체계와 직접적으로 관련된다고 볼 수 있다.

자율성을 가지는 자율무기체계를 판단하는 기준을 크게 보면 3가지 정도로 제시할 수 있다. 


① 무기체계 자체의 자율성 정도를 기준으로 자율무기체계를 판단하는 방법과, ② 무기체계의 운영과정을 인간의 행동 결정 요소인 관찰(observe), 판단(orient), 결정(decide), 행동(act)과 연계시켜 인간관여의 정도에 따라 인간통제(human in the loop), 인간감독(human on the loop), 완전자율(human out of the loop)로 구분하는 것이다. ③ 마지막으로 무기체계의 핵심기능에 대한 자율성을 기준으로 공격절차의 탐지, 식별, 추적, 표적선정, 교전, 사후평가의 6단계 중 표적선정과 교전에 있어 자율성이 있다면 자율무기체계로 보는 것이다.

첫 번째 방법은 자율주행자동차에서 비자동화 0단계부터 완전자율화 5단계로 구분하는 것과 같이 일정 단계 이상을 자율무기체계로 보는 것이다. Thomas Sheridan이나 Eric Scholes은 컴퓨터의 임무 수행에 있어 자율성의 정도를 10단계 또는 11단계로 구분하였다. NATO의 산업조언자 그룹은 원격조정, 자동화, 학습능력이 없는 자율화, 학습능력이 있는 자율화 단계로 구분하였다. Peter Singer는 로봇무인항공기에 있어 자율성의 정도를 인간지원, 인간위임, 인간감독, 혼합주도, 완전자율로 구분하기도 하였다. 


이 방법에 의하면 어느 단계부터 자율무기체계로 보아야 하는지 명확하지 않다. 미국 국방성의 Defense Science Board Task Force는 기계 자체의 자율단계보다 인간과의 상호 협력관계를 통해 기능적 자율성이 어느 정도인지 검토하는 것이 보다 타당하다고 보았다. 이러한 입장은 국방부훈령 DoDD 3000.09 자율무기체계의 개념에서 그대로 확인된다.

두 번째 방법은 구체적 자율성의 정도보다는 전체적으로 무기체계가 인간에 의해 작동하는지(human in the loop, 인간통제), 아니면 무기체계 자체가 인간의 개입 없이 스스로 임무를 수행하지만 필요한 경우 인간이 무기체계를 중지를 시킬 수 있는지(human on the loop, 인간감독), 또는 전혀 인간의 통제가 미치지 않는지(human out of the loop, 완전자율)에 따라 자율무기체계를 구분하기 때문에 개념적으로는 명확하다. 


인간통제를 제외한 나머지는 자율무기체계로 인정할 수 있지만 이러한 구분도 인간의 판단능력이 무기체계의 능력에 미치지 못한다면 인간의 관여는 무의미해지고 인간통제나 인간감독도 경우에 따라서는 완전자율에 해당할 수도 있는 문제가 발생한다.

세 번째 방법은 무기체계에 있어 가장 핵심적 기능인 표적선정과 교전에 있어 자율성을 기준으로 자율무기체계를 구별하는 것이다. 다른 기능의 자율화와 상관없이 표적선정과 교전에 있어 인간의 개입 없이 무기체계가 스스로 공격할 수 있다면 자율무기체계가 되는 것이다. 미국을 포함한 많은 국가들 뿐만 아니라 국제적십자위원회(ICRC) 등의 국제단체들도 세 번째 방법에 따라 자율무기체계의 개념을 제시하였다.

미국은 일단 작동된 이상 인간 운영자의 개입 없이 표적을 선정하고 공격할 수 있는 무기체계를 자율무기체계로 구분하고 있다. 자율성을 가지지만 인간이 교전을 승인해야만 공격이 가능한 반자율 무기체계는 자율무기체계가 아닌 반면, 독자적으로 교전이 가능하지만 필요한 경우 인간이 교전을 중지할 수 있는 인간감독무기체계는 자율무기체계에 포함된다고 보고 있다. 


중국은 인간에 대해 살상성을 가지고 임무 수행 전 과정에 걸쳐 자율성이 있으며, 작동된 이상 인간에 의한 종료가 불가능하고, 자율적으로 학습함으로써 발전성을 가지는 무기체계만을 자율살상무기체계로 보았는데, 일본도 비슷한 입장을 제시하였다. 러시아는 인간 운영자의 개입 없이 전투나 지원 임무를 수행하기 위한 포탄(ordnance) 이외의 완전 자율의 무인 기술수단을 자율무기체계로 보았다. 


자율무기체계 개념에 대한 각국의 입장은 <표 2>와 같다.


매년 제네바에서 개최되는 CCW 회의에서 우리나라는 자율무기체계에 대한 기본적 입장을 제시하지 못하고 있다. 국방혁신 4.0에서 제시하고 있는 “완전 자율”이라는 용어는 중국이나 일본이 주장하는 국제적 규제가 필요한 완전자율살상무기체계를 의미한다는 잘못된 인식을 불러일으킬 수도 있다. 


이러한 국제적 오해는 2012년 삼성테크윈이 제작한 자율경계로봇 SGR-1의 사례에서도 확인할 수 있다. 이것은 국제사회에 인간의 지시 없이 자체적으로 살상이 가능한 대표적인 자율무기체계로 알려졌으며, 이미 비무장지대에 배치가 되었다는 잘못된 정보가 CCW 회의에서 언급되기도 하였다.

무엇보다도 큰 문제는 우리 군에 유무인 복합전투체계, 무인 전투체계, 자율무기체계 등에 대한 명확한 개념이 정립되어 있지 못하다는 것이다. 국제사회에서 자율무기체계에 대해 논의를 하는 것은 인간통제가 부재한 무기체계 자체에 의한 인간살상의 문제를 막자는 것이지 자율무기체계의 개발·연구·사용 자체를 금지하자는 것은 아니다. 중국, 러시아, 일본처럼 완전 자율살상무기체계만을 규제의 대상으로 삼는다면, 인간감독이 가능한 표적선정과 교전에 있어 자율성이 있는 자율무기체계도 얼마든지 개발하고 사용이 가능한 것이다.

그렇다면 장기적으로 우리 군은 오로지 인간운용자에 의해서만 공격이 가능한 무인 무기체계를 원하는 것인지, 그렇지 않다면 표적선정과 교전에 자율성이 인정되지만 인간감독 하에 있는 무인무기체계도 장래에 활용할 것인지를 고민해야 한다. 이러한 정책적 결정에 따라 우리 군의 자율무기체계 개념을 정립하고 국제적 기준에 부합하는 미래 전력체계를 구축하며, CCW 회의에서도 우리의 입장을 명확하게 제시할 필요가 있다.

인간통제와 무기에 대한 법적 검토의 문제


자율무기체계에 대한 국제사회의 논의 중 현재 가장 핵심적인 내용은 인간과 기계의 상호작용을 통해 자율무기체계에 대한 의미 있는 인간통제(meaningful human control)를 강화하는 것이다. 


CCW의 11가지 지도원칙에서 제시한 바와 같이 위험평가와 완화조치로서 무기체계에 대한 시험평가도 지속적으로 논의되고 있는데, 신무기 또는 전쟁수단의 연구·개발·획득·사용에 있어 국제법에 위반되는지를 검토하려는 노력도 이에 포함된다. 


문제는 자율무기체계에 대한 법적 검토가 이루어지기 위해서는 일반적인 무기체계에 대한 법적검토가 전제되어야 하므로 먼저 무기에 대한 법적검토에 대해 살펴볼 필요가 있다.

우리나라도 가입한 제네바협약 제1의정서는 제36조에서 무기의 법적 검토에 관해 규정하고 있다. 신무기, 전투수단 또는 방법의 연구·개발·획득 및 채택에 있어서 체약당사국은 무기 및 전투수단의 사용이 본 의정서 및 체약당사국에 적용 가능한 국제법의 다른 규칙에 의하여 금지되는지 여부를 결정할 의무가 있다는 것이다. 


이 조항은 신무기뿐만 아니라 전투수단이나 방법 등에 대해 개발되는 단계에서부터 최종적으로 폐기되기까지 전체수명주기 동안 계속적인 검토를 요구한다. 그것이 대인무기인지, 살상무기인지 여부에 상관없이 모든 형태의 무기를 포함한다. 연구·개발되거나 구매하는 무기인지에 관계없이 관련 규정이 적용되어야 하고, 무기의 성능에 중대한 변화를 초래하는 경우도 법적 검토가 이루어져야 한다.

ICRC는 공격에 있어 정확성을 가지는 동시에 남용되어 민간인에게 피해를 유발할 수 있는 무기는 그 자체로 금지되는 무기가 아니지만 사용되는 수단이나 방법에 의해 제한이 된다고 하였다. 


새로운 무기의 검토에 있어 무기 자체가 국제법상 금지되는 무기인지의 여부 뿐만 아니라 무기의 사용으로 인해 무차별적인 피해가 발생하여 국제인도법상 구별성, 비례성, 사전예방의 원칙 등이 준수될 수 없는 무기인지 여부를 확인해야 한다. 특히, 자율무기체계의 경우는 하드웨어인 무기와 이를 운영하는 소프트웨어가 복합적으로 연동하여 작동하는 무기체계이다. 무기체계에 인공지능이 포함되는 경우 소프트웨어나 알고리즘 등을 어떻게 평가할 것인지가 더욱 중요해진다고 할 것이다.

미국은 전쟁법규정(DoDD 2311.01), 국방획득규정(DoDD 5000.01), 비살상무기 집행기관 및 정책규정(DoDD 3000. 03E), 자율무기체계규정(DoDD 3000.09) 등에 전쟁법 준수를 위해 무기와 정보체계의 획득과 조달에 있어 국내법뿐만 아니라 국제조약, 국제관습법, 무력충돌법(전쟁법) 준수를 규정하고 있다. 


법적 검토의 권한이 있는 변호사는 획득이 예정된 무기 또는 무기체계의 법적 검토를 반드시 수행해야 하며, 각 군의 규정에서도 무기획득의 개별 절차별로 법무장교들이 무기에 대한 법적 검토를 하도록 규정하고 있다(Army Regulation 27-53, SECNAINST 5000.2E, Air Force Instruction 51-402). 


특히 자율무기체계에 있어서는 적대자나 시스템상의 오류로 인해 피해가 발생하는 것을 최소화하기 위해 하드웨어와 소프트웨어에 대한 검증과 확인에 대해서도 규정하고 있다.

영국은 개념 및 교리 개발부서에서 무기에 대한 법적 검토를 수행하는데, 해당 부서는 각 군 법무장교들이 포함되어 있다. 이들은 최소 3년 이상의 경력이 있어야 하고 군사작전에 대한 경험과 지식을 구비해야 한다. 


무기에 대한 법적 검토는 예산편성 단계(initial gate)부터 시작되어 획득을 위한 평가단계(main gate), 마지막 장비 배치에 걸쳐 3단계로 진행된다. 컴퓨터 모델링을 포함한 실제 발사시험 결과를 통해 법적 검토를 시행하며 반드시 동료에 의한 검토(peer-review)를 거쳐 2인 이상의 법무장교가 검토 결과에 대해 서명하고 승인해야 한다(UK Weapon Reviews).

호주도 법무장교나 작전에 대한 경험과 지식이 있는 변호사에 의해 무기에 대한 법적 검토가 이루어진다. 연구, 개발, 획득, 외국으로부터의 구매, 중대한 성능변경의 경우에도 법적 검토가 이루어진다. 크게 보면 전략과 개념(Gate 0), 위험감소 및 요구성능 결정(Gate 1), 획득(Gate 2), 배치(Final) 4단계로 구분된다. 


법적 검토에 있어 국제사법재판소가 핵무기 사용 또는 위협의 적법성에 관한 권고적 의견의 판결에서 제시한 사항에 대해 확인을 한다. 첫째, 일반적이거나 일정한 상황에서의 특별한 금지에 해당하는가, 둘째, 특별한 금지가 없는 상황에서 ① 과도한 상해나 불필요한 고통을 유발하는가, ② 무차별적으로 사용되는 무기인가, ③ 비례적으로 사용될 수 있는 무기인가, ④ 자연환경에 심각한 손상을 입히지는 않는가, ⑤ 국제인도법에 있어 현재나 미래의 경향에 영향을 미치지는 않는가를 검토한다. 


추가적으로 공공의 이해, 공공양심의 원칙이나 인도주의에 반하는 무기는 아닌지도 검토하며, 적합, 조건부 적합, 부적합 중 하나로 의견을 제시한다(Defense Instruction Operation 44-1). 영국과 호주는 미국과 같이 자율무기체계에 대한 별도의 규정은 없지만 소프트웨어나 알고리즘에 대한 법적 검토가 지속적으로 문제될 것으로 예상된다.

대부분 국가에서는 법령이나 국방 규정에 무기의 법적 검토를 규정하고 있으며, 법조인이 포함된 위원회에서 검토하는 경우도 있지만 주로 법무장교에 의해 법적 검토가 이루어지고 있다. 외국군의 무기에 대한 법적 검토 현황은 <표 3>과 같다.


우리나라는 현행 국방 관련 법령에서 무기의 연구개발이나 획득과 관련하여 법적 검토를 명시적으로 규정하지 않고 있다. 관련 부서에서 회의 참석을 요구하는 경우 합동전략회의나 합동전략실무회의 등에 합참 법무실장이나 법무장교가 참석하여 법적인 문제점을 검토하고 의견을 제시한다. 


국방부, 합참이나 각 군 법무실의 경우 주로 국내법상 문제에 대해 해당 부서에서 법무관리관실이나 법무실에 자문을 요청하거나 법적 검토를 요구하는 경우가 있다. 하지만 전쟁법의 문제에 대한 검토체계가 구체적으로 갖추어져 있지 않아 제네바 제1추가의정서 제36조가 요구하는 절차로는 부족하다. CCW 회의에서 무기에 대한 법적 검토를 논의할 때 각국은 자신의 군에서 실시하고 있는 무기의 법적 검토제도를 소개하는 회의자료를 제출했지만, 우리나라는 이에 대해 구체적 자료를 제출할 수 없었다.

국제사회에서 우리나라와 우리 군의 위상을 고려할 때 한 단계 발전하는 선진 강군이 되기 위해 우선, 무기에 대한 법적 검토 절차가 개선되어야 한다. 「방위사업법」, 「전쟁법 준수를 위한 훈령」이나 「국방전력발전업무훈령」에 신무기에 대한 법적 검토의 주체, 방법, 절차 등에 관한 규정을 신설하고 각 군의 소요제기 단계에서도 무기에 대한 법적 검토 절차를 마련해야 한다. 소요제기, 연구개발, 시험평가, 야전배치 단계별로 법무장교에 의한 법적 검토를 실시하되, 최대한 사업에 지장을 초래하지 않는 방향으로 제도를 마련해야 할 것이다. 필요한 경우 통합개념팀이나 통합시험평가팀에 법무장교를 편성하여 함께 논의하는 것도 이러한 문제를 해결할 수 있는 하나의 방법일 것이다.

다음으로, 무기에 대한 법적 검토제도가 개선된다면 자율무기체계에 대해서도 법적 검토가 이루어져야 한다. 다만 자율무기체계는 복잡하고 예측하기 어려운 전장 상황을 소프트웨어 프로그램이나 알고리즘을 통해 구현해야 하므로 이러한 무기체계가 실제 현장에서 국제법을 준수하면서 운용될 수 있는지 평가하기가 쉽지 않다. 특히 연구개발 후 실제 무기체계 배치까지 상당한 기간이 소요되고 소프트웨어의 최신화가 이루어지지 않는 경우 애초에 예상하지 못했던 다양한 문제가 발생한다. 자체학습 능력이 있는 자율무기체계의 경우는 더욱 그러하다.

실물에 의한 시험평가의 방법보다는 현재 M&S체계(Modeling & Simulation)에 적용되는 검증(Verification), 확인(Validation) 및 인정(Accreditation) 절차를 더욱 체계화하여 시스템을 평가하는 것이 필요하다. 이 경우 법률가들은 소프트웨어나 기술적 사항에 대해 전문성이 부족하기 때문에 획득이나 연구 분야 전문가들과 반드시 협력이 필요하다. 사전 개념연구 단계부터 법무장교나 법률가들이 참여하여야 하며, 전쟁법 관련 내용을 프로그램할 때도 긴밀한 의사소통과 정보교환을 통해 소프트웨어 전문가들이 전쟁법상의 원칙들을 무기체계에 정확하게 구현할 수 있도록 지원해야 할 것이다.

나가며


위협 요인의 다변화와 첨단 과학기술의 발전으로 인한 도전과 변화의 소용돌이 속에서 우리 군이 찾은 해법은 국방혁신 4.0이다. AI·무인·로봇 등 4차 산업혁명과학기술을 기반으로 전력증강체계 분야를 혁신해 경쟁우위의 AI 과학기술 강군을 육성하는 것은 너무나도 당연한 일이다. 하지만 그 과정에 국제적 논의를 고려하지 못하고 우리 군의 독자적인 국방혁신을 추구한다면 장래에 많은 문제에 부딪히게 될 것이다. 


국제사회에서 진행 중인 자율무기체계에 대한 논의를 고려하여 우리 군이 추구하는 “완전 자율”의 개념을 재정립하고 유무인 복합전투체계나 무인 무기체계에 있어 자율성의 범위를 구체화할 필요가 있다. 


최대한 빠른 시일 내에 다양한 과학기술, 군사, 법률·윤리분야 전문가들이 함께 모여 우리 군이 추구해야 할 미래 무인체계 및 자율무기체계 등에 대해 논의를 해야 한다. 외국군과의 비교 및 국제사회의 경향 분석을 통해 국방혁신 4.0의 개념 중 보완이 필요한 부분을 확인하고 정책적인 개선 방향을 마련해야 한다.

그리고 이제까지 우리 군에서 노력이 부족했던 무기에 대한 법적 검토는 무인 무기체계나 자율 무기체계에 있어 의미 있는 인간통제를 강화하는 수단으로 국제사회에서 더욱 강조될 것이다. 따라서 국제적인 기준에 부합하도록 무기에 대한 법적 검토제도를 적극적으로 개선하여 무인 무기 체계나 유무인 복합전투체계에 대한 신뢰 구축을 통해 첨단과학기술 강군으로 거듭나야 할 것이다.

※ 본 내용은 집필자의 개인적 의견이며, 한국국방연구원의 공식적 견해가 아님을 밝힙니다



< 저작권자 ⓒ 국방일보, 무단전재 및 재배포 금지 >
댓글 0

오늘의 뉴스

Hot Photo News

많이 본 기사