기획 완결 한국군사문제연구원

인공지능(AI) 적용과 문제점

김한나

입력 2021. 09. 29   13:30
업데이트 2021. 09. 29   15:52
0 댓글

인공지능(AI) 적용과 문제점
KIMA 뉴스레터 1089호(한국군사문제연구원 발행)

그래픽 = 게티이미지뱅크
그래픽 = 게티이미지뱅크
제4차 산업혁명 기술의 대표적 사례는 인공지능(AI)이며, 주요 목적은 인간이 하는 일의 전부 또는 일부를 기계가 대행하는 것으로, 현재는 단순한 수학적 논리에 의해 운용되나, 향후 인공지능 알고리즘에 의해 인간을 대신할 수 있을 것으로 기대되고 있다.

하지만 학계와 전문가들은 인공지능 만능주의에 대한 과신으로 인한 부작용이 일어날 수 있다는 우려를 나타내고 있다.

특히 이는 미국 연방정부가 인공지능 기능을 연방정부 수사에 적용할 수 있도록 하고, 미 국방성이 차세대 무기와 장비에 인공지능 기술과 알고리즘 적용하는 것을 방위산업체에 권장하면서 더욱 우려를 자아내고 있다.

또한 제4차 산업혁명 기술을 개발하는 연구자들은 기계에 인공지능 알고리즘을 제공하는 것만이 문제가 아니라, 잘못된 데이터와 검증을 거치지 않는 알고리즘에 의해 그동안 인간이 경험하지 못한 위험에 직면할 수 있음을 우려하고 있다.

특히 이들은 다음과 같은 사례를 들어 윤리적 규정과 인공지능을 적용할 분야를 정부가 나서서 구분해 주는 것이 필요하다고 제안하였다.

첫째, 2016년 수학자이자 데이터과학자인 캐시 오닐의 저서 『대량살상 수학무기(Weapons of Math Destruction)』와 2019년 프린스턴대 아프리카계 미국연구학과 교수인 루하 벤자민 박사가 쓴 『테크놀로지와 인종차별(Race After Technology)』에서 지적한 부분이다.

이들은 데이터를 활용한 알고리즘에 의한 인공지능이 인간을 지배하여 상상을 초월하는 재앙을 초래할 수도 있다고 우려하면서 인간 스스로가 이를 제한하지 못하면 정화되지 않은 수학적 데이터가 만든 알고리즘을 적용한 인공지능이 마치 인간과 같이 행동하여 인간을 지배하는 시대가 도래할 수 있다고 경고하였다.

둘째, 지난 4월 21일 유럽연합이 모든 회원국 정부에 강제적으로 적용해야 한다고 발표한 ‘인공지능 규정’을 들었다.

프랑스 스트라스부르에 위치한 유럽연합의회 본부의 모습. 사진 = 유럽연합의회 홈페이지
프랑스 스트라스부르에 위치한 유럽연합의회 본부의 모습. 사진 = 유럽연합의회 홈페이지

이 규정은 유럽 주요국가들이 마구잡이 식으로 인공지능 만능주의에 몰입하여 인공지능을 개발하고 모든 분야에 적용하려 한다면서 우선 인공지능 적용에 따른 위험 발생 가능성을 고려해야 한다고 지적하였다.

예를 들어 국가 산업기반체계, 교육제도, 안전규정, 법률 해석을 대행하는 기능과 이민자와 난민 처리 등에서 인공지능이 적용되어 무차별적 인식오류로 인해 범죄자들의 이민이 허용되고 특히 군사용 무기와 장비에 적용되어 피아 구별이 없어지거나 적의 사이버 조작 때문에 아군의 무기와 장비가 아군을 공격하는 군사 위험 등 3가지 가능성을 제시하였다.

이를 예방하기 위해 유럽연합 각국은 인공지능 적용에 따른 회원국 간 협력을 위해 유럽연합의 인공지능 개발 전략(European Strategy on AI)을 수립하고, 이를 집행하는 유럽 인공지능 위원회를 운영하고 있다면서 미국도 이를 받아들여야 한다고 보았다.

특히 인공지능 개발 시 연구개발 수위와 범위를 미리 제한하고, 인공지능 장점에 집중하지 않도록 하며, 인간 윤리 범위를 추월하지 않도록 하고, 인공지능 개발자에 대한 리더십과 윤리 교육이 필요하다고 지적하였다.

셋째, 지난 8월 2일 『뉴욕타임스(NYT)(국제판)』은 지금 미국 전역에 검증되지 않은 인공지능 알고리즘이 사회 전반에 걸쳐 적용되고 있으나, 다양한 문화와 피부색이 다른 인종이 공존하는 미국의 특성을 이해하지 못하는 안면인식 인공지능 알고리즘에서 심각한 문제가 일어나고 있다는 기사를 보도하면서 다음과 같은 대책을 연방정부에 촉구하고 지난 4월 유럽연합이 제정한 규정보다 더욱 엄격한 규정을 제정해야 한다고 주장하였다.

우선 획일적이며 비과학적인 데이터가 인공지능 알고리즘에 사용되는 것은 방지해야 한다. 이를 위해 건전하고 합법적인 생체인증(biometric) 자료만이 인간을 대체하는 분야에 적용되도록 해야 한다.

특히 지난 8월 24일 미국 『프로젝트 신디케이트(Project Syndicate)』는 인공지능 개발 시 적절한 데이터가 알고리즘 개발에 적용되도록 하는 것은 인간이 인공지능 기능을 갖춘 기계와 체계를 통제할 수 있는 유일한 방법이지만 군사 분야는 통제할 방안이 없다고 지적하였다.

다음으로 인공지능 기술이 적용된 기계와 체계를 가진 사용자는 인공지능 만능주의에 빠지지 말아야 한다. 지금은 인공지능의 기능적 혜택이 지나치게 강조되어 마치 인공지능을 이용만 하면 모든 것이 다 잘 진행되리라고 믿는 실수를 하고 있다고 지적하였다.

하지만 『대량살상 수학무기』와 『테크놀로지와 인종차별』에서 우려했듯이 인공지능은 수학적 연산일 뿐이며, 인간이 오랜 작업과 경험 때문에 갖고 있는 ‘감’을 대신하지는 않는다. 단지 표준화되고 구별력을 갖춘 알고리즘일 뿐으로 반드시 실수가 발생하게 되어있다.

만일 이러한 문제가 민간산업체에서 나타난 경우 공장을 폐쇄하거나 영업손실로 처리하여 해결할 수 있지만 국가 공공기관과 군사 분야에서 발생할 경우 부작용은 심각한 수준일 것이다.

특히 빅테크 기업과 방위산업체들은 이 점을 명심해야 한다. 예를 들면 페이스북이 가입자들의 개인정보를 어떻게 각종 앱 네트워크에 적용하는지, 이를 어떻게 관리하고 있는지, 문제가 발생하는 경우 이를 저지할 수 있는 여건을 갖추고 있는지를 투명하게 공개해야 한다. 또한 방위산업체는 각종 첨단 무기와 장비에 적용된 인공지능 알고리즘이 과연 지휘관의 전투력만이 아닌 리더십 발휘에 도움이 되는지에 대한 윤리적 측면을 고려했는지 국방성과 긴밀히 협의해야 한다.

대부분 인공지능 개발사들은 표준화되고, 검증된 데이터만 인공지능 알고리즘 개발에 적용되어 문제가 되지 않는다고 주장하고 있으나, 이들은 아주 세심한 분야에서 나타나는 문제점들을 대부분 은폐하며, 임시방편적으로 수리하는 등의 조치로 대응하고 있는 것도 문제라고 지적하였다.

궁극적으로 전문가들은 현재 인공지능 개발 속도와 적용 범위가 너무 빠르게 확장되고 있다면서, 이를 검증할 수 있는 기계 중심이 아닌, 인간 중심의 예방책과 대응 방안이 미흡하다는 것이 더 큰 문제라고 우려하고 있다.

* 출처:

European Union, Commission, April 21, 2021; The New York Times International Edition, August 2, 2021; Project Syndicate, August 24, 2021.

저작권자ⓒ한국군사문제연구원(www.kima.re.kr)

김한나 기자 < 1004103khn.dema.mil.kr >

< 저작권자 ⓒ 국방일보, 무단전재 및 재배포 금지 >
댓글 0

오늘의 뉴스

Hot Photo News

많이 본 기사