오피니언 교수실에서

인공지능 챗GPT 역습에 대비하라

입력 2023. 09. 18   15:32
업데이트 2023. 09. 18   15:34
0 댓글
이강준 소령 육군3사관학교 영어학과 교수
이강준 소령 육군3사관학교 영어학과 교수



2022년 11월 등장한 대화형 인공지능(AI) 모델 챗(Chat)GPT는 서비스, 교육, 금융, 의료, 국방 등 기존에 사람이 수행해야만 했던 다양한 분야의 작업을 AI가 대신할 수 있는 시대를 열게 했다.

GPT는 ‘사전 훈련된 생성변환기’를 뜻하는 ‘Generative Pre-trained Transformer’의 약자로 언어 생성과 이해를 위해 사전 훈련된 AI다. 챗GPT는 ‘오픈AI’라는 인공지능 연구기업이 개발한 대화형 AI 모델이다.

챗GPT는 언어처리기술을 기반으로 사용자와 대화를 통해 정보를 제공하고자 개발됐다. 챗GPT의 활용 능력은 무한할 것으로 평가받고 있다. 미국 경제지 포브스는 앞으로 챗GPT가 교육·예술·연구 등 다양한 분야에서 인간을 대체할 것으로 예측했으며, 특히 작문(글쓰기) 분야에선 이미 인간의 능력을 뛰어넘었다는 평가를 내놨다. 이를 증명하듯 미국 온라인 서점 아마존에서는 챗GPT가 저술한 200여 권의 책이 판매되고 있다. 최근 우리나라에서도 챗GPT를 업무에 적용한 사례가 발표됐다. 농촌진흥청에서 챗GPT를 농업기술에 접목해 기존보다 600배 빠른 업무처리 프로그램을 개발, 실행 준비 단계에 있다고 한다.

챗GPT를 우리 군에 적용할 방법은 없을까? 미국의 사례에서 그 방법을 엿볼 수 있다. 지난 2월 미 국방부 발표자료에 따르면 미군은 행정업무를 단순화하고 업무처리 속도를 높이기 위해 ‘Acqbot’이라는 AI 기반 계약 작성 챗봇을 개발 중이다. 미군은 이를 방위산업 분야에 적용해 계약 체결 간 불필요하게 소모되는 시간과 비용을 줄이겠다고 밝혔다.

그렇다면 챗GPT를 사용하는 데 부작용은 없을까? 이미 많은 분야에서 챗GPT의 문제점이 발견되고 있다. 그중 가장 큰 문제점은 잘못된 정보 제공이다. 바르지 못한 정보 제공은 단순한 정보 오류에 그치는 게 아니라 개인과 단체 또는 사회에 큰 혼란을 주거나 돌이킬 수 없는 문제를 야기할 수도 있다. 이것이 바로 우리 인간들을 향한 챗GPT의 역습이다.

지난 4월 미 일간지 워싱턴포스트는 챗GPT가 거짓정보를 생산하고, 그 출처까지 조작한 사례를 보도했다. 챗GPT는 현직 미국 조지워싱턴대 법학교수가 성추행 전과자라고 답하고, 해당 정보 출처가 워싱턴포스트의 뉴스 기사라는 자료를 제공했다. 이 사실을 확인한 결과 모두 거짓자료였다. 해당 교수는 챗GPT를 개발한 오픈AI를 상대로 소송을 준비 중이라고 한다.

만약 챗GPT의 거짓정보를 직접 경험해 보고 싶다면 챗GPT에 주변 맛집에 관해 물어볼 것을 추천한다. 챗GPT가 친절하게 유명 식당과 대표 메뉴들을 알려 주겠지만 안타깝게도 현지인들이 이야기하는 맛집 추천과는 거리가 먼 식당과 메뉴일 가능성이 높다.

대화형 AI 모델 챗GPT의 등장은 우리 사회에 AI 성장의 고도화가 빠르게 진행되고 있고, AI 기술이 앞으로 다양한 분야에 적용되는 데 대한 기대를 가지게 한다.

하지만 분명 AI의 한계와 문제점은 아직 존재한다. 챗GPT가 가진 한계점을 효과적으로 극복한다면, 즉 ‘챗GPT의 역습’에 대비책을 마련하고 AI 모델을 우리 군에도 효과적으로 적용할 때 우리 군은 획기적인 발전을 통해 미래 전장을 주도할 수 있을 것이라고 전망된다.

< 저작권자 ⓒ 국방일보, 무단전재 및 재배포 금지 >

오늘의 뉴스

Hot Photo News

많이 본 기사