일부 생성형 AI의 경우
입력 데이터 향후 학습에 재활용
무심코 올린 문서나 이미지가
다른 사용자에 노출될 수도 있어
최근 인공지능(AI) 기술의 눈부신 발전으로 “지브리풍으로 만들어 줘”라는 요청과 함께 사용자의 사진을 업로드하면 애니메이션 스타일로 변환해 주는 생성형 AI(Generative AI) 서비스가 화제를 모으고 있다. 이처럼 생성형 AI는 기술의 대중화를 이끌며 일상에 깊숙이 스며들어 사용자에게 편의성을 제공하고 있지만, 동시에 보안과 프라이버시 측면에서 새로운 문제를 제기한다.
생성형 AI는 대규모 데이터를 학습해 텍스트, 이미지, 음성 등 다양한 콘텐츠를 만들 수 있는 기술이다. 최근 주목받고 있는 대규모 언어모델(LLM)과 확산모델(Diffusion Model)은 자연스러운 대화는 물론 사람의 얼굴을 특정 스타일로 변환하거나 가상의 장면을 만들어 내는 데도 활용된다. 그러나 이런 기술은 편리함과 창의성을 제공하는 동시에 민감정보 유출과 악용 가능성이라는 이면을 지니고 있다.
예를 들어 사용자가 자기 얼굴 사진을 업로드할 경우 해당 이미지에는 촬영 위치나 시간, 배경 등 개인을 식별할 수 있는 정보가 포함될 수 있다. 이 같은 데이터가 별도 동의 없이 저장되거나 외부 서버로 전송된다면 개인정보 보호 측면에서 심각한 문제가 발생할 수 있다. 얼굴은 대표적인 생체정보로, 유출 시 신원 도용이나 사회공학적 공격에 악용될 가능성이 크다.
또한 생성형 AI의 일부는 사용자가 입력한 데이터를 향후 학습에 재활용하는 구조를 갖고 있다. 이로 인해 무심코 올린 이미지나 문서가 향후 다른 사용자에게 유사하게 노출되거나 AI가 이를 기반으로 부적절한 출력을 생성하는 사례도 발생할 수 있다. 타인의 사진을 업로드하며 “이 사람이 누구인가?”와 같은 질문을 던질 경우 AI가 부정확한 정보를 답변하거나 사생활을 침해하는 방식으로 오용될 수 있다.
보안 측면에서도 생성형 AI는 새로운 위협요소로 작용한다. 최근에는 AI를 활용해 악성코드나 피싱 이메일, 시스템 취약점 공격 코드를 자동 생성하는 사례가 보고되고 있다. 이는 사이버 보안의 기존 방어체계를 무력화할 가능성을 내포한다.
특히 국방 분야와 같이 정보 보안이 생명과 직결되는 영역에선 더욱 철저한 관리와 대비가 필요하다. 가령 군 내부 정책자료나 회의록을 AI 기반 요약도구에 입력하는 행위는 의도치 않게 기밀정보가 외부로 전송되는 보안사고로 이어질 수 있다. 이에 따라 삼성전자 같은 민간기업은 생성형 AI 사용을 제한하거나 폐쇄망 내 자체 AI 도입을 추진하는 추세다.
생성형 AI 시대를 살아가는 우리는 기술의 이점을 누리되 그 이면에 존재하는 보안과 프라이버시 위험을 결코 간과해선 안 된다. 개인은 자신의 데이터 통제권을 인식하고, 군은 AI 기술을 활용하되 명확한 지침과 보안체계를 마련해야 한다. 생성형 AI 시대에 걸맞은 정보 보호정책과 사이버 보안전략을 선제적으로 정립하는 것이 곧 AI 과학기술 강군을 건설하는 보이지 않는 전력임을 잊지 말아야 한다.
오늘의 뉴스
Hot Photo News
해당 댓글을 삭제하시겠습니까?
이 기사를 스크랩 하시겠습니까?