오피니언 조명탄

인공지능은 언제쯤 말귀를 알아들을까?

입력 2024. 07. 18   15:43
업데이트 2024. 07. 18   15:45
0 댓글
허두영 (주)테크업 대표
허두영 (주)테크업 대표



말을 알아듣는다는 것은 음성을 인식한다는 것과 다르다. 말을 알아듣는다는 것은 당시 상황을 이해한다는 것이다. 막대를 던지면서 개에게 “가져와”라고 한쪽을 가리켰을 때 막대를 물고 오는 개는 “가져와”라는 음성을 인식했다기보다 주인이 그쪽을 가리킨 상황을 이해한 것이다. 이때 개는 주인의 말을 알아들은 걸까?

지금 컴퓨터라면 ‘가져와’라는 음성만 인식할 뿐 주인의 속내를 알지 못한다. 반면 개의 경우 언어는 이해하지 못해도 상황은 제법 판단할 줄 안다. 말을 알아듣는다는 것은 어떤 언어나 동작이 나온 상황을 판단하고, 다음 언어나 동작을 준비하고 실행한다는 것을 말한다. 그렇다면 인공지능(AI)은 사람의 말귀를 알아들을 수 있을까? 하긴 사람의 말귀를 알아듣지 못하는 인간도 그렇게 많은데, AI가 어떻게 사람의 말귀를 알아들을 수 있을까 싶기도 하다.

미국 영화감독 스탠리 큐브릭이 만든 ‘2001: 스페이스 오디세이’를 보면 AI를 가진 컴퓨터 HAL이 등장한다. ‘Heuristically programmed ALgorithmic computer’, 곧 스스로 학습할 수 있도록 프로그램된 알고리즘을 가진 컴퓨터다. 당시 가장 발달한 컴퓨터보다 한 단계 앞섰다는 뜻에서 IBM의 알파벳을 한 칸씩 앞으로 옮긴 이름이다.

HAL은 특별교육을 받고 2001년 승무원 5명과 함께 디스커버리호를 타고 목성 탐사에 나선다. 우주선 조종, 목성 탐사, 승무원의 안전은 물론 지구와 영상 회견까지 도맡아 할 정도로 HAL은 거의 모든 작업에 익숙하다. 심지어 승무원에게 사고가 생기는 비상 상황에도 HAL은 스스로 작동하면서 업무를 완수하도록 훈련받았다.

호기심 많은 HAL은 승무원에게 이것저것 캐묻기도 하고 그 대답에서 새로운 것을 추론하며 자신의 의견까지 제시한다. 한 승무원이 초상화를 그리고 있을 때 실력이 좋아졌다고 칭찬하면서 그림이 누구의 얼굴인지 알아맞히기도 한다. 심지어 두 승무원이 자신을 죽이려고(전원을 끄려고) 모의하는 장면을 보고, 자신의 임무를 다하기 위해 승무원을 제거하려는 계획까지 세운다.

과연 HAL은 상황을 이해하는 능력을 가진 걸까? 음성을 인식하고 대화하는 AI는 지금도 가능하다. 승무원이 그리는 그림을 인식하고 칭찬하는 것도 그리 어렵지 않아 보인다. 유리벽 넘어 옆방에서 승무원끼리 모의하는 말은 어떻게 알아들었을까? 그들은 HAL이 음성을 인식하지 못하도록 옆방에서 마이크 없이 소곤거렸다. HAL은 어떻게 그 상황을 인식했을까?

스스로 학습하는 능력을 가진 HAL은 승무원의 음성뿐 아니라 입술만 보고도 무슨 말인지 파악하는 독순술(讀脣術·Lip Reading)을 익혔다. 텍스트·이미지·비디오·사운드 같은 다양한 형식의 데이터를 통합 처리하는 멀티모달(Multi-modal) AI인 셈이다. 모르는 사람에겐 전지전능한 존재로 보이겠지만, HAL은 사람이 말하는 영상을 보고 소리 내용을 추정한 기계장치일 뿐이다.

지금도 독순술은 시끄러운 환경에서 소통하거나 청각장애인이 대화를 알아듣거나 스파이가 첩보를 수집할 때 요긴하다. 독순술을 모르는 사람이라도 옆방에서 다른 사람끼리 대화하는 장면을 보면 짐짓 상황을 간파할 수도 있다. 남의 마음을 그때그때 상황으로 미뤄 알아내는 ‘눈치’의 영역이다. 오감(五感)을 넘어서는 ‘식스센스(Sixth Sense)’의 차원일까?

인간은 눈치 없다고 AI를 구박하면서 계속 눈치를 학습시키려 들 것이다. 사람의 표정과 목소리로도 얼마든지 ‘눈치’를 학습시킬 수 있다. AI는 또 다른 방법으로 눈치채는 법을 계속 배워 나갈 것이다. AI가 알게 모르게 눈치 보는 법을 터득하고 있다는 사실을 그 주인은 결정적 순간까지 거의 눈치채지 못할 것이다. HAL이 독순술을 익힌 걸 승무원들도 몰랐듯이.

< 저작권자 ⓒ 국방일보, 무단전재 및 재배포 금지 >

오늘의 뉴스

Hot Photo News

많이 본 기사