“핵무기보다 위험한 딥페이크”…‘5시간’ 만에 선거판 뒤집을 수도
  • 공성윤 기자 (niceball@sisajournal.com)
  • 승인 2024.03.03 08:00
  • 호수 1794
이 기사를 공유합니다

누구나 만들 수 있는 딥페이크, 튀르키예 대선·슬로바키아 총선에선 이미 판세 뒤집어
‘윤석열 대통령 양심고백 연설’ 짜깁기 영상으로 비상 걸린 한국…경찰-방심위-IT업계 일제 대응

AI(인공지능)를 기반으로 이미지를 합성한 딥페이크가 전 세계 선거판을 뒤흔드는 가운데 국내에도 ‘딥페이크 주의보’가 발령됐다. 이미 튀르키예와 슬로바키아 선거 때 딥페이크 콘텐츠 유포 이후 판세가 바뀐 전력이 있어 간과하기 힘든 상황이다. 더군다나 최근 공론화된 윤석열 대통령의 ‘셀프 비판’ 영상은 결정적 계기로 작용했다. 4월10일 21대 총선을 앞두고 선거 관련 활동이 제한되는 지금, 딥페이크가 치명적 변수로 떠올랐다.

ⓒ대통령실 홈페이지 캡처·freepik

딥페이크란 단어는 2017년 12월 미국 온라인 커뮤니티 레딧의 한 이용자가 처음 쓴 것으로 알려져 있다. 해당 이용자는 딥페이크란 제목의 게시판을 만든 후 음란물에 유명 배우의 얼굴을 입힌 콘텐츠를 올리기 시작했다. 딥페이크가 대중에게 알려진 시발점이 지금 부정적 활용의 대표적인 예로 꼽히는 합성 음란물이었던 셈이다. 우려가 제기되자 레딧은 딥페이크 게시판을 폐쇄했다. 하지만 이미 트위터(지금의 ‘X’) 등에선 딥페이크를 이용한 음란물이 급속도로 퍼져 나갔다.

딥페이크를 처음 쓴 레딧의 이용자가 의도한 것인지는 알 수 없으나, 이 단어는 자가학습이 가능한 AI 기술 ‘딥러닝(deep-learning)’과 가짜를 뜻하는 ‘페이크(fake)’의 합성어로 받아들여지고 있다. 영국 브리태니커 백과사전도 이렇게 설명하고 있다. 그 말대로 딥페이크는 딥러닝의 한 종류인 ‘생성형 대립 신경망’(GAN)을 기반으로 한다. 이는 생성자와 판별자라는 두 신경망의 경쟁을 유도한다. 생성자는 가짜 이미지를 진짜처럼 보이게 만들고, 판별자는 생성자가 만든 이미지 중 가짜처럼 보이는 것을 솎아낸다. 구글 개발자 이안 굿펠로의 비유를 빌리자면, 지폐위조범은 가짜 지폐를 계속 만들어내고 경찰은 이를 매번 판별하는 식이다. 이 같은 작업이 반복되면 결국 경찰도 속아 넘어가는 ‘위조지폐’만 남게 된다.

2월8일 대구시선거관리위원회에서 AI 모니터링 전담반이 온라인상 선거법 위반 상황을 감시하고 있다. ⓒ연합뉴스

5시간이면 ‘뚝딱’…유명인은 유사성 높아

원리는 단순해 보이지만 일반인이 GAN을 활용하기는 쉽지 않다. 하지만 레딧과 깃허브 등 개발자 커뮤니티에서 GAN에 대한 오픈소스가 공개되기 시작했고, 이를 바탕으로 딥페이크 영상을 만들 수 있는 앱과 사이트가 상당수 생겨났다. 실제 앱스토어에서 ‘딥페이크’를 검색해 보니 기존 영상에 얼굴을 합성해 주는 앱 10여 개가 검색됐다. 특정 인물의 사진을 한 장만 올리고 30초 정도 기다리니 딥페이크 이미지 또는 짧은 영상이 만들어졌다. 만듦새는 다소 부족했다. 진위 여부를 육안으로 식별할 수 있을 정도였다.

대신 ‘딥페이크 웹(Deepfakes Web)’ 사이트는 제작 소요시간당 4달러를 받고 고품질의 딥페이크 영상을 만들어준다. 5시간(20달러) 투자하면 AI가 1만 회 이상 자가학습을 반복해 더욱 진짜 같은 영상이 나온다고 한다. ‘후뎀(Hoodem)’이란 사이트 역시 유상으로 3~5시간 안에 딥페이크 영상을 제작해 준다. 이 사이트는 “결과물에 만족하지 않으면 100% 환불을 보장한다”며 완성도를 자신하기도 했다.

특히 정치인, 연예인 등 얼굴이 알려진 유명인은 실제 모습과 딥페이크의 유사성이 높다. 사진이 많이 공개돼 있기 때문이다. 사진의 촬영 각도가 다양하거나 여러 표정이 담겨있을수록 AI의 모방 능력은 향상된다. 또 유명인은 초상권과 관련된 법망에서 벗어나 있다는 맹점도 존재한다. 이처럼 유명인이 불특정 다수에 의해 언제든 딥페이크 희생양이 될 수 있다 보니 “딥페이크가 핵무기보다 더 위험할 수 있다”(2020년 1월 캐나다 과학매체 TDS)는 주장까지 나온다.

국제안보의 주축인 미국은 긴장하고 있다. 미국 의회조사국(CRS)은 지난해 4월 ‘딥페이크와 국가안보(Deep Fakes and National Security)’란 제목의 보고서를 발표했다. 지금껏 CRS는 ‘국가안보’를 군사적 위협이나 외교적 갈등과 함께 썼는데, 딥페이크를 이와 연결 지은 건 이번이 처음이다. 보고서는 “딥페이크가 발전을 거듭하면서 의회의 감독망과 군사 당국, SNS 규제 등에 지대한 영향을 미칠 것”이라고 전망했다.

이미 딥페이크는 선거전에서 무기로 쓰이고 있다. 지난해 5월 튀르키예 대선 투표를 며칠 앞두고 ‘테러집단이 야당 후보를 지지한다’는 영상이 퍼졌다. 딥페이크 기술로 만든 가짜 영상이었다. 야당 후보는 이를 두고 “배후에 러시아가 있다”고 주장했지만 결국 ‘친러’ 에르도안 대통령의 3선을 막는 데 실패했다. 3개월 전 대지진으로 여당 지지율이 폭락하면서 야권의 승리가 예상된 터라 이례적인 결과였다.

또 지난해 9월 슬로바키아 총선에서는 투표 이틀 전에 야당 대표의 “선거 승리를 위해 돈을 뿌려야 한다”는 음성이 퍼졌다. 역시 딥페이크 결과물로 드러났지만 이미 야당 대표가 패배한 후였다. 딥페이크 기술은 영상·이미지 외에 소리의 빠르기와 높낮이 등을 학습해 흉내 내는 ‘딥보이스’에도 활용되고 있다. 미국외교협회(CFR)는 “딥페이크가 올 11월 대선을 망칠 것이란 주장은 허황된 얘기가 아니다”고 지적했다.

최근 틱톡 등 소셜미디어에서 확산하고 있는 윤석열 대통령 합성 영상 ⓒ뉴시스

“딥페이크가 美 대선 망칠 것”…한국도 급해

시기상 발등에 불이 떨어진 나라는 총선이 두 달도 남지 않은 한국이다. 중앙선거관리위원회에 따르면 1월29일부터 2월16일까지 딥페이크를 활용한 선거운동으로 공직선거법을 위반한 게시물은 129건으로 파악됐다. 1월29일부터 시행된 공직선거법 개정안에는 선거일 90일 전부터 제한되는 행위로 아예 ‘딥페이크’가 적시돼 있다. 이 와중에 지난해 11월부터 SNS 등에 퍼진 ‘윤석열 대통령 양심고백 연설’이란 제목의 영상이 뒤늦게 공론화되며 관계 당국이 일제히 움직였다.

46초 분량의 해당 영상에서 윤 대통령은 “윤석열 정부는 특권과 반칙, 부정과 부패를 일삼았다”고 말한다. 이는 정확히는 2022년 2월 당시 윤석열 대선후보가 TV조선 연설에서 더불어민주당을 비판하는 발언을 짜깁기해 만든 것이다. 지난 대선 때 딥페이크로 윤 대통령을 최초로 구현한 AI 솔루션 업체 딥브레인AI의 이정수 이사는 “자체 탐지 프로그램으로 조사한 결과 문제의 영상은 딥페이크가 아닌 것으로 확인됐다”고 시사저널에 설명했다. 다만 실제 인물의 언행을 연상하게 한다는 점에서 보면 딥페이크의 부작용과 맞닿아있다.

대통령실은 강력 대응 방침을 밝혔다. 경찰은 방송통신심의위원회에 해당 영상의 차단을 요청했다. 이에 방심위가 2월23일 차단 조치를 의결하면서 현재 영상은 모두 내려간 상태다. 다만 이번 조치가 당초 방심위의 '만장일치'로 알려졌는데, 야권 추천 방심위원인 윤성옥 위원은 "거수기 역할은 의미 없다"며 지난달부터 심의 참여를 중단한 상태라 만장일치로 볼 수는 없다. 윤 위원은 입장문을 통해 "대통령 풍자영상에 대한 통신심의는 심의규정과 심의절차 위반”이라고 밝혔다. 조지호 서울경찰청장은 2월26일 “영상을 올린 것으로 보이는 아이디를 확보했다”며 압수수색을 예고했다. 한편 네이버, 카카오, 구글코리아 등 국내 주요 IT 기업들은 딥페이크에 공동 대응하기 위해 자율협의체를 구성할 계획이다.

 

■무엇이 진짜일까?…눈으로 딥페이크 알아내는 방법

입 주변 부위와 얼굴 색깔·손가락 유심히 관찰해야

현실적으로 딥페이크 관련 기술의 발전을 막을 방법은 없다. 반면 딥페이크를 구분할 방법은 있다. 미국 인텔이 2022년 11월 공개한 프로그램 ‘페이크캐처’는 얼굴의 혈류를 분석해 가짜 영상을 탐지할 수 있다고 한다. 심장이 뛸 때마다 혈관 색깔이 미세하게 바뀌는 점에 착안한 것이다. 정확도는 96%라고 한다. 국내에서도 관련 연구가 진행 중이다. KAIST는 인텔보다 이른 202년 6월 딥페이크 탐지 프로그램 ‘카이캐치’ 개발 사실을 알렸다. 이는 영상 내 색상과 주파수 정보를 통해 위변조 여부를 확인한다.

그런데 영상을 접할 때마다 매번 즉각적으로 탐지 프로그램에 의존할 수는 없다. 결국 최우선 탐지 경로는 사람의 눈이다. 전문가들은 입 주변과 얼굴 색깔을 살펴보라고 조언한다. 딥브레인AI 이정수 이사는 “사람이 말할 때 얼굴 전체 근육을 활용하는데 딥페이크 영상은 입만 따로 움직이는 경향이 있다”고 설명했다. 또 산드라 와처 옥스퍼드대 기술규제학 교수는 유튜브를 통해 “딥페이크는 눈과 코를 묘사할 때 정확도가 떨어져 어색한 느낌을 준다”며 “딥페이크 속 얼굴은 너무 밝고 선명하며 윤기가 난다”고 했다.

그 밖에 영상이 흐릿하거나, 안경이나 장신구를 작용한 경우 일부가 안 보이거나 비대칭이 심하다면 딥페이크일 확률이 높다고 한다. 상반신 전체를 딥페이크로 만든 경우라면 손을 유심히 볼 필요가 있다. AI는 아직 손의 이미지를 충분히 학습하지 못했기 때문이다. 손가락이 6개거나 이상하게 휘어있다면 의심할 여지 없이 딥페이크다.

그러나 시간이 갈수록 육안으로 구분하는 건 한계에 부닥칠 것이란 의견이 뒤따랐다. 이정수 이사는 “2010년대 후반에는 굳이 차이점을 언급하지 않아도 구분이 가능했는데 요즘은 프로그램만 발견할 수 있는 미묘한 포인트가 늘어났다”며 “창은 계속 날카로워질 테니 방패를 계속 단단하게 만들 수밖에 없다”고 했다.

관련기사
이 기사에 댓글쓰기펼치기