[앵커]
활자로 된 가짜뉴스만 해도 골치 아픈 상황에서, 실제와 구별이 쉽지 않은 가짜 영상까지 심각한 문젯거리로 떠오르고 있습니다.
인공지능과 컴퓨터 기술을 활용해 없던 일을 실제처럼 조작한 화면, 이른바 '딥페이크' 영상 기술이 발전하고 있는데, 정치적으로 악용될 소지가 큽니다.
임장혁 기자입니다.
[기자]
오바마 전 미국 대통령이, 누군가, 없는 말을 영상으로 조작해내는 상황을 경고합니다.
[오바마 전 미 대통령 (컴퓨터 변환 이미지) : 우리는 우리의 적들이, 마치 특정인이 어떤 말을 한 것처럼 조작할 수 있는 시대로 진입하고 있습니다. 실제로는 그런 말을 전혀 하지도 않았는데도 말이죠.]
그러나 이 말을 하는 영상 속 오바마조차도 진짜 오바마가 아닙니다.
실제 말의 주인공은 지금 화면의 오른편에 있는 영화감독입니다.
오바마는 이 감독이 컴퓨터로 자신의 입술 모양만 합성해 만든 이미지일 뿐입니다.
이른바 '딥 페이크(DeepFake)' 영상으로, 그렇게 첨단 기술도 아닙니다.
특정인의 표정이 다양하게 담긴 15초 분량의 원본 영상과 웹캠, '얼굴 매핑'과 목소리 변환 프로그램만 있으면, 조작이 가능합니다.
유명 영화배우의 이미지를 합성해 포르노물을 만들면서 시작된 딥페이크 영상은 갈수록 기술이 교묘해지고 있습니다.
[앤드류 그로토 / 美 안보 전문가, 스탠퍼드대 교수 : 향후 1, 2년 안에는 실제 영상과 가짜 영상을 구별하는 일이 거의 불가능해질 것입니다.]
누구나 마음만 먹으면, 이렇게 영락없는 오바마가 트럼프를 욕하는 영상을 만들 수 있다는 얘기입니다.
[오바마 전 미 대통령 (딥페이크(가짜) 영상) : 트럼프 대통령은 정말로, 완전한 머저리입니다. 물론 아시다시피 나는 이런 말을 하지 않았습니다.]
문제는 누군가 선거 전날, 악의적인 영상을 올리거나, 집단 간 갈등관계를 부추기는 등 악용 소지가 크다는 점입니다.
[마크 루비오 / 미 공화당 의원 : 아직 누군가 우려스러운 일을 저지른 사례는 없었지만, 그 가능성은 존재하고 있습니다. 선거에 영향을 미치고 사회를 분열시키려는 세력이 (딥페이크를) 악용할 가능성이 있음을 알아야 합니다.]
이런 현상이 일반화되면 나중에는 진짜 영상에 대한 신뢰성까지 떨어지는 문제도 생깁니다.
그래서 미 정부는 영상물이 가짜인지, 진짜인지를 구별하는 연구 프로그램을 진행 중입니다.
YTN 임장혁입니다.
[저작권자(c) YTN science 무단전재, 재배포 및 AI 데이터 활용 금지]