[앵커]
인공지능 기술을 활용한 가짜 영상, 이른바 딥페이크 범죄가 기승을 부리고 있습니다.
일반인도 쉽게 만들 수 있을 정도로 기술이 발전해 우려가 커지자 수사기관이 가짜 영상 탐지 프로그램을 개발하는 등 대응에 나섰습니다.
윤태인 기자의 보도입니다.
[기자]
유명 영화배우 2명이 나와 자기소개와 함께 자선 사업 후원을 제안합니다.
교수님의 5회의 QF 투자가 순조롭게 진행되기를 희망하며 QF 수강생들이 자선을 위해 힘을 보태어주심에 감사드립니다.
그럴듯해 보이지만 자세히 보면, 음성과 입 모양이 잘 맞지 않고, 시선 처리도 어색합니다.
일반인을 속여 돈을 가로채기 위한 이른바 '딥페이크', 가짜 영상입니다.
기술이 급속도로 발전하면서 마치 실제 말하는 것 같은 합성 영상은 불과 클릭 몇 번이면 그럴듯하게 만들 수 있습니다.
취재기자도 직접 인공지능 프로그램에 데이터를 학습시켜 가짜 영상을 만들어 봤습니다.
제가 취재했던 2분 정도 길이 리포트 기사 3개를 연달아 읽어 녹음하고 시스템에 입력했는데요,
제가 직접 하지 않은 말이지만, 제가 한 것과 똑같은 목소리가 나옵니다.
이처럼 손쉽게 만들 수 있다 보니 유명인들을 내세운 가짜 영상도 점차 많아지고 있습니다.
[존 리 / 전 메리츠자산운용 대표 : 당신을 모르는 사람이 보면 속으면 큰일나겠다 그런 얘기를 하죠. 유명하면 무조건 복제를 하는 거죠. 그러니까 이 사람이 금융 전문가가 아니어도 상관도 안 해요. 그러니까 만 개 보내서 10개만 걸려도 돈을 벌잖아요.]
주로 온라인 플랫폼에 올라오는데, 문제는 유명인 허락도 안 받은 허위 영상이어도 걸러낼 방법이 없습니다.
얼굴을 도용당하거나 심지어 사기꾼 아니냐고 매도를 당해도 유명인 자신에게 금전적 피해가 없다면 수사를 의뢰하기도 쉽지 않습니다.
심지어 유명인이 투자를 권유하는 것처럼 속이는 피싱 범죄로 이어지더라도 누가 만들어 올렸는지 특정하는 데만 오랜 시간이 걸리기 일쑤입니다.
[한상준 / 변호사 : 이걸 처벌을 할 수 있다고 해도 누가 올렸다는 피의자 특정이 돼야 되잖아요. 그런데 현실적으로 피의자 특정하기가 어렵고 특정하는 데도 시간이 굉장히 오래 걸려요. 그래서 사실 차선책이라는 게 없어요.]
우려가 커지자 경찰도 대응 마련에 나섰습니다.
가짜 영상을 탐지하는 소프트웨어를 직접 개발해 우선 선거범죄와 성착취 범죄 수사에 적극 활용하고 있습니다.
[임윤상 / 경찰청 사이버성폭력수사계장 : 이번에 개발한 소프트웨어의 탐지율은 약 80%에 달하며, 새로운 형태의 합성 영상이 발견되더라도 대응할 수 있도록 최신 인공지능 모델을 적용했습니다.]
경찰은 딥페이크 기술을 활용한 금융 범죄로도 탐지 기술을 넓혀갈 계획입니다.
YTN 윤태인입니다.
촬영기자 : 이근혁
그래픽 : 지경윤
화면제공 : 한상준, 경찰청
YTN 윤태인 (ytaein@ytn.co.kr)
[저작권자(c) YTN science 무단전재, 재배포 및 AI 데이터 활용 금지]