앵커> 이슈하이킥 전영신 기자와 함께 합니다. 오늘은 무슨 얘기를 가져오셨습니까?

앵커> 오늘은 무슨 얘기를 가져오셨습니까?

전영신> 뛰는 대책 위에 나는 '딥페이크'성범죄. 

최근에 사회문제로 부상한 딥페이크와 AI기술에 대한 이야기를 갖고 왔습니다.

앵커> 딥페이크로 인한 피해가 나이와 직업을 가리지 않고 우리 사회 전반으로 확산되는 상황이죠?

전영신> 그렇습니다.

이 딥페이크라는 건 AI를 활용해 만들어진 진짜 같은 가짜 콘텐츠를 말하죠.

딥 러닝과 페이크의 합성어입니다.

다른 사람 얼굴에 나체 사진을 합성한 이미지와 영상이 텔레그램 등을 통해 퍼지며 최근 사회적인 문제가 되고 있습니다.

AI기술을 일종의 성범죄에 악용하는 건데요.

수법이 상당히 교묘해서 불특정 다수의 피해자가 발생할 수 있는 상황입니다.

네티즌들 사이에서는 프로필 사진...일명 프사에 얼굴 사진을 다 내려야 한다.

SNS에 사진을 올리지 말자 이런 얘기들도 나오고 있습니다.

앵커> 딥페이크가 사회 문제가 된건 최근이지만, 인기 연예인들을 대상으로 한 딥페이크가 문제가 된 건 이미 오래잖아요?

전영신> 그렇습니다. 딥페이크 피해는 우리나라가 유독 많은데요.

미국 사이버보안업체 시큐리티 히어로가 최근 공개한 2023딥페이크 현황 보고를 보면, 딥페이크 음란물 사이트 10곳과 동영상 공유 플랫폼 85곳에 올라온 딥페이크 성착취물 피해자의 53% 가 한국인이라고 합니다.

얼마전 까지만해도 주로 중국에서 이런 영상물을 만들면서 타킷을 한국의 K-팝 아이돌 가수나 배우 등 연예인으로 삼은건데요.

하지만, 최근들어는 AI 합성 봇 프로그램으로 국내에서도 딥페이크 성범죄, 성착취 영상을 만들수가 있게 되면서범행 대상에 직장동료, 학교 후배, 이런 지인을 비롯해서 심지어 미성년자까지도 범행 대상으로 삼는 일이 빈번한 걸로 드러났죠.

이런 성범죄물을 만들어 배포했다가 오늘 구속송치된 30대 남성 김모씨의 경우는 미성년자를 비롯해 20여명의 지인 얼굴 사진을 가져다 딥페이크 성착취물을 만들고...이른바 교환방이라는 곳에서 다른 성착취물과 교환까지 했는데요.

김씨는 경찰 조사에서 성적 욕망 충족을 위해 범행했다는 취지로 진술을 했다고 합니다.

경찰은 김씨가 만든 교환방에 100여명이 참여했다는 사실을 확인하고 참여자들 추적에 나서고 있는데요.

현재 경찰 TF에서 수사 중인 딥페이크 성범죄 사건은 백여건이고 피의자로 특정된 오십여명이 수사대상에 올라 있습니다.

앵커> 이번에 문제가된 텔레그램 채팅방에서는 실제로 어떤 내용들을 서로 주고받은 건가요?

전영신> 내용을 보면 다소 충격적인데요.

앞서 김씨의 예에서도 보듯이 참여자들은 대부분 지인의 사진을 가져다가 딥페이크 성범죄물을 제작해 공유하고 있었습니다.

채팅방 이름 중에 지능방지인능욕방이란 뜻이라고 하구요.

또 겹지방이라고 해서 겹치는 지인방이란 뜻인데서로 겹치는 지인들이 모여서 한사람을 욕보이는 방...이란 의미입니다.

구독자 수도 적지 않았는데요.

수백명에 달하는 지역 사람들이 이 채팅방에서 이런 공유물을 구독하고 있었습니다.

이런 채팅방은 이렇게 지역은 물론이고, 초중고교 대학단위로 우후죽순 격으로 만들어졌구요.

특히 특정인의 이름이 언급된 00 능욕방이런 것도 있다고 합니다.

성범죄이면서도 학교폭력의 또다른 수단이 될 수 있는 심각한 범죄가 아닐 수가 없습니다.

이들은 여성이 소셜 미디어에 올린 일상 사진을 공유해서 딥페이크 성범죄물을 제작하고 여성의 신상정보까지 게시를 하고 있었습니다.

AI 프로그램으로 사진 속 얼굴로 가짜 이미지를 생성하면, 가해자가 딥페이크 성범죄물 제작 프로그램을 만든 뒤

SNS 등으로 채팅방 링크를 유포해 이용자들을 초대하는 방식입니다.

합성물은 너무 정교해서 진짜와 가짜를 구분하기가 힘들다고 하구요.

그래서 더욱 피해자들이 느끼는 충격 또한 상당할 수 밖에 없겠죠.

앵커> 당정이 나서서 대책을 마련한다고 하는데요. 이런 딥페이크 영상을 사전에 걸러낸다든지...이럴 수는 없는 건가요?

전영신> 딥페이크 영상 유포가 사회문제가 되면서 딥페이크 영상을 탐지하고 억제하는 기술에 대한 관심도 커지고 있습니다.

문제는 딥페이크를 애초에 악용하지 못하도록 막거나 딥페이크를 탐지하는 기술도 함께 발전하고 있기는 한데요.

이것이 생성형 AI의 발전 속도를 따라잡지 못하고 있다는데 있습니다.

, 이렇게 범죄로 악용되는 기술을 속도를 대책이 따라가지 못한다는 얘기죠.

세계적으로도 딥페이크에 대한 능동적인 대처 연구는 초기 단계인데요.

국내를 비롯해 전 세계 대학과 IT 기업을 중심으로 딥페이크 탐지·대응 기술을 연구하고 있습니다.

앵커> 딥페이크에 대응하는 기술은 어떤 원리로 작동하는 건가요?

전영신> 일반적으로 딥페이크에 대응하는 기술은 해당 콘텐츠가 딥페이크인지 진짜 콘텐츠인지 선별해내는 것에서 시작합니다.

소리, 영상에 등장하는 사람의 움직임, 얼굴의 움직임, 얼굴색 등 부자연스러운 부분을 탐지해 딥페이크임을 알아내고 삭제를 유도하게 되는 건데요.

예를 들어 귀에 독특한 주름이 있다든지, 치아의 불규칙성 등으로 조작을 감지한다고 해요.

AI에 합성한 얼굴 영상과 정상 얼굴을 학습시켜서 딥페이크 영상을 자동으로 찾아 걸러내는 게 가능하다고 합니다.

영상이 미세하게 변형된 신호 흔적을 찾아낸다든지, 이상 신호흔적도 탐지하는 기술을 적용하구요.

얼굴 영역의 미세 변형과 코, , 얼굴 윤곽 등 얼굴 내 기하학적 왜곡이 발생가능한 영역을 탐지한 후에 이상신호 흔적을 분석하는데요.

이상신호가 발견되면 딥페이크 여부를 탐지하는 방법이 있습니다.

앵커> 정치권에서도 논의되고 있는 방안들이 있죠?

전영신> 지금 국회에서 논의되고 있는 방안은 AI가 생성한 콘텐츠...라는 사실을 식별할 수 있도록 눈에 보이지 않는 워터마크를 콘텐츠에 넣게 하는 기술이 거론되고 있습니다.

딥페이크에는 AI가 만든 정보라는 워터마크를 넣게 하고 따르지 않았을 경우 콘텐츠를 유통하는 플랫폼 기업이 바로 삭제하도록 하는 법안이 국회에서 논의 중입니다.

하지만, 범죄자가 작정하고 만들어 유포하는 생성물인 경우는 워터마크가 애초부터 들어갈 수 없다는 점이 문제점으로 지적되고 있습니다.

이것보다는 생성형AI가 만드는 이미지에서 불쾌하거나 공개되면 안 되는 부분...이를테면 나체사진이라든지, 욱일기라든지...이런 민감한 부분이 드러난다면 이를 자연스럽게 바꾸거나 지우는 방식도 연구중인 걸로 알려지고 있습니다.

경찰청에서는 한국인을 포함한 아시아인 데이터 520만 점을 학습해 한국인의 딥페이크를 더욱 정확하게 탐지할 수 있는 '한국형 딥페이크 탐지 소프트웨어'를 개발했다고 밝히기도 했습니다.

이밖에 딥페이크 성착취물 범죄는 물론이고, 이를 소지하거나 2차 가해 행위가 이루어졌을 경우에도 처벌하는 방안이 국회에서 논의되고 있습니다.

앵커> 과학기술정보통신부도 딥페이크 연구에 본격 나선다는 거죠?

전영신> 그렇습니다. 과기정통부가 내년도 정부 R&D 예산안에 딥페이크 관련 예산을 편성했는데요.

이주식 과기정통부 정보통신방송기술정책과장은 내년 딥페이크 관련된 R&D 과제는 2개다. 하나는 생성 신경망 방식을 이용해 딥페이크 탐지와 생성 억제 기술개발을 연구하는 거고. 또 다른 하나는 자가진화형 딥페이크 탐지기술 개발인데, 여기에 각각 10억씩을 투입한다고 합니다.

, 생성 자체를 억제하는 기술 생성된 딥페이크 영상물을 찾아내는 탐지하는 기술...여기에 주력을 한다는 얘기죠.

하지만 전문가들은 새로운 기술이 나오면 그 기술의 악용에 대응할 수 있는 기술은 또 금방 나온다....결국 딥페이크 성범죄와 대응책이 서로 창과 방패의 싸움처럼 이어지고 있고, 뛰는 대책위에 나는 범죄기술의 악순환이 이어질 수 있다는 점을 지적합니다.

따라서 범죄기술보다 훨씬 앞서가는 AI 기술을 만들기 위한 연구에 투자를 늘려야 한다는게 전문가들의 조언입니다.

앵커> 전영신 기자였습니다.

 

 

저작권자 © 불교방송 무단전재 및 재배포 금지