18 October 2024
딥페이크 불법 합성물 유포 사건은 점점 더 커져만 가고 있습니다. BBC 뉴스는 한국 학교를 집어삼킨 딥페이크 음란물 문제는 이미 체계적이고 조직적인 범죄 수준이라고 보도했는데요.
특정한 딥페이크 음란물 대화방에 입장하기 위해서는 회원들에게 딥페이크의 대상이 될 사람의 이름, 나이, 거주 지역과 함께 사진 4장에서 많게는 10여장까지의 사진을 요구한 곳도 있었기 때문입니다. 사회공학적 해킹을 넘어서 일종의 피라미드 구조가 형성된 모습입니다
딥페이크 범죄처벌 강화 논의를 시작한 정부와 정치, 사회 분야
문제가 점점 커지면서 입법부와 행정부에도 비상이 걸렸습니다. 당정은 지난 8월 29일, <딥페이크 성범죄 관련 부처 긴급 현안보고>라는 논의를 가졌는데요.
김상훈 국민의힘 정책위의장은 백브리핑에서 "현행 성폭력처벌법상 허위영상물 편집 또는 반포 행위는 5년 이하의 징역 또는 5000만원 이하 벌금에 처해지는데 상한을 7년으로 강화하는 입법이 필요하다고 판단했다"고 했으며, 한동훈 국민의힘 대표는 '촉법소년 연령하향'을 대책으로 꺼내 들기도 했습니다.
또한 정부는 텔레그램 측과 협력 회의를 갖고 불법 정보를 자율 규제할 수 있도록 상시 협의하는 핫라인을 확보하겠다고 했습니다.
정부여당의 입법안 이외에도 거대 야당인 더불어민주당은 민주당은 딥페이크 영상의 구입 및 저장, 시청 행위에 대해 처벌하는 내용을 골자로 하는 성폭력범죄처벌 특례법 개정안을 발의하고 당론으로도 추진할 것을 검토하고 있는데요.
이는 아직까지 딥페이크를 활용한 성범죄에 대한 처벌 공백이 크기 때문입니다. 현재 법정형 역시 5년 이하 징역 또는 5천만원 이하의 벌금으로 불법촬영이나 불법촬영물 유포 법정형(7년 이하 징역 또는 5천만원 이하의 벌금)보다 낮죠.
실질적인 처벌을 위한 시민사회의 우려와 대안
이런 부분에 대해서 시민사회에서도 상당한 우려와 함께 대안이 제기되고 있습니다. 데이터 과학, AI 윤리를 연구하는 신민기 분석가는 최근 횡행하는 딥페이크 성착취물 대부분을 현행법으로 처벌할 수 없다는 일각의 주장이 우려된다며 '지인능욕' 등 현재 문제가 되는 일반인 대상의 딥페이크 기술이 자칫하면 '처벌받지 않는다'는 오해로 변해 퍼질 우려가 있다며 원본 화상을 사용했을 것을 요건으로 삼는 현행법을 보완하여 '특정인물'로 오인시키기 위한 허위합성물인지를 기준으로 처벌대상을 넓히는 것이 필요하다고 주장하기도 했습니다.
거기에서 더 나아간 주장도 있습니다. 성범죄 추적을 장시간 해 온 김환민 입법운동가는 가장 강력한 입법안을 제안하기도 했습니다. AI 생성물에 대해서는 AI 생성 과정을 본인이 인증하지 않으면 처벌하자는 내용인데요.
이는 현재 법망으로는 생성형 AI가 만들어낸 결과물을 확인하기 힘들고 AI 생성물은 '어쩌다 닮았다'는 핑계를 가능하게 할 수 있기 때문에 명예훼손에 대한 위법사유가 될 수 있을 가능성이 있을 뿐, 성폭력처벌법에는 조각될 수 있기 때문입니다. 또한 생성형 AI를 통해 만들어진 결과물 중 '권리침해물'을 따로 규율하자고 주장하기도 했습니다.
이런 주장이 나오게 된 배경에는 법망을 피해갔던 사례가 있기 때문입니다. 실제 형사사건 전문임을 내세운 한 법무법인의 홈페이지에는 여성인 직장 동료의 얼굴을 성적인 사진에 합성해 공용 컴퓨터에 저장한 의뢰인에 대해 "불법합성물은 만들었으나 이를 공유하거나 반포할 의도가 없었음을 강조"해 무죄 판결을 받았다는 홍보글이 게재돼 있을 정도이기 때문입니다.
소위 '서울대 N번방' 사건 피해자 변호를 맡았던 법무법인 이채 조윤희 변호사는 "불법촬영물은 피해자가 원치 않는 모습이 촬영되어 성적 대상으로 소비되는 데 대해 수치심이나 불쾌감을 일으키는데, 허위영상물이라고 해서 성적 대상화가 되는 방식이 다르지 않기에 피해자의 피해도 같고, 그러므로 허위영상물 성범죄도 최소한 카메라 등 이용 촬영죄와 같은 수준으로 처벌해야 한다"고 말하기도 했습니다.
과잉 규제와 개인정보 보호 사이의 균형 문제
한편 여기에 대해 추경호 국민의힘 원내대표는 "일각에서 우려하는 바와 같이 개인정보 보호 문제나 메신저 검열과 같은 과잉 규제 문제가 없도록 유념해 주길 바란다"고 하며 과도한 검열 등 부작용을 우려하는 목소리도 나왔는데요.
실제로 딥페이크 성범죄 확산 우려와 관련해 "위협이 과대평가되고 있다"고 했던 이준석 개혁신당 의원은 정부의 수사 방침을 두고 "이런 식으로 간다면 대책은 텔레그램 차단밖에 없다", "텔레그램을 차단할지 말지만 결정하면 되는 것인데 정치인들이 입발린 소리로 검열 강화만 말한다"고 지적했습니다.
그런데 앞뒤가 좀 맞지 않습니다. 이준석 의원은 "학폭 문제는 몇 십 년 동안 달려들어도 항상 있었다. 학폭을 없애는 가장 쉬운 방법이 무엇인가. 학교를 없애는 것이다. 그러면 확실히 없어진다"면서 "그런데 이런 식으로 접근하면 해법 같지만 아닌 해법들이 나온다"고 하면서 "텔레그램이 문제가 된다고 하면 다른 메시지로 이전을 할 것이고 그러면 결국에는 모두 차단해 버려야 되는 상황이 올 것"이라고 했는데요. 이 논리라면 텔레그램을 차단하건 말건 딥페이크에 대한 문제는 해결되지 않는다는 말과 일맥상통합니다.
검열과 규제에 대한 오래된 논란과 논쟁
실제 지난 2021년, 소위 'N번방 사건' 때에도 이런 논쟁이 있었는데요. 당시 윤석열 대선 후보는 N번방 방지법 시행으로 인해 검열이 강화되면 '귀여운 고양이, 사랑하는 가족의 동영상도 검열의 대상이 된다면 그런 나라가 어떻게 자유의 나라겠습니까'라고 했고, 하태경 전 의원 역시 "n번방 방지법은 이용자가 올리려는 콘텐츠가 범죄물일 수도 있다고 전제하고 시행되는 법"이라면서 "온라인 커뮤니티의 모든 콘텐츠가 사전 검열되는 법은 전 세계에 유례가 없다"고 주장하기도 했습니다.
당시 각 팩트체크 미디어들은 이미 공개된 불법촬영물이 갖던 헤더 코드와 해당 영상의 헤더 코드만 비교하기 때문에 내용 검열에는 해당하지 않는다고 했는데요. 딥페이크의 경우에는 대조군이 될 영상군이 없기 때문에 이런 헤더 코드를 사용한 검증이 의미가 없게 되는 경우도 많습니다. 그래서 "온라인 커뮤니티의 모든 콘텐츠가 사전 검열되는 법은 전 세계에 유례가 없다"와 같은 주장이 다시 나오고 있는거겠죠.
한편 330만여명의 구독자를 둔 '슈카월드(전석재)'는 <검열이 당연한 나라>라는 제목으로 한국의 성인물 금지를 비판하는 영상을 올렸습니다. 그는 세계에서 포르노를 금지하는 나라는 이슬람 국가들과 중국, 북한, 그리고 한국 밖에 없다는 걸 강조했는데요.
하지만 이는 단순히 음란물 허용만이라는 시각만으로는 판단할 수 없습니다. 실제 전석재씨 본인도 인정했듯 한국에서 포르노를 보는 것만으로는 처벌받지 않기 때문입니다. 물론 한국에서 허용되는 성인물은 서구나 일본 수준의 포르노와 다릅니다만, 이는 해당 국가의 법 체계상으로는 불법촬영물이나 디지털 성범죄물이 아니며, 이 역시 회색지대에 놓여 있습니다. 문제는 전석재씨가 온라인 통신에 대한 검열과 성인물을 뒤섞어 논의를 뒤집어버린거죠.
실제 이번 딥페이크 사건에 엮여 있는 문제들의 구조는 상당히 복잡합니다. 전통적인 음란물 범죄와 거기에 엮인 협박이나 사회공학적 해킹, 피라미드 구조의 조직범죄, 텔레그램을 위시한 대형 플랫폼과 거기에서 활용되는 수많은 응용 프로그램과 봇, 그리고 적법한 통신망에 대한 규제라는 법적 이론, 생성형 AI가 악으로 빠지지 않도록 하는 적합한 교육자료의 확보에 이어 AI 알고리즘이 결과물을 내놓는 과정에 대한 투명성 확보와 컴플라이언스 준수라는 복잡한 화두가 모두 엮여 있습니다.
세계 각국이 한국 딥페이크 수사 상황에 주목하는 이유
그렇기에 BBC를 포함한 수많은 외신과 각국은 이번 한국 딥페이크 논란과 수사 상황에 주목하고 있고 강력한 대응을 준비하고 있기도 합니다. CNBC는 "프랑스에서 시작된 텔레그램의 법적 문제는 한국에서 점점 더 커지고 있다"라고 말하기도 했습니다. 실제 텔레그램에 대한 조사에 돌입한 것은 한국, 프랑스뿐만이 아닙니다.
텔레그램 사용자 수가 1억 명이 넘는 인도는 지난달 24일 텔레그램에서 벌어지는 각종 도박 등 불법 활동에 대한 조사에 착수했고, 인도네시아 통신정보부 장관 부디 아리 세티아디는 각종 불법 콘텐츠를 근거로 '비고 라이브'와 함께 텔레그램을 차단하는 것을 검토중이라고 밝힌 바 있습니다. EU도 이 흐름에 동참했습니다.
EU 내에서 4,500만 명 이상의 사용자를 확보하고 서비스하는 온라인 플랫폼은 디지털 시장법(DMA)의 적용을 받아 각종 강력한 규제를 받게 되는데, 텔레그램이 해당 규제를 회피하기 위해 정확한 사용자 수를 제공하지 않았다는 것이죠.
하지만 텔레그램 폐쇄는 일시적인 효과만 가질 뿐, 딥페이크 불법 음란물을 보려는 욕구와 만드려는 욕구가 없어지지는 않을 것으로 봅니다. 피해자도 사라지지 않겠죠. 텔레그램을 폐쇄하면 범죄자들은 다른 암호화 메신저나 다크웹과 같은 대체 플랫폼으로 이동할 가능성이 큽니다. 이는 오히려 범죄 수사에 더 큰 어려움을 초래할 수도 있겠죠.
일각에서 주장하는 것처럼 정부나 경찰당국이 모든 개인의 통신에 개입할 수 있는 과다한 권력을 잡는 것 또한 문제가 될 수 있습니다. 그렇기에 유통되는 각 사용자나 단말의 영역에서 현실적으로 단속이 불가능하니, 딥페이크의 생성 단계나 혹은 법정에서 이를 걸러낼 수 있도록 하는 방법론이 대두되고 있습니다.
딥페이크 방지 기술의 발전 그리고 협업의 필요성
구글 딥마인드는 AI가 생성한 이미지에 워터마크를 삽입하여 생성 AI 콘텐츠임을 식별할 수 있는 신스ID(SynthID) 기술을 공개했습니다. 이미지의 일부 픽셀을 미묘하게 수정한 후 덧입혀 눈으로는 식별할 수 없는 워터마크 기술이죠. 기존의 워터마크가 눈에 잘 띄어 쉽게 편집이 가능한 것과 달리, 신스ID의 디지털 워터마크는 잘라낼 수도 없고, 크기 조정, 색상 변경 등의 편집을 하거나 스크린샷으로 찍더라도 워터마크를 계속 감지할 수 있도록 설계되었다고 합니다.
이런 디지털 워터마킹 기술은 이미 상당히 넓은 절차적 저변을 갖추고 진행되고 있습니다. 지난 7월 백악관이 발표한 AI 자율규제안에도 기업이 워터마크 등의 기술을 갖춰야 한다는 내용이 포함되어 있었고, 우리나라 역시 AI 콘텐츠 표기 의무화를 위해 콘텐츠산업진흥법 개정을 추진하고 있습니다.
하지만 여전히 악성 사용자들은 이런 워터마크를 우회해서 생성할 수단을 갖추고 있습니다. 그렇기에 기술만으로는 딥페이크 문제를 해결할 수 없죠. EDRM(Electronic Discovery Reference Model, 전자정보공개 참고모델) 전략책임자 케일리 월스타드와 AI 사이버 보안 회사 Clarity 최고 전략 책임자 길 아브리엘은 AI와 인간이, 각 분야의 전문가들이 서로 장벽을 깨고 협업할 것을 주문하기도 했습니다.
사일로(Silo)에서 시너지(Synergy)로 가자는 것이죠. 또한 협업 프레임워크의 일환으로, 디지털 포렌식의 보존, 조사 및 증언 과정에서 딥페이크 전문가 역시 법의학 전문가 및 전문가 증인과 협업할 것을 주문하기도 했습니다. 미 연방증거법 702조에 있는 전문가 의견증거(Testimony by Expert Witnesses, Fed.R.Civ.P.702)를 근거조항으로 쓸 수 있다는 것이죠. 여기에 AI기술 등 다양한 협업 프레임워크가 결합해야 기술뿐 아니라 법률적으로도 딥페이크와의 싸움에서 고지를 점할 수 있다는 것이죠.
물론 배심원 제도나 전자증거개시제도를 전면 도입하고 있지 않은 우리나라에서 전문가 증언의 허용 여부, EDRM에 관한 미국 제도를 그대로 적용하기는 어렵겠지만 법관으로 하여금 전문가 증언을 듣고, 또 이 증언의 내용적 타당성까지 검토하도록 하는 제도는 우리에게 큰 방향성을 제시해준다고 생각합니다.