Skip to main content
  • Home
  • 딥테크
  • [딥테크] 딥페이크 시대, 무너진 신뢰를 되찾기 위한 대응 전략

[딥테크] 딥페이크 시대, 무너진 신뢰를 되찾기 위한 대응 전략

Picture

Member for

4 months
Real name
송혜리
Position
연구원
Bio
다양한 주제에 대해 사실에 근거한 분석으로 균형 잡힌 시각을 제공하고자 합니다. 정확하고 신뢰할 수 있는 정보 전달에 책임을 다하겠습니다.

수정

홍콩대 딥페이크 사건, 대응 지연이 드러낸 신뢰의 공백
동아시아 각국, 처벌 강화에도 피해자 보호는 여전히 미비
대학과 입법기관, 신속한 지원 및 검증 체계로 신뢰 회복 모색

본 기사는 스위스 인공지능연구소(SIAI)의 SIAI Business Review 시리즈 기고문을 한국 시장 상황에 맞춰 재구성한 글입니다. 본 시리즈는 최신 기술·경제·정책 이슈에 대해 연구자의 시각을 담아, 일반 독자들에게도 이해하기 쉽게 전달하는 것을 목표로 합니다. 기사에 담긴 견해는 집필자의 개인적 의견이며, SIAI 또는 그 소속 기관의 공식 입장과 일치하지 않을 수 있습니다.


이미지는 오랫동안 사실의 증거로 받아들여졌다. 그러나 2025년 초 홍콩대학교 법학과의 한 학생이 동급생과 교직원 등 20여 명의 얼굴을 합성해 약 700장의 성적 딥페이크(인공지능 기반 이미지 합성) 이미지를 제작·보관한 사실이 드러나면서 그 믿음은 무너졌다. 대학은 가해자에 대한 경고 조치에 그쳤고, 이후에서야 개인정보보호 당국이 형사 조사를 착수했다. 충격은 행위 자체보다 피해 발생과 대응 사이의 지연에서 비롯됐다.

피해는 현재진행형이다. 가짜 이미지는 검색 결과에 남아 괴롭힘을 유발하고, 제작자가 사라진 뒤에도 흔적이 지워지지 않는다. 2024년 홍콩 시민 가운데 ‘온라인에서 진짜와 가짜를 구분하기 어렵다’고 답한 비율은 1년 새 17%포인트 증가했다. 신뢰의 붕괴 속도가 정책 대응을 앞질렀다. 오늘날 딥페이크 법은 과거의 사건에 반응하는 법이 아니라, 미래의 피해를 예방하는 법으로 전환돼야 한다.

사진=ChatGPT

지금 필요한 딥페이크 법

동의 없는 성적 딥페이크는 명백한 학대지만, 법적 판단은 여전히 복잡하다. 많은 법체계가 ‘실재 이미지’, ‘공개된 배포’, ‘금전적 손실’ 등 전통적 개념에 의존하기 때문이다. 홍콩의 현행법 역시 신체 촬영이나 유포 행위를 중심으로 규정돼 있어, 이번처럼 인공지능으로 이미지를 제작·보관한 사례에는 적용이 어렵다. 피해로 인정받기 위해서는 ‘유포’가 전제돼야 하는 한계가 있다. 정책 대응은 사건이 발생한 뒤에야 움직였고, 초기 조치의 미비와 수사 지연은 피해 확산으로 이어졌다. 이러한 공백은 홍콩만의 문제가 아니다. 동아시아 전역에서 법과 제도는 합성 기술의 속도와 범위를 따라가지 못하고 있다.

한국은 성적 딥페이크의 제작·유포·시청·소지를 모두 불법으로 규정하며, 제작이나 유포 시 최대 3년 이상의 징역형을 선고할 수 있다. 대만은 2023년 형법을 개정해 딥페이크 성적 이미지의 제작과 유포를 처벌하고, 당사자의 동의 없이 생성·게시된 사적 신체 이미지 삭제 의무를 강화했다. 중국은 합성 영상 서비스 제공자에 대한 규제를 도입하고, 2025년부터 AI 생성 콘텐츠 표시 의무를 시행할 예정이다. 세 나라는 모두 법적 장치를 강화하고 있으나, 피해자 보호의 속도는 여전히 기술의 확산을 따라가지 못한다.

2025년 10월 기준 동아시아 지역의 딥페이크 성적 이미지 관련 법제 현황
주: 주요 항목- 딥페이크 성적 이미지를 제작·유포하는 행위를 직접 금지하는 조항의 존재 여부, 비동의 촬영물·사생활 침해 관련 일반 법률이 딥페이크에도 적용되는지 여부, 합성 또는 조작 영상임을 명시해야 하는 표시 의무 규정의 존재 여부(왼쪽부터)

대학, 딥페이크 대응의 최전선

대학은 법원이 아니지만, 현실에서는 피해가 처음 드러나는 1차 대응 기관이다. 홍콩대 사건은 대학이 경고 조치에 그치며 초기 대응을 늦춘 사이, 당국의 수사와 보호 조치가 뒤따르지 못해 피해가 확산된 사례다. 학생의 안전을 지키려면 외부 수사가 진행 중이라도 권리 보호를 우선한 신속한 대응이 필요하다.

대학의 대응은 세 가지 축으로 이뤄져야 한다. 첫째, 검색 결과 삭제 요청이나 플랫폼 게시물 삭제 등 즉각적인 차단 조치를 시행해 피해 확산을 막아야 한다. 둘째, 피해자 지원 체계를 가동해 심리 상담과 학업 조정, 안전한 학습 환경을 보장해야 한다. 셋째, 증거 보존과 개인정보 보호가 병행돼야 한다. 관련 자료를 안전하게 확보하되, 피해자가 다시 상처받지 않도록 접근 절차를 최소화해야 한다.

대학은 또한 문제의 근원을 다뤄야 한다. 비동의 딥페이크 피해자는 대부분 여성이며, 한국의 통계에 따르면 청소년 가해 사례는 2021년 이후 매년 수백 건에 달한다. 주요 딥페이크 포르노 사이트는 2025년 핵심 서비스 제공자의 중단으로 폐쇄됐지만, 곧바로 복제 사이트(mirror site)가 등장했다. 대학이 인터넷 전체를 통제할 수는 없지만, 표준 대응 절차를 마련하고 삭제 요청 전담 창구를 운영하며 주요 플랫폼과 사전 협약을 체결하는 것은 가능하다. 이러한 체계는 피해 발생 직후 48시간, 즉 검색 결과가 고착되고 괴롭힘이 집중되는 결정적 시간을 줄이는 데 핵심적이다.

신뢰의 위기와 기술적 대응

딥페이크로 인한 피해는 성적 학대에만 머물지 않는다. 온라인 정보 전반에 대한 신뢰가 무너지고 있다. 홍콩에서 ‘온라인 정보의 진위를 신뢰하기 어렵다’고 답한 비율은 2023년 45.1%에서 2024년 62.1%로 급등했다. 이러한 불신은 피해 신고의 신뢰도를 약화시키고, 루머 확산과 당국의 대응에도 직접적인 영향을 미친다.

2023~2024년 홍콩의 온라인 정보 신뢰도 인식 변화(단위: %)
주: 연도(X축), 온라인 정보의 진위를 구분하기 어렵다고 느낀 응답자 비율(Y축)

이러한 상황에서 주목받는 것이 출처 검증 기술, 즉 프로비넌스(provenance) 시스템이다. 어도비, 마이크로소프트, 라이카, 소니 등이 참여한 C2PA ‘콘텐츠 자격 증명(Content Credentials)’ 표준은 사진과 영상에 조작 여부를 확인할 수 있는 메타데이터를 부착하는 방식이다. 그러나 기기나 플랫폼마다 도입 수준이 달라 기술적 보호 효과에는 한계가 있다. 대학은 공식 홍보물과 교육 콘텐츠에는 출처 검증을 의무화하고, 출처가 불분명한 악용 콘텐츠에는 즉각적인 삭제와 대응 절차를 병행하는 체계를 마련해야 한다.

법과 기술, 그리고 교육의 균형

딥페이크를 형사처벌 대상으로 삼는 것이 과도한 규제로 이어질 수 있다는 우려가 있다. 그러나 효과적인 법은 비동의 성적 콘텐츠·협박·사기 등 명확한 범주에 집중하고, 절차적 보호 장치를 함께 두는 방향에서 만들어진다. 한국은 제작·유포·소비를 모두 처벌하고, 대만은 삭제 의무를 법으로 명시했다. 싱가포르는 온라인상 유해 콘텐츠와 선거 관련 조작물 규제를 강화하며 대응 범위를 넓혔다. 이러한 제도는 처벌의 명확성과 절차의 균형을 결합해 표현의 자유와 피해자 보호를 함께 지키는 방향이다.

출처 검증 기술에 대한 기대도 크지만, 기술만으로는 문제를 해결할 수 없다. C2PA 표준은 사진과 영상의 생성·수정 이력을 기록해 신뢰성을 높이지만, 주요 플랫폼의 적용률은 여전히 낮다. 대응은 기술과 제도가 함께 작동하는 구조로 나아가야 한다. 공식 미디어에는 출처 검증을 의무화하고, 학생에게는 검증 방법을 교육하며, 출처가 불분명한 콘텐츠에는 법적 지원을 제공해야 한다. 완벽하지는 않더라도 신뢰의 간극을 좁히는 현실적 방안이다.

법 강화가 범죄를 지하로 몰아넣을 수 있다는 우려도 있다. 일부는 이미 그 방향으로 움직이고 있지만, 법의 존재는 여전히 억제력을 갖는다. 규제는 플랫폼과 인프라 사업자의 운영 방식을 바꾼다. 주요 딥페이크 포르노 사이트가 서비스 제공자의 철회로 폐쇄된 사례가 이를 보여준다. 대학은 삭제 요청과 증거 보존을 통해 수사기관과 협력해야 하며, 피해자에게 콘텐츠의 확산 정도를 입증하도록 요구해서는 안 된다. 지원의 기준은 ‘동의의 부재’ 그 자체여야 한다.

교육의 역할도 중요하다. 학생들에게는 비동의 합성 성적 이미지는 폭력이며, 신고는 보호의 출발점이고, 공유는 2차 가해이자 불법일 수 있음을 반복적으로 인식시켜야 한다. 교직원과 상담사는 비판이 아닌 지원의 태도로 대응해야 하며, 피해자는 사례 연구의 대상이 아니라 보호의 주체로 다뤄져야 한다. 대응의 규모는 피해의 규모에 비례해야 한다.

증거의 의미를 되살리기 위해

과거에는 이미지가 사실을 증명하는 도구였다. 그러나 이제 이미지는 누군가를 해칠 수 있는 무기가 됐다. ‘펜은 칼보다 강하다’는 문장은 한때 언론의 힘을 상징했지만, 오늘날에는 그 말이 문자 그대로의 의미를 가진다. 조작된 이미지는 한 번의 피해로 끝나지 않고, 온라인 공간에서 반복적으로 재생산되며 상처를 남긴다.

대응의 방향은 명확하다. 피해 확산을 막기 위한 신속한 삭제, 피해자 보호를 중심에 둔 지원 절차, 명확히 규정된 위반 기준, 그리고 조작의 흔적을 추적할 수 있는 출처 검증 체계가 필요하다. 지금 필요한 것은 속도와 일관성이다. 신속하고 체계적인 대응이 이뤄질 때, 사회는 다시 ‘증거’의 신뢰를 회복할 수 있다. 딥페이크 법의 궁극적 목표는 무너진 현실의 균형을 되찾는 일이다.


본 연구 기사의 원문은 Deepfake Law and Campus Justice: When Evidence Fails, Duty Begins를 참고해 주시기 바랍니다. 본 기사의 저작권은 스위스 인공지능연구소(SIAI)에 있습니다.

Picture

Member for

4 months
Real name
송혜리
Position
연구원
Bio
다양한 주제에 대해 사실에 근거한 분석으로 균형 잡힌 시각을 제공하고자 합니다. 정확하고 신뢰할 수 있는 정보 전달에 책임을 다하겠습니다.