美 의회, AI 딥페이크 음란물 규제법 "Take It Down Act" 통과

김하영 기자

hashe@metax.kr | 2025-05-07 07:00:44

플랫폼에 ‘48시간 내 삭제’ 의무 부여
기술 기업의 '사회적 책임’을 제도화한 첫 사례

AI 기술 악용의 시대, 미국은 ‘피해자 보호’라는 분명한 방향을 선택했다.

2025년 4월, 미국 의회는 "Take It Down Act(삭제 요청 법안)"로 불리는 딥페이크 음란물 규제법을 통과시켰다.

2025년 1월 상정된 이 법안은 4월 말 상·하원 모두를 통과해 현재 대통령 서명을 앞두고 있으며, 미국 내 온라인 플랫폼에 딥페이크 음란물에 대한 삭제 의무를 법적으로 부과하는 첫 입법 사례로 주목받고 있다.

이 법은 AI 또는 딥페이크 기술을 활용해 실존 인물의 얼굴이나 신체 일부를 합성한 음란 이미지·영상 등 ‘NCII(Non-Consensual Intimate Imagery, 비동의 생성물)’에 대한 피해를 방지하기 위한 목적에서 제정됐다. 특히 미성년자나 일반인의 얼굴을 성인 영상에 조작 삽입하는 범죄가 급증하고 있다는 점에서, 기술 악용을 넘어 인권 침해와 정신적 피해로 이어지는 현상에 대응하는 법적 기반이 될 것으로 기대된다.

https://www.congress.gov/bill/119th-congress/senate-bill/146

법안의 핵심 조항은 명확하다. 피해자는 자신의 얼굴이 합성된 콘텐츠에 대해 미국 국립실종아동센터(NCMEC) 또는 지정된 정부 포털을 통해 삭제 요청을 할 수 있으며, 해당 요청을 받은 온라인 플랫폼은 48시간 이내에 콘텐츠를 삭제해야 한다. 이를 위반할 경우 민사소송이나 벌금 부과 등의 책임을 질 수 있다. 규제 대상은 SNS, 커뮤니티, 메신저, 웹호스팅 서비스, 성인 사이트 등 대다수의 온라인 서비스가 포함된다.

법안을 발의한 상원의원 에이미 클로버샤(민주당)와 하원의원 마리아 엘비라 살라자르(공화당)는 초당적 협력을 통해 해당 법안을 추진했다. 이들은 “딥페이크는 단순한 장난이 아니라, 디지털 성범죄로 이어질 수 있는 위험한 기술”이라며, “플랫폼이 더 이상 피해 발생을 방치해서는 안 된다”고 강조했다.

이번 법안은 미국 의회가 AI 기술이 야기하는 사회적 피해에 대해 피해자 중심 보호 체계를 명시적으로 도입했다는 점에서 의미가 크다. 기존의 법률들이 생성 주체나 업로더 개인에게 책임을 묻는 수준이었다면, Take It Down Act는 플랫폼에게도 명확한 법적 책임을 부여한다는 점에서 ‘기술기업의 사회적 책임’을 제도화한 첫 사례로 평가된다.

법안은 2025년 1월 미국 상원(S.146)과 하원(H.R.633)에 각각 상정됐으며, 3월 상원 통과 후 4월 하원까지 모두 가결됐다. 5월 현재, 대통령 서명만을 남겨둔 상태로, 곧 시행에 들어갈 것으로 전망된다. 관련 내용은 미국 의회 공식 입법 포털(https://www.congress.gov)에서 열람, 조회가 가능하다.

이 법은 미국 내에서만 적용되지만, 글로벌 플랫폼 운영 정책에 간접적인 영향을 미칠 가능성도 크다. 유튜브, 인스타그램, 틱톡 등 글로벌 플랫폼들이 미국 법 기준에 따라 콘텐츠 정책을 조정하는 경향이 있기 때문이다. 만약 Take It Down Act가 표준으로 자리 잡는다면, 한국을 포함한 전 세계 사용자들도 보다 신속하고 실효성 있는 피해 대응을 기대할 수 있게 된다.

AI 기술의 확산이 필연적인 상황에서, 피해를 입은 개인이 기술 앞에서 외면받지 않도록 하기 위한 제도적 장치 마련이 시급하다는 목소리가 높아지고 있다. 미국의 Take It Down Act는 그 첫걸음을 실천한 대표적 사례로, 글로벌 규제 흐름의 방향을 가늠할 수 있는 지표가 될 것이다.


한국은 지금...

미국이 AI 음란물에 대한 첫 명확한 법적 대응에 나선 반면, 한국은 아직까지 별도의 전용 입법 없이 성폭력처벌법과 정보통신망법 등에 의존하고 있어 실질적인 피해 구제에는 한계가 있다는 지적이 많다. 

현재는「성폭력범죄의 처벌 등에 관한 특례법」제14조(불법촬영물 등)와「정보통신망법」상의 명예훼손 조항 등을 통해 처벌이 이뤄지고 있다. 하지만 이들 조항은 대부분 '성적 목적', '피해자 특정성', '유포 의도' 등을 입증해야 하며, AI 생성물이 법률상 촬영물에 해당하는지 여부조차 해석상 불명확한 상태다. 또한 국내법은 딥페이크 콘텐츠에 대해 플랫폼이 사전에 삭제하거나 차단할 의무를 명시하지 않는다. 대부분의 플랫폼은 신고를 받은 후 개별 심사에 따라 조치하는 구조로, 삭제까지 수일이 소요되거나 조치가 이뤄지지 않는 경우도 적지 않다. 이 과정에서 피해자는 정신적 고통은 물론, 2차 피해까지 감수해야 하는 실정이다. 

사회적 인식도 여전히 미비하다. 딥페이크 문제는 주로 ‘연예인 합성’, ‘가짜뉴스’, ‘기술 악용’ 등의 프레임으로 소개되며, 피해자 보호보다는 기술의 오용에 초점을 맞추는 경우가 많다. 이로 인해 실질적 피해자인 일반 시민, 특히 여성과 청소년의 목소리는 제도와 공론장에서 쉽게 지워지고 있다.

이제 한국도 대응 속도를 높여야 한다. 미국처럼 딥페이크 피해자 보호에 초점을 맞춘 전용 법률 제정은 물론, 플랫폼에 삭제 의무를 부과할 수 있는 실효성 있는 제도 설계가 필요하다. 동시에 AI 윤리 기준을 반영한 가이드라인 정립, 공공기관의 삭제 지원 시스템 구축, 피해자 지원 예산 확대도 병행되어야 한다.

기술은 빠르게 발전하고 있지만, 법과 제도가 뒷받침되지 않으면 그 기술은 언제든 피해를 양산하는 도구가 될 수도 있다. 지금 필요한 건 두려움이 아니라, 인권을 중심에 둔 제도적 상상력이다. ‘비동의 생성물’에 대한 공백을 메우는 일은 단지 피해를 막기 위한 조치가 아니라, AI 시대에 인간의 존엄을 어떻게 지켜낼 것인가에 대한 첫 실천이 될 수 있다.

[ⓒ META-X. 무단전재-재배포 금지]

WEEKLY HOT