구글, 영국 비영리단체와 협력해 ‘리벤지 포르노’ 차단 강화
X 기자
metax@metax.kr | 2025-09-25 09:00:00
구글이 온라인 공간에서 확산되는 ‘리벤지 포르노’ 문제에 대응하기 위해 본격적인 조치를 내놨다. 최근 구글은 영국의 비영리단체 StopNCII(Stop Non-Consensual Intimate Images)와 파트너십을 맺고, 비동의 성적 이미지(NCII)의 검색 노출을 사전에 차단하는 시스템을 도입한다고 밝혔다.
이번 협력의 핵심은 해시(hash) 기술이다. 해시는 특정 이미지나 영상을 고유하게 대표하는 디지털 지문으로, 원본이 아닌 암호화된 코드만을 생성한다. 즉, 피해자의 민감한 이미지가 외부 서버에 직접 저장되거나 공유되지 않고도 동일한 콘텐츠를 식별할 수 있다. 피해자가 StopNCII를 통해 해시를 등록하면, 구글은 이를 바탕으로 검색 결과에서 유사한 이미지를 찾아내고 노출을 차단한다. 이 방식은 피해자의 사생활 보호와 기술적 효율성을 동시에 확보할 수 있다는 점에서 의미가 크다.
그동안 구글은 NCII 피해자들을 위해 삭제 요청 창구를 운영해왔고, 검색 순위를 조정해 피해 콘텐츠의 노출을 최소화하는 조치를 취해왔다. 하지만 피해자가 스스로 신고를 해야 한다는 점에서 여전히 부담이 컸다. 인터넷에 한 번 퍼진 이미지가 순식간에 복제·확산되는 현실을 감안하면, 개인이 대응하기에는 역부족이라는 지적이 이어져왔다. 실제로 피해자 지원 단체들은 “피해자가 신고하는 동안에도 이미지는 끝없이 복제되고, 그 과정에서 2차 피해가 심화된다”고 강조해왔다. 이번 조치는 그러한 구조적 한계를 보완한다는 점에서 주목된다.
다만 구글은 이번 시스템 도입에서 다른 기업들보다 다소 늦은 행보를 보였다.
마이크로소프트는 이미 지난해 검색엔진 빙(Bing)에 StopNCII의 해시 데이터를 연동했으며, 메타(페이스북·인스타그램), 틱톡, 레딧, 스냅챗, OnlyFans, X(구 트위터) 등도 앞서 참여해왔다. 구글은 늦게 합류했지만, 세계 최대 검색 엔진으로서의 영향력을 감안할 때 이번 협력은 피해자 보호에 결정적인 전환점이 될 가능성이 크다.
구글의 이번 조치는 지난해 발표한 딥페이크 성적 이미지 차단 강화와도 연결된다. 당시 구글은 AI로 생성된 비동의 성적 이미지를 보다 쉽게 삭제할 수 있도록 절차를 간소화하고, 검색 결과에서의 노출 가능성을 낮추겠다고 발표했다. 즉, 이번 협력은 구글이 온라인 안전을 강화하기 위한 연속적인 전략의 일환이라 할 수 있다.
이번 움직임의 의미는 단순히 기술적 기능 보완에 그치지 않는다. 플랫폼 기업들이 피해자 개인에게 떠넘겨졌던 책임을 점차 공동으로 분담하는 방향으로 나아가고 있다는 점에서 사회적 책임 강화라는 맥락을 가진다. 또한 글로벌 빅테크 기업들이 함께 참여함으로써, 온라인 성범죄 근절을 위한 국제적 공조 체계가 점차 공고해지고 있음을 보여준다.
결국 이번 파트너십은 온라인 안전에 있어 중요한 메시지를 던진다. 피해자가 홀로 싸우는 시대에서, 플랫폼이 기술과 네트워크를 동원해 피해자의 짐을 덜어주는 체계로 변화하고 있다는 것이다. 아직 완벽하다고는 할 수 없지만, 구글의 합류는 피해자 보호의 새로운 기준을 만들어내는 출발점이 될 수 있다.
[ⓒ META-X. 무단전재-재배포 금지]