본문 바로가기 주메뉴 바로가기 검색 바로가기
구글의 당사자 동의 없는 노골적 이미지 문제, 갈수록 악화
상태바
구글의 당사자 동의 없는 노골적 이미지 문제, 갈수록 악화
온라인에 당사자 동의 없는 상태로 게재된 개인의 상세 이미지와 영상이 증가하는 추세라는 보고가 이어졌다. 그리고 딥페이크 기술이 더해지면서 새로운 차원의 심각한 문제가 더해졌다. 구글 내부 관계자는 문제 해결을 위해 나서도록 경영진을 설득하는 데 난항을 겪었다고 밝혔다.
By PARESH DAVE, WIRED US

2022년 초반, 구글 정책 담당 직원 두 명이 구글 검색 결과를 포함한 온라인에 유포된 노골적 성적 영상으로 이어진 사기 피해를 당한 여성 세 명을 만났다. 구글 직원이 만난 피해 여성은 수영복 모델을 모집한다는 광고에 반응을 보인 뒤 포르노 웹사이트 걸스두폰(GirlsDoPorn)에 배포된 성관계 영상을 촬영할 수밖에 없도록 강요받은 젊은 여성 피해자 수백 명에 해당한다. 걸스두폰은 2020년에 폐지된 후 걸스두폰 웹사이트 생성자와 회계 장부 담당자, 카메라맨이 성적 인신매매 유죄 판결을 받았다. 그러나 걸스두폰에 게재된 영상은 피해 여성이 영상을 삭제하고자 하는 속도보다 더 빠른 속도로 구글 검색 결과에 계속 나타났다.

변호사, 보안 전문가의 자문으로 함께 피해 사실을 알린 피해 여성 3명은 화상회의를 통해 진행된 브리핑에 참석하여 걸스두폰 영상이 구글에 계속 등장하는 문제는 구글이 범죄 영상과 수치스러운 영상을 숨기기 위해 더 나은 조처를 할 수 있다는 사실을 나타낸다고 주장했다. 피해자 측은 구글이 걸스두폰에 유포된 영상과 걸스두폰의 워터마크가 적용된 영상을 검색 결과에 등장하지 않도록 금지하는 것을 원했다. 또, 구글이 피해자 측 사이버 보안 컨설턴트인 찰스 드바버(Charles DeBarber)가 걸스두폰의 모든 사례를 담은 25TB 하드드라이브를 발려 모든 영상의 수학적 지문인 해시를 이용하여 검색 결과에 걸스두폰 관련 영상이 다시 나타나는 일이 없도록 차단할 수 있다고 설명했다.

피해자와 만났던 구글 직원 두 명은 피해자의 이야기를 통해 얻은 정보를 더 나은 서비스 감독을 위해 더 많은 자원을 얻는 데 활용하는 것을 기대했다. 그러나 피해자 담당 변호사인 브라이언 홈(Brian Holm) 변호사의 의문은 사라지지 않았다. 홈 변호사는 구글 정책팀은 문제를 해결하기 어려운 상황을 직면했으며, 구글 내부에서 효과적인 변화가 이루어지도록 할 권한이 없었다고 전했다.

홈 변호사가 본능적으로 느낀 의구심이 정확했다. 2년이 지난 뒤에도 걸스두폰 피해자와 구글 직원의 회의에서 제시된 아이디어 중 실천된 아이디어는 전혀 없었으며, 걸스두폰의 성 착취 영상은 지금도 구글 검색 결과에 등장한다.

와이어드는 구글 전 직원 5명과 구글 측과 대화한 적이 있었던 걸스두폰 피해자의 옹호자 10인과 대화를 나누었다. 와이어드의 취재에 응한 구글 전 직원과 피해자의 옹호 세력 전원 최근 구글이 적용한 변경 사항 덕분에 걸스두폰의 사기처럼 이미지 기반 성 착취 피해자가 구글 검색 결과에서 자신이 원하지 않는 사진과 영상을 발견하고 삭제하는 과정이 수월해졌다고 전했다. 그러나 구글 경영진이 하드드라이브를 활용한 피해자 영상과 사진이 검색 결과에서 등장하지 않도록 금지하는 방안을 비롯한 피해자 지원 제안 사항을 승인하지 않은 사실에 분노했다. 만약, 피해자 측이 제안한 피해 영상 및 사진 제거 방안을 채택했다면, 여성이 대다수인 세계 각지의 피해자 수백 명의 프라이버시를 완벽하게 복구한 채로 유지할 수 있었을 것이라는 확신도 전했다.

와이어드의 취재에 응한 소식통은 당사자 동의 없는 사적인 이미지(NCII) 관련 정보를 공유하는 StopNCII라는 업계 툴을 사용하지 않는다는 구글 측의 이유와 구글이 포르노 웹사이트를 대상으로 한 검색 트래픽 자격을 위한 동의 사항 검증 요구를 하지 못한 문제 등이 과거에 보고되지 않은 내부 의도에 포함되었다고 설명했다. 구글 자체 연구팀은 여러 테크 기업이 StopNCII 사용을 포함한 여러 방식으로 NCII에 대응할 단계를 다룬 연구 논문을 발행했다.

해당 소식통은 NCII를 막기 위한 노력으로 구글 검색 결과에 당사자 동의 없는 노골적인 이미지, 영상이 등장하는 문제가 날이 갈수록 심각해지는 상황을 더 나은 방식으로 억제할 수 있다고 확신한다. 걸스두폰 피해자의 이미지를 포함한 노골적인 딥페이크를 생성할 수 있는 인공지능(AI) 툴의 접근 범위가 넓어진 것이 당사자 동의 없는 노골적 이미지, 영상 확산 문제에 부분적인 영향을 미쳤다. 영국의 리벤지 포르노 긴급 도움 서비스에 합성 콘텐츠 생성 및 확산 사례를 포함하여 보고된 전체 신고 건수는 2023년 기준 2배 이상 증가한 약 1만 9,000건으로 집계되었다. 최근 리벤지 포르노 긴급 도움 지원 설문 조사에 응한 영국인 2,000명 중 약 절반은 딥페이크의 피해자가 되는 상황을 우려한다고 답변했다. 2024년 5월, 미국 백악관은 국회의원과 업계에 NCII를 전반적으로 억제하기 위한 더 신속한 노력을 촉구했다. 2024년 6월, 구글은 7개 기업 및 9개 기관과 함께 NCII 대응 협력 단체에 합류한다고 공식 발표했다.

지금 당장 피해자가 할 수 있는 일은 NCII 생성 및 유포자 기소나 당사자 동의 없는 노골적인 콘텐츠 호스팅 서비스를 제공한 웹사이트에 손해배상을 청구하는 것이다. 그러나 두 가지 방법 중 어떠한 방법도 피해자를 보호할 수 있다는 점이 보장된 것은 아니다. 게다가 두 가지 방법 모두 법적 비용 부담이 크다. 구글이 검색 결과에서 NCII를 제거하는 갓이 가장 실질적인 전략이자 폭력성 콘텐츠를 피해자의 친구, 채용 담당자, 미래 임대인, 연인 등 구글에서 우연히 피해자의 노골적인 이미지를 볼 수도 있는 이들이 발견하는 일이 없는 상태를 유지할 궁극적인 목표 역할을 한다.

가해자의 괴롭힘 문제를 피하고자 익명을 요구한 구글 대변인은 걸스두폰 피해자의 요청 관련 의견 공개를 거부했다. 대변인은 구글이 당사자 동의 없는 노골적 이미지(NCEI) 퇴치 작업을 우선순위로 두고 있으며, 법적 요구사항을 넘어선 범위에서 대응에 나설 것이라고 전했다. 대변인은 “구글은 지난 몇 년간 NCEI와 같은 해로운 콘텐츠로 피해를 본 이들을 돕기 위한 업계를 선도하는 수준의 여러 정책과 보호 대책을 마련하기 위한 작업을 깊이 진행했다. 구글 내 여러 팀이 안전 대책 강화와 새로이 등장하는 문제의 철저한 대응을 위해 부지런하게 작업하여 피해자 보호 수준을 향상하기 위한 노력을 이어가고 있다”라고 말했다.

피해 방지 작업을 담당하는 구글 검색 제품 관리자는 와이어드와의 인터뷰에서 해시를 이용한 영상 차단 방법을 채택하기 어렵다고 전했다. 일부 웹사이트가 검색 엔진으로는 비교할 수 있는 방식이 아닌 다른 방식으로 영상을 게재하기 때문이다. 익명성 보장 조건으로 취재에 응한 구글 검색 제품 관리자는 구글이 노골적 성 착취 웹사이트에 해시를 이용한 영상 게재 작업을 다루도록 유도했다고 전했다. 이어, 전체적으로 구글이 해야 할 일이 더 많지만, 경영진이 문제 대응 노력을 이어가는 것을 거부하면서 의혹을 부인한다고 덧붙였다.

구글의 과감한 대응을 요구하는 피해자 옹호 단체는 아동 성 착취 콘텐츠(CSAM)가 검색 결과에 나타나지 않도록 더 엄격한 조처를 한 구글의 노력을 NCII 문제 대응을 위해 더 많은 노력을 할 수 있다는 증거로 제시했다. 구글에 ‘딥페이크 누드 아동’이라는 명령어를 입력하면, 해당 콘텐츠가 불법이라는 경고와 함께 사용자를 문제의 심각성을 다룬 기사와 지원 단체 웹사이트로 연결한다. 구글은 매년 자사 검색 결과에서 신규 CSAM을 포함한 웹페이지 약 100만 개를 발견한 뒤 차단한다.

최근, 구글 검색에서 ‘딥페이크 누드 제니퍼 애니스톤’이라는 검색어를 입력했을 때 검색어 내용과 일치하는 의도로 생성된 검색 결과 7건이 등장했다. 이때 구글 검색 엔진은 질문의 답변으로 경고 사항이나 문제 도움을 위한 자원 정보를 제공하지 않았다. 그러나 미국 전역을 포함한 여러 국가가 당사자의 동의 없는 성인의 상세한 개인 콘텐츠 유포 행위를 형사 처벌 대상으로 다룬다. 구글은 경고 문구가 검색 결과에 등장하지 않은 문제와 관련, 의견 공개를 거부했다.
 
[사진=Unsplash]
[사진=Unsplash]

구글 검색 제품 관리자는 CSAM 대응 노력과의 비교가 무의미하다고 주장했다. 엄밀히 말하자면, 아동의 나체 이미지를 담은 콘텐츠 모두 불법에 해당하므로 자동 제거된다. NCEI를 당사자 동의에 따라 촬영 및 유포가 이루어진 포르노와 구분하려면, 당사자 허가 없는 촬영 혹은 유포를 시사하는 지표가 어느 정도 필요하다. 또한, 피해자가 문제를 보고하고 인간의 분석 작업이 진행되기 전까지는 당사자 동의 여부를 파악할 맥락이 분명하지 않다. 그러나 구글 검색 제품 관리자는 구글이 당사자 동의 없는 콘텐츠 유포 문제를 극복하려 한 적이 있는지 질문하자 직접 답변하지 않았다.

피해자 옹호 및 교육 단체인 엔딩 테크 인에이블드 어뷰즈(Ending Tech-Enabled Abuse) 창립자 애덤 도지(Adam Dodge)는 구글이 NCII 추가 삭제 노력을 적극적으로 펼치기 전까지 피해자가 직접 자신의 이미지를 찾고 신고하기 위한 철저한 검색 노력을 이어가야 한다고 전했다. 도지는 “피해자에게 부여해서는 안 될 작업”이라고 언급하며, “피해자에게 온라인 폭력 피해가 발생한 곳으로 접속하여 과거의 트라우마로 이동하도록 요청하는 것과 다를 바 없다”라고 지적했다.

구글 정책에 명시된 바와 같이 구글은 2015년부터 비공개 목적으로 생성되거나 공개적으로 게재될 권한이 전혀 없을 때 나체 혹은 성적 콘텐츠로 이어지는 검색 결과 삭제 요청을 받아들이기 시작했다. 2020년까지 콘텐츠 삭제 조건이 거의 변경되지 않았다. 그러나 2020년, 개인의 사적 이미지도 삭제 대상으로 추가했다.

구글 전 직원 3명이 전한 바에 따르면, 2020년 당시 뉴욕타임즈에 게재된 칼럼 한 편이 구글 경영진의 NCII 문제를 깊이 다룰 자원 마련, 스패로우(Sparrow)라는 코드명으로 진행된 작업을 포함한 문제 대응 프로젝트 형성 등 피해자의 콘텐츠가 검색 결과에서 영원히 나타나지 않도록 도움을 주기 위한 문제 대응에 나서도록 촉진하는 계기가 되었다. 구글 검색 제품 관리자도 당시 경영진이 구글 내 여러 팀에 NCEI 대응 노력 개선을 추진한 사실을 확인시켜 주었다.

와이어드의 취재에 응한 복수 소식통은 구글이 콘텐츠 삭제 요청 사용과 이해, 접근 친화도를 높였다고 전했다. 구글은 포르노가 전반적으로 상호 동의에 따라 생성되었다는 관점을 지녔다는 점에서 ‘리벤지 포르노’라는 표현 사용 합리회를 중단하면서 구시대적인 표현 사용으로 인식하기 시작했다. 구글은 검토 과정의 스크린샷 제출 및 추가 상세 지시 사항을 추가했다.

모든 검색 결과 옆에 등장하는 메뉴를 클릭하면, NCEI 삭제 양식에 접속할 수 있다. 첫 번째 소식통은 초기 테스트 당시 NCEI 양식 제출 건수가 19배 증가했다고 전했다. 두 번째 소식통은 양식이 구글에서 착취 콘텐츠 보고 시 가장 자주 사용하는 양식이 되었으며, 편집 후에는 검색 결과의 콘텐츠 제거 요청 비율이 훨씬 더 증가했다고 설명했다. 구글은 삭제 양식 증가 수치가 증가했다는 주장에 반박했으나 NCEI 관련 종합 데이터 공개 요청을 거부했다.

정부가 의무화한 투명성 보고서를 보았을 때 공개적으로 접할 수 있는 초기 데이터 기준 구글이 2020년 12월 이후 한국에서 삭제한 원하지 않는 성적 콘텐츠 검색 결과 및 유튜브 링크 수는 17만 건에 육박한다. 또, 2021년 5월 이후 인도에서는 사용자의 삭제 요청으로 접수된 콘텐츠 약 380건 중 300건에 육박하는 콘텐츠를 삭제했다. 공개적으로 확인할 수 있는 데이터가 제한된 사실은 비교적 검색 엔진 시장에서 규모가 작은 경쟁사인 마이크로소프트보다 구글의 당사자 동의 없는 성적 콘텐츠 삭제 요청 접수가 더 많다는 사실을 시사한다. 2015년부터 2023년 6월 사이 마이크로소프트가 빙을 포함한 여러 서비스를 통해 세계 각지에서 받은 당사자 동의 없는 성적 콘텐츠 삭제 요청 건수는 약 8,400건으로 추산됐다.

2021년 말 출시된 StopNCII 시스템은 해시 작업이 처리된 사진, 영상 57만 2,000개가 넘는 데이터베이스를 축적한 뒤 인스타그램, 틱톡을 포함한 10개 서비스에서 총 1만 2,000회 이상 공유된 미디어를 차단했다. 소식통 세 명은 구글이 실제 데이터베이스에 저장된 정보 우려 때문에 검색 결과에서 콘텐츠를 차단할 의도로 StopNCII 시스템을 채택하지 않았다고 설명했다.

StopNCII는 피해자 프라이버시 보호 차원에서 보고 대상이 되는 콘텐츠를 검토하지 않으며, 해시는 기본 콘텐츠 관련 정보를 일절 드러내지 않는다. 복수 소식통은 구글 측이 StopNCII 시스템이 아무 문제가 없는 콘텐츠를 차단하는 결과로 이어질 가능성을 우려한다고 전했다. 그중 한 소식통은 “StopNCII 시스템의 데이터베이스에 저장된 이미지가 실제로 컵케이크 사진인지 실제 당사자 동의 없이 생성된 성적 콘텐츠인지 알지 못한다”라고 전했다. 또, 구글 내부에서 시사한 바에 따르면, StopNCII보다 더 나은 시스템에 투자하기로 선택한 것처럼 보이지만, 구글이 StopNCII보다 더 낫다고 판단한 시스템을 대상으로 한 재정적 지원을 선택하지 않았다고 덧붙여 전했다.

구글 대변인은 StopNCII 시스템 관련 의견 공개 요청을 거부했다. 그러나 구글은 2024년 4월, StopNCII 시스템을 채택하지 않은 결정을 두고 의문을 제기한 영국 국회의원의 질문에 StopNCII 데이터베이스의 상호운용성 관련 실질적 우려와 구글의 특정 정책이 결정의 원인이 되었다고 답했을 뿐, 구체적인 이유는 설명하지 않았다.

구글 직원은 내부적으로 NCEI 콘텐츠 삭제 개선을 위한 과감한 아이디어를 제안하지 않는다. 구글 직원은 포르노 기업을 포함한 노골적인 성적 이미지를 유포하는 웹사이트를 검색 결과에서 퇴출하는 방안을 논의한 적이 있다. 네 명의 소식통은 당시 구글 내부에서 논의한 퇴출은 포르노 웹사이트의 콘텐츠가 상호 동의에 따라 생성된 사실을 보장하지 않는 상황을 조건으로 제시했다고 전했다. 당시 논의된 사항은 채택되지 않았다. 세 명의 소식통은 구글 검색 사업부가 성적 이미지 등 문제가 되면서도 금기가 된 주제 관련 규정 설정을 기피했다고 전했다. 어느 한 구글 전 직원은 “구글은 인터넷에서 규제 기관과 같은 이미지로 인식되는 것을 원하지 않았다”라고 언급했다.

구글이 노골적인 성적 이미지 게재 웹사이트로 트래픽을 대거 전송하므로 해당 웹사이트에 더 엄격한 조처를 강제로 시행할 수도 있다. 어느 한 구글 전 직원은 구글이 매일 받는 이미지와 영상 수십 개 중 이미지 검색 결과 약 15%, 영상 검색 결과 최대 50%는 포르노와 관련이 있다. 그러나 구글은 관련 수치의 논평 요청을 거부했다. 해당 전 직원은 “구글이 노골적 성적 콘텐츠 세계를 단속할 열쇠를 쥐었다”라고 주장했다. 반면, 이에 개입하는 다른 세력은 극소수이다. 미 의회에서는 온라인 게재 콘텐츠 생성 및 유포 과정의 당사자 동의 확인을 시행하는 발의안이 통과되지 않았다. 레딧, X 등 노골적 성적 콘텐츠를 공유하는 일부 인기 플랫폼은 콘텐츠의 당사자 동의 증명 요청 제출을 요구하지 않는다.

업계 옹호 단체 표현의 자유 연합(Free Speech Coalition) 대변인인 마이크 스타바일(Mike Stabile) 대변인은 미국 법률 요구 사항에 따라 수행자의 식별 정보를 수집하는 포르노 생성 기관은 당사자 동의를 암시하는 정보를 검색 엔진과 공유하는 것을 동의한다고 주장했다. 그는 “다수 성인 웹사이트에서는 이미 주류 플랫폼보다 NCII 모니터링 후 차단 작업을 훨씬 더 많이 진행한다”라고 전했다.

구글 대변인은 당사자 동의 관련 의견 공개 요청을 거부했으나 기존의 불이익을 지목했다. 바로 2023년 12월부터 시행한 당사자 동의 없는 NCEI를 게재한 웹사이트의 콘텐츠 검색 결과 노출 순위를 낮추어 삭제 요청 처리량이 대거 성공하는 결과로 나타나게 된 조처이다. (단, 검색 결과에 콘텐츠가 등장하지 않도록 차단하지는 않았다.)

구글 검색 제품 관리자와 대변인 모두 구글 검색 팀이 지난 3년간 이미지 기반 성 착취 피해자의 부담을 덜도록 도움을 준 부분에서는 큰 진전을 거두었다는 점을 인정했다. 그러나 와이어드의 조사 결과, 일부 개선 사항에는 몇 가지 주의해야 할 점이 있다는 사실이 드러났다.

구글이 과거 신고된 콘텐츠가 새로운 웹사이트에서 다시 등장할 때 검색 링크를 자동 삭제하고자 도입한 시스템은 영상이나 대체 이미지는 제거하지 못한 것으로 나타났다. 와이어드의 취재에 응한 소식통 두 명은 구글이 시스템 문제를 개선할 전담 인력을 전혀 배치하지 않았다고 전했다. 그중 한 명은 “구글은 더 나은 대책을 택할 수 있었으나 실제로 피해자의 문제를 해결할 방법에 충분히 주목하지 않았다”라고 지적했다. 구글 대변인은 직원에게 시스템 강화 작업을 부여했다고 반박했다.

이미 알려진 피해자 보호 대책을 위해 적용된 또 다른 시스템은 과거의 삭제 요청 사항과 비슷한 검색 질문에서 노골적인 성적 이미지를 포함한 검색 결과를 분류하여 제거하려 했다. 해당 시스템은 검색 결과에서 합법적인 경로로 생성된 포르노를 제거하지 않고, 전체적으로 피해자가 문제 콘텐츠가 새로 등장하지 않도록 스스로 직접 검색 작업을 해야 하는 부담을 덜 수 있도록 설계되었다. 그러나 구글은 한국 규제 당국에 자사의 성적 콘텐츠 제거 시스템이 완벽하지 않다는 문제를 인정했다. 구글은 투명성 보고서에 “웹의 변수와 변화가 끊임없이 발생하는 특성을 고려했을 때 자동화 시스템은 모든 노골적인 성적 콘텐츠를 100% 제거하지 못한다”라고 작성했다.

가장 중요한 변경 사항 중 하나로 구글이 2023년 8월, 당사자의 동의가 이루어졌음을 확인한 신호를 포함한 콘텐츠의 링크를 제거하지 않는다는 정책을 폐지했다. 구글이 지난 몇 년간 노골적인 성적 이미지와 오디오가 강요나 괴롭힘의 조짐 없이 생성되었다는 사실을 알았다면, 삭제 요청자가 당사자 동의가 없는 상태로 온라인에 콘텐츠가 게재된 사실을 입증하는 증거를 충분히 제공하지 않는 한 콘텐츠를 삭제할 방법이 없었다. 어느 한 구글 전 직원은 당사자 동의가 없었다는 사실을 피해 당사자가 입증하지 못할 때 콘텐츠를 삭제할 방법이 없었던 과거 정책을 매우 약한 정책 개념이라고 비판했다.

해당 소식통은 구글 직원 여러 명이 금전적 문제 때문에 온리팬스(OnlyFans)의 성인 콘텐츠 배우가 된 이들이 추후 콘텐츠 생성 및 유포 동의 의사를 철회하여 성적 콘텐츠 관련 작업 사항을 제거할 수 있다는 사실의 중요성을 설명하는 부분적인 방향으로 정책을 업데이트하도록 경영진을 설득했다고 전했다. 구글 대변인은 이와 관련하여 별도로 반박하지 않았다.

이미지 기반 성 착취 문제의 권위를 지닌 기관이 된 워싱턴 DC 소재 포르노 반대 단체 국립 성착취센터(National Center on Sexual Exploitation)는 구글이 정책을 변경한 후에도 피해자 보호 노력이 부족했다고 주장한다. 국립 성착취센터는 구글이 자동으로 모든 삭제 요청 작업을 수행하고, 논란이 된 콘텐츠 기록과 게재 동의 입증 책임을 웹사이트가 부담하도록 하기를 원한다고 전했다. 구글 대변인은 잠재적인 정책 업데이트 사항을 꾸준히 고려한다고 전했다.

옹호 세력은 구글이 실제로 갖추어야 하거나 갖출 수 있는 수준과 비슷한 자원을 확보하거나 문제 대응에 활용할 자원에 집중하지 않는다고 본다. 휴스턴 소재 법무법인 길드로펌(Gilde Law Firm)의 브래드 길드(Brad Gilde) 변호사는 2023년 8월, 의뢰인 중 한 명이 전 남자 친구를 상대로 12억 달러 상당의 손해 배상 소송을 청구하여 언론의 주목을 받았으나 구글에서 유튜브 검색 순위 상단에 등장하는 의뢰인의 노골적인 성적 오디오 녹음본을 삭제할 수 없었다는 사실에 실망했다. 피해자 이름도 포함된 데다가 조회 수 100회 이상 기록한 해당 오디오는 2024년 6월, 와이어드가 삭제 요청을 한 뒤 삭제되었다.

당사자 동의 없는 미디어를 적극적으로 식별하는 데 사용할 신뢰할 만한 AI 시스템 개발 작업은 불가능할 수도 있다고 입증되었다. 그러나 노골적인 성적 콘텐츠 삭제 전문 기업 시어타스 DMCA(Ceartas DMCA)를 설립한 과거의 성적 콘텐츠 무단 유포 피해자인 댄 퍼셀(Dan Purcell)은 중요한 사건에 귀를 기울이는 일이 복잡한 과정을 거쳐 진행되어서는 안 된다고 주장했다. 구글 직원도 중요한 사건의 당사자 동의 없는 노골적인 성적 콘텐츠 절차가 복잡하다는 문제를 다를 방안을 제안했다. 구글은 아동 성 착취 게시물을 포함한 다른 문제성 콘텐츠 관리 시 적용한 방안과 같은 사전 분류 프로그램을 확립하고, 퍼셀의 기관처럼 NCII 모니터링 전문 외부 기관의 공식 요청 요령을 활용할 수도 있었다. 퍼셀은 “당사자 동의 없는 노골적 성적 콘텐츠가 가장 많이 발견되는 플랫폼은 구글이다. 구글은 문제 책임을 강화해야 한다”라고 강조했다. 구글 대변인은 의견 공개를 거부했다.

걸스두폰 피해자와 함께 구글 직원을 만난 콘텐츠 제거 컨설턴트인 드바버는 2024년 7월, 와이어드와 유선으로 인터뷰에 응하면서 피해자 중 한 명의 동의 없이 게재된 성적 콘텐츠 하나를 발견했다. 해당 영상에 등장한 링크는 없었다. 드바버가 100시간이 넘는 시간을 들여 문제가 된 페이지를 모두 제거했기 때문이다. 그러나 포르노 서비스 한 곳에서 피해자의 이름을 악용하여 사용자가 다른 포르노 콘텐츠를 접하도록 유도했다. 드바버가 구글에 삭제 요청을 할 수도 있는 새로운 검색 결과였다. 드바버는 다른 구글 검색 결과를 통해 자신의 의뢰인 중 한 명처럼 보이는 인물이 등장하는 문제성 웹사이트에 접속할 수 있었다.

당사자 동의 없이 성적 콘텐츠를 게재하는 이들은 피해자에게 피해자의 모습이 등장하는 NCII 콘텐츠 링크를 메시지로 전송한다. 피해자가 잊지 못한 과거를 떠올리도록 하는 분노를 유발하는 일이다. 드바버는 “피해자는 지우고 싶은 자신의 콘텐츠를 발견하지 않고, 과거를 잊기를 바란다. 그러나 직접 원하지 않는 NCII 콘텐츠가 새로 게재된 곳으로 접속하게 된다”라고 말했다. 그러나 드바버와 피해자는 구글에 맞서 가해자에게 영원히 타격을 주기를 원한다. 드바버는 “구글은 피해자 보호를 위해 지금보다 훨씬 더 많은 대응을 할 수 있었다”라고 비판했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Google’s Nonconsensual Explicit Images Problem Is Getting Worse
이 기사를 공유합니다
RECOMMENDED