상세 컨텐츠

본문 제목

애플, 아동 성착취물 스캔 시스템 미도입으로 소송

경제 · 금융

by A_D 2024. 12. 13. 11:00

본문

반응형

 

애플이 iCloud 사진에서 아동 성착취물(CSAM)을 스캔하는 시스템을 구현하지 않기로 한 결정에 대해 소송을 당했습니다.

뉴욕타임스에 따르면, 이 소송은 애플이 이러한 자료의 확산을 방지하기 위해 더 많은 조치를 취하지 않음으로써 피해자들이 트라우마를 반복적으로 경험하도록 강요하고 있다고 주장합니다. 소송 내용에는 애플이 "아이들을 보호하기 위한 개선된 설계를 널리 홍보한 뒤, 그 설계를 실행하거나 이를 감지하고 제한하기 위한 어떠한 조치도 취하지 않았다"고 서술되어 있습니다.

애플은 2021년 처음으로 이 시스템을 발표하며, 국립 실종 및 착취 아동 센터(National Center for Missing and Exploited Children)와 기타 단체의 디지털 서명을 사용해 사용자 iCloud 라이브러리에서 알려진 CSAM 콘텐츠를 감지할 것이라고 설명했습니다. 그러나 보안 및 프라이버시 옹호자들이 이러한 시스템이 정부 감시를 위한 백도어(뒷문)를 만들 수 있다고 지적하자, 애플은 해당 계획을 철회한 것으로 보입니다.

이 소송은 가명으로 소송을 제기한 27세 여성이 애플을 상대로 한 것입니다. 그녀는 유아였을 때 한 친척에게 학대를 당했으며, 그녀의 이미지가 온라인에 공유되었다고 주장합니다. 그녀는 여전히 매일 거의 법 집행 기관으로부터 해당 이미지 소유와 관련해 누군가가 기소되었다는 통보를 받고 있다고 밝혔습니다.

이 소송에 관여한 변호사 제임스 마쉬(James Marsh)는 이번 사건에서 보상을 받을 자격이 있을 수 있는 잠재적 피해자 그룹이 2,680명에 이를 가능성이 있다고 말했습니다.

이에 대해 애플 대변인은 뉴욕타임스에 "모든 사용자의 보안과 프라이버시를 손상시키지 않으면서 이러한 범죄를 퇴치하기 위해 긴급하고도 적극적으로 혁신 중"이라고 밝혔습니다. 지난 8월에는 한 9세 소녀와 그녀의 보호자가 iCloud에서 CSAM 문제를 해결하지 못한 애플을 상대로 소송을 제기하기도 했습니다.

반응형

관련글 더보기

댓글 영역