애플이 iCloud 사진에서 아동 성착취물(CSAM)을 스캔하는 시스템을 구현하지 않기로 한 결정에 대해 소송을 당했습니다.
뉴욕타임스에 따르면, 이 소송은 애플이 이러한 자료의 확산을 방지하기 위해 더 많은 조치를 취하지 않음으로써 피해자들이 트라우마를 반복적으로 경험하도록 강요하고 있다고 주장합니다. 소송 내용에는 애플이 "아이들을 보호하기 위한 개선된 설계를 널리 홍보한 뒤, 그 설계를 실행하거나 이를 감지하고 제한하기 위한 어떠한 조치도 취하지 않았다"고 서술되어 있습니다.
애플은 2021년 처음으로 이 시스템을 발표하며, 국립 실종 및 착취 아동 센터(National Center for Missing and Exploited Children)와 기타 단체의 디지털 서명을 사용해 사용자 iCloud 라이브러리에서 알려진 CSAM 콘텐츠를 감지할 것이라고 설명했습니다. 그러나 보안 및 프라이버시 옹호자들이 이러한 시스템이 정부 감시를 위한 백도어(뒷문)를 만들 수 있다고 지적하자, 애플은 해당 계획을 철회한 것으로 보입니다.
이 소송은 가명으로 소송을 제기한 27세 여성이 애플을 상대로 한 것입니다. 그녀는 유아였을 때 한 친척에게 학대를 당했으며, 그녀의 이미지가 온라인에 공유되었다고 주장합니다. 그녀는 여전히 매일 거의 법 집행 기관으로부터 해당 이미지 소유와 관련해 누군가가 기소되었다는 통보를 받고 있다고 밝혔습니다.
이 소송에 관여한 변호사 제임스 마쉬(James Marsh)는 이번 사건에서 보상을 받을 자격이 있을 수 있는 잠재적 피해자 그룹이 2,680명에 이를 가능성이 있다고 말했습니다.
이에 대해 애플 대변인은 뉴욕타임스에 "모든 사용자의 보안과 프라이버시를 손상시키지 않으면서 이러한 범죄를 퇴치하기 위해 긴급하고도 적극적으로 혁신 중"이라고 밝혔습니다. 지난 8월에는 한 9세 소녀와 그녀의 보호자가 iCloud에서 CSAM 문제를 해결하지 못한 애플을 상대로 소송을 제기하기도 했습니다.
전기 밴 스타트업 카누(Canoo), 연말까지 강제 무급 휴직 조치 발표 (3) | 2024.12.27 |
---|---|
주간 IT Review (3) | 2024.12.14 |
Y Combinator의 가을 데모 데이: AI 스타트업 TOP 4 (0) | 2024.12.12 |
구글 결제 서비스, 소비자 보호국의 감독 대상 지정…법적 공방 시작! (0) | 2024.12.11 |
머스크의 AI 실험: X의 이미지 생성기 'Aurora', 왜 갑자기 사라졌을까? (1) | 2024.12.10 |
댓글 영역