애플이 아동성학대물(CSAM) 검열을 포기했다는 이유로 고소당했습니다.
이 기능은 지난 2021년 8월 처음 발표했었던 기능으로, 사용자들이 iCloud 드라이브에 업로드한 사진들의 해시값을 기존 수사기관에 등록된 데이터와 대조하여 아동성학대물을 차단할 수 있다는 것이 요지였습니다.
그러나 애플이 해당 기능을 도입하겠다고 발표한 이후, 전세계적으로 많은 비판이 제기되었습니다. 사용자 데이터를 검열하는 것은 애플이 항상 내세우던 프라이버시와 보안이라는 기조에 어긋날 뿐더러, 정부 당국에서 정치적 반대 세력을 잡아내기 위해 비교에 사용되는 해시값을 악용할 수 있고 또 같은 알고리즘을 사용했을 때 전혀 다른 사진인데도 대조에 사용하는 해시값이 동일하게 생성될 수 있는 문제 등의 지적이 이어졌습니다. 이러한 비판과 지적이 거세지자 결국 애플은 2022년 해당 기능 개발을 중단했다고 발표했습니다.
그리고 지난 토요일, 아동성범죄 피해자 및 가족 2680명이 북부 캘리포니아 법원에 집단 소송을 제기했습니다. 애플이 약속했던 CSAM 검열을 포기하는 바람에 계속해서 사진이 시중에 유통되어 피해자들이 고통을 받고 있다는 이유에서입니다. 이들은 피해보상으로 총 12억 달러를 요구했습니다.
이 소송에 대해 애플측은 (비록 원래 계획했던 CSAM 검열방식은 아니지만)프라이버시와 보안을 해치지 않는 선에서 위법한 컨텐츠 공유를 막기 위한 다양한 보호조치들이 시행중이라고 말했습니다.
만든다고 선언 -> 개인정보 검열이냐! 안만든다고 건언 -> ㅅㅂ 아동성범죄자 방치하냐! 뭔 씹 양자택일이냐.........
아동성범죄는 당연히 막아야 하지만 그렇다고 기업이 모든 사람의 데이터를 뒤져보는건 반대임.
그니까 범죄자 막겠다고 자유 탄압하자는거랑 다를게뭔지 ㅋㅋㅋㅋ
애플도 ㅈㄴ 골아프긴 하겠네 그거하곤 별개로 어떤 이유로든 검열을 시스템화하는 건 절대적으로 반대해야함.
그거 완전 1984...
만든다고 선언 -> 개인정보 검열이냐! 안만든다고 건언 -> ㅅㅂ 아동성범죄자 방치하냐! 뭔 씹 양자택일이냐.........
아동성범죄는 당연히 막아야 하지만 그렇다고 기업이 모든 사람의 데이터를 뒤져보는건 반대임.
vigintile
그니까 범죄자 막겠다고 자유 탄압하자는거랑 다를게뭔지 ㅋㅋㅋㅋ
개인검열을 반대하면 너 아동성범죄자 옹호하는거냐고 공격들어오니 아주 환장하는 상황
애플도 ㅈㄴ 골아프긴 하겠네 그거하곤 별개로 어떤 이유로든 검열을 시스템화하는 건 절대적으로 반대해야함.
모든 사이버 범죄 확실히 막는방법 실명제 도입하고 경찰이 원할때마다 서버 수색가능하게하고 ip우회관련 모두 불법으로 때리면됨ㅇㅇ
그거 완전 1984...
똑똑 유게이씨죠? 북유게에 이런 글 올리셨던데 잠시 서까지 따라와주시죠
윤석열 내란 성공했으면 한동안은 실제로 그렇게 될 뻔
??기기제조사에서 왜 저것까지 신경을 써야하는겨??
저런걸로 기소가돼면 얼탱이가없구만 ㅋㅋ
어쩌라고 ㅋㅋㅋㅋ
저건 고소당해도 애플이 이길 수 밖에 없음. 애초에 수사권은 기업이 아닌 경찰이 하는거고, 기업은 범죄예방을 위한 의무도, 사전검열을 위한 권한도 없음. 기업의 검열 대상이 일부 특정한 대상이 아닌 사용자 전체라면 이것도 분명 고소대상임. 전체사용자 대상으로 검열하는건, 모기 잡자고 초가삼간 태우는 꼴.
CSAM 검열을 포기하는 바람에 계속해서 사진이 시중에 유통되어.. 이게 왜 애플 때문이지
이건 뭐... ㅋㅋㅋㅋㅋ 어쩌란건지
븅신들인가 제작과 1도 관련없는 파일 클라우드 서비스에 니들이 검열 안하니까 우리가 피해본다고 배상금을 요구하네ㅋㅋㅋ 파일 이동에 usb 하드 드라이브도 쓰이니 그거 제작 업체들한테도 고소 때리지 아주?
저러다가 인터넷 자체를 고소할듯 ㅋㅋㅋ
이래도 ㅈ* 저래도 ㅈ*이군
막말로 CSAM 때문에 스캔 해야하면 테러 때문에 icloud 메모 싹다스캔 해야 한다 논리 어떻게 막을 거임?