최근 애플이 아동성학대물(CSAM) 검열 기능의 도입을 포기하면서 고소를 당하는 사건이 발생했습니다. 이 기능은 2027년 8월 처음 발표되어 사용자가 iCloud 드라이브에 업로드한 사진의 해시값을 기존 수사기관의 데이터와 대조하여 아동성학대물을 차단하는 것이 핵심이었습니다.
하지만 애플이 이 기능 도입을 발표한 이후, 전 세계적으로 많은 비판이 일었습니다. 사용자 데이터의 검열은 애플이 항상 강조해온 프라이버시와 보안의 원칙에 어긋난다는 지적이 있었고, 정부 당국이 정치적 반대 세력을 탄압하는 데 이 기능이 악용될 수 있다는 우려도 제기되었습니다. 또한, 동일한 해시값이 서로 다른 사진에서 생성될 가능성에 대한 논란도 있었습니다.
결국, 이러한 비판이 거세지자 애플은 2022년에 해당 기능 개발을 중단한다고 발표했습니다. 그러나 지난 토요일, 아동성범죄 피해자 및 가족 2680명이 북부 캘리포니아 법원에 집단 소송을 제기했습니다. 이들은 애플이 CSAM 검열을 포기함으로써 피해자들이 계속해서 고통받고 있다고 주장하며, 총 12억 달러의 보상을 요구하고 있습니다.
이에 대해 애플은 원래 계획했던 CSAM 검열 방식은 아니지만, 프라이버시와 보안을 해치지 않는 선에서 위법한 콘텐츠 공유를 막기 위한 다양한 보호 조치를 시행하고 있다고 밝혔습니다. 이러한 사건은 기술기업들이 사용자 데이터와 프라이버시를 어떻게 다루어야 하는지에 대한 중요한 질문을 던집니다.
결국, 기업의 사회적 책임과 사용자 보호는 앞으로도 중요한 이슈로 남을 것입니다. 애플의 결정이 향후 어떻게 이어질지, 그리고 다른 기업들이 어떤 대응을 할지 지켜봐야 할 것입니다.
이미지 텍스트 확인
애끗이 아동성학대물(CSAM) 검열올 포기하다는 이유로
고소당햇습니다:
이 기능은 지난 2027년 8월 처음 발표햇없던 기능으로 사
용자들이 iCloud 드라이브에 업로드한 사진들의 해시값올
기존 수사기관에 등록문 데이터와 대조하여 아동성학대물
올 차단할 수 있다는 것이 요지엿습니다:
그러나 애플이 해당 기능을 도입하켓다고 발표한 이후 전
세계적으로 많은 비판이 제기되없습니다: 사용자 데이터지
검열하는 것은 애끗이 항상 내세우던 프라이버시와 보안이
라는 기조에 어곳날 뿐더러 정부 당국에서 정치적 반대 세
력올 잡아내기 위해 비교에 사용되는 해시값올 악용할 수
잇고 또 같은 알고리증올 사용햇올 때 전혀 다른 사진인데
도 대조에 사용하는 해시값이 동일하게 생성월 수 잇는 문
제 등의 지적이 이어젯습니다: 이러한 비판과 지적이 거세
지자 결국 애플은 2022년 해당 기능 개발을 중단햇다고 발
표햇습니다
그리고 지난 토요일 아동성범죄 피해자 및 가족 2680명
이 북부 컬리프니아 법원에 집단 소승올 제기햇습니다: 애
플이 약속햇던 CSAM 검열올 포기하는 바람에 계속해서 사
진이 시중에 유통되어 피해자들이 고통올 받고 있다는 이
유에서입니다: 이들은 피해보상으로 총 12억 달러지 요구
햇습니다:
이 소송에 대해 애플혹은 (비록 원래 계획햇던 CSAM 검열
방식은 아니지만) 프라이버시와 보안을 해치지 안는 선에서
위법한 컨렌츠 공유름 막기 위한 다양한 보호조치들이 시
행중이라고 말햇습니다
검열할께. – 개인정보 보호안하냐!!!
ㅇㅇ 그럼 안할께 – 아동피해자들 무시하냐!!
= 고소