아동 성 착취물을 검열하겠다는 애플의 계획이 중단됐다. 계획을 발표한 지 한 달 만이다.



3일(현지시간) 애플은 아동 성 착취물(CSAM) 이미지를 검열하는 도구 테스트를 일시적으로 중단한다고 밝혔다. 애플 측은 "지난달 커뮤니케이션 도구를 사용해 아이들을 착취하는 이들을 막고 CSAM 확산을 제한하는 계획을 발표했다"면서 "고객, 지지단체, 연구원 그리고 다른 사람들의 피드백을 바탕으로 어린이 안전에 매우 중요한 기능을 출시하기 전에 의견을 수집하고 개선하기 위해 앞으로 몇 달 동안 추가 시간을 갖기로 결정했다"고 발표했다.

- 중략

하지만 애플의 새로운 정책이 시행되면 개인정보 유출 가능성이 높아진다는 점이 지적됐다. 각종 단체와 소비자들은 사용자의 민감한 정보를 검열하고 사생활을 엿볼 수 있는 백도어를 만드는 행위라며 기업의 계획을 강도 높게 비판했다.



미국 파이트포더퓨처(Fight for the Future) 이사인 에반 그리어(Evan Greer)는 성명을 통해 "사진과 메시지를 스캔하려는 애플의 계획은 현대 기술 기업의 가장 위험한 제안 중 하나"라면서 "기술적으로 수백만 명의 기기에 멀웨어를 설치하는 행위"라고 주장했다.

- 후략

출처 : https://m.blog.naver.com/tech-plus/222496801658


/
n번방방지법으로 인해서 시행되는데

실시간 검열 빌드업 지리죠?
얼른 철회해라 기존 방식으로 다 잡을 수 있으면서

사진은 예전 카톡 실시간 감청 논란 관련 답변임