안녕하세요. 최근에 아동 성적 학대 자료 때문에 사회적 이슈가 된적이 있습니다. 애플은 이런 문제들을 해결하기 위해 아동 성 관련 내용을 필터링하는 기능을 적용한다고 합니다. 이런 일에 앞장서는 애플은 정말 멋진 기업인것 같습니다. 회사가 이윤을 목적으로 하는것은 맞지만, 사회의 문제점들과 불편한점들을 해결하는것도 몫인듯합니다. 애플은 미국 고객의 기기에서 CSAM(아동 성적 학대 자료)을 찾는 시스템에 대한 세부 정보를 공개했습니다. 이미지가 아이클라우드 사진에 저장되기 전에 이 기술은 알려진 일치하는 항목을 검색합니다. 일치하는 항목이 발견되면 검토자가 사용자를 평가하고 법 집행 기관에 보고할 것이라고 말했습니다. 그러나 금지된 콘텐츠나 정치적 발언이 있는지 휴대폰을 스캔하도록 기술이 확장될 수 있다..