“Apple planeja usar seu novo sistema, o CSAM Detection (Material de Abuso Sexual Infantil) para monitorar usuários e identificar aqueles que armazenam pornografia infantil em seus dispositivos.” No início de agosto de 2021, a Apple revelou seu novo sistema para identificar fotos contendo imagens de abuso infantil. Embora os motivos da Apple – combater a disseminação de...Read More
Comentários