Apple acaba com o CSAM, a verificação de conteúdo de pornografia infantil no iCloud
O CSAM, a verificação de conteúdo de pornografia infantil da Apple, tem sido recebido com algumas questões mais sensíveis. Por norma associados à privacidade, estes pontos podem ter agora levado a que a Apple tenha mudado a sua posição.
A gigante de Cupertino tomou uma decisão importante e resolveu abandonar a verificação de conteúdo de pornografia infantil no iCloud. Com esta mudança, o CSAM está cada vez mais fora de serviço.