Apple retrasa el lanzamiento de la controvertida función CSAM para ‘hacer mejoras’

Tras todas las críticas, Apple ha retrasado el lanzamiento de sus funciones CSAM, incluido el escaneo de fotos de iCloud y los medios recibidos en iMessage en busca de contenido de abuso sexual infantil.

La medida de Apple se produce después de que fuera fuertemente criticada por escanear fotos de iCloud en busca de contenido CSAM. Muchos usuarios y expertos en privacidad creen que este movimiento de Apple podría eventualmente llevar a gobiernos y otras organizaciones con poder a abusar de él para su propio beneficio.

La compañía ahora tomará “tiempo adicional” para realizar mejoras en sus características de seguridad para niños.

A continuación se muestra la declaración completa de Apple al respecto:

“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material sobre abuso sexual infantil. Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica “.

Apple anunció inicialmente que lanzaría el escaneo CSAM con el lanzamiento de iOS 15 y macOS Monterey a finales de este año. Después de la reacción inicial, Apple publicó preguntas frecuentes detalladas que explican cómo funciona CSAM y por qué es amigable con la privacidad.

La declaración de Apple no deja claro cuándo lanzaría ahora su sistema de detección CSAM.

Related Posts