Desarrollador realiza ingeniería inversa del sistema de detección CSAM de Apple y encuentra graves defectos en él

Apple anunció el nuevo sistema de detección CSAM a principios de este mes. Desde el anuncio de la función, CSAM ha recibido muchas reacciones negativas, no solo de los investigadores de seguridad, sino incluso de los propios empleados de Apple. Ahora, un desarrollador independiente ha realizado ingeniería inversa de CSAM y ha encontrado algunos defectos graves en él.

El desarrollador, Asuhariet Ygvar, publicó código para una versión Python reconstruida de NeuralHash en Github. Sorprendentemente, el desarrollador afirma que extrajo el código de iOS 14.3, a pesar de que Apple afirma que la detección de CSAM estará disponible en iOS en versiones futuras.

Ygvar publicó un detallado guía en Github sobre cómo extraer archivos NeuralMatch de macOS o iOS. Después de revelar el sistema de codificación inversa en Reddit, publicó un comentario que decía:

“Las primeras pruebas muestran que puede tolerar el cambio de tamaño y la compresión de la imagen, pero no el recorte ni las rotaciones. Espero que esto nos ayude a comprender mejor el algoritmo NeuralHash y conocer sus problemas potenciales antes de que esté habilitado en todos los dispositivos iOS “.

Una vez que el código estuvo disponible en Github, los desarrolladores de todo el mundo comenzaron a encontrar fallas en él. Pero antes de explicar cuál es la falla, necesita saber cómo iOS detecta el contenido CSAM. iOS divide una foto en varios hash. Luego, estos valores hash se comparan con los valores hash de la foto en la base de datos del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Si los hashes coinciden, se levanta una bandera.

Se activa una alerta si se activan más de 30 banderas, después de lo cual un revisor humano ve qué activó la bandera. Apple dice que si encuentra culpable a una persona, puede emprender una acción.

Los desarrolladores han descubierto que el sistema de Apple puede generar el mismo conjunto de hashes para dos fotos completamente diferentes, lo que sería una falla significativa en la criptografía subyacente al nuevo sistema de Apple. Si alguien, de alguna manera, obtiene acceso a la base de datos de fotos CSAM del NCMEC, el sistema podría modificarse mediante ingeniería inversa para generar el mismo hash para una foto que no sea CSAM. Esto requeriría 30 imágenes en colisión para crear un desencadenante falso positivo, y lo más probable es que no suceda, pero aún así requeriría la intervención humana.

Las funciones de seguridad para niños de Apple han sido un tema de debate desde su anuncio. Algunos dicen que está bien que la empresa verifique el abuso infantil en las fotos, mientras que otros dicen que es una violación de su privacidad. ¿Qué opina de que Apple busque CSAM en la fototeca de iCloud? ¿Crees que esto es una violación de tu privacidad? ¡Deje un comentario y háganos saber lo que piensa!

Related Posts