Apple siempre trata de velar por la privacidad y seguridad de sus usuarios siendo prácticamente un lema de la marca caracterizando a todo su ecosistema de productos y servicios. Sin embargo, cuando estos beneficios se usan para ocultar contenido ilegal la situación es diferente.
También puede interesarte
Según Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, la compañía de la manzana estaría próxima a lanzar una herramienta para el escaneo de material de abuso sexual infantil dentro de todos los iPhones y que funcionaría del lado del cliente. Se indica que varias personas les han confirmado esta información y que su implementación se realizaría este mismo viernes.
Esta herramienta haría uso de algoritmos hash para buscar coincidencias entre las imágenes almacenadas por los usuarios de los iPhones y el contenido conocido de pornografía infantil. Esto significa que los teléfonos tendrán que descargar un grupo de datos en forma de “huellas” para poder realizar las comparativas de las fotos de la aplicación de galería.
Según el sitio 9to5Mac, Apple no ha anunciado oficialmente esta herramienta desconociéndose detalles importantes sobre las acciones a tomar en caso se detecte una coincidencia. Otro punto preocupante son los posibles falsos positivos debido a que los algoritmos hash no son infalibles. Si bien las fotografías en iCloud ya son accesibles por autoridades bajo una petición judicial, esta nueva herramienta analizará el contenido almacenado localmente abriendo una nueva puerta de invasión a la privacidad.