Apple ha puesto en marcha un nuevo sistema que analizará las imágenes que se hagan con sus iPhones en busca de pornografía infantil. Para ello, utilizará la tecnología NeuralHash.

El sistema será automático y en caso de que encuentre alguna fotografía sospechosa, saltará la alarma y será una persona la que se encargue de evaluarla. Si es preciso, se pondrá en conocimiento de las fuerzas y cuerpos de seguridad. Apple ha explicado que tiene como objetivo limitar la propagación de abuso sexual a menores ‘online’.

Esta medida ha creado preocupación entre muchos usuarios, que afirman que aunque el algoritmo sea bueno, siempre cabe un margen de error. Así pues, se puede dar la posibilidad de que un archivo inocuo sea seleccionado como sospechoso por equivocación y una persona vea nuestras fotos privadas.

Además, también está como trasfondo los posibles intereses ocultos de los gobiernos, ya que esta tecnología se puede utilizar para extraer información de cualquier tipo. Es más, algunos expertos creen que los estados autoritarios lo usarán para espiar a ciudadanos disidentes.

Para calmar los ánimos, la tecnológica ha conseguido que el programa no necesite copiar archivos a servidores externos. Así, pretende demostrar una mayor privacidad al no salir los archivos del dispositivo.

Asimismo, Apple asegura que este sistema es opcional para los usuarios y solo se analizarán los archivos subidos a iCloud, su sistema en la nube, y asegura que solo lo revisará un empleado si se cumplen una serie de requisitos.

De momento, este nuevo sistema solo se ha implantado en Estados Unidos. En la Unión Europea, los sistemas que analizan archivos subidos a la nube por los usuarios están prohibidos.

¿Cómo funciona?

El sistema NeuralHash compara las fotografías con una base de datos de imágenes de abuso sexual infantil que están en el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos.

Las imágenes se traducen en códigos numéricos que provocarán una alarma si coinciden con las muestras.