En 2021 se encontraron y eliminaron el récord de 29,3 millones de imágenes de abuso infantil en Internet según los datos de la organización sin ánimo de lucro Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de EE. UU. La cifra publicada por esta organización supone un aumento del 35% con respecto a 2020.

La abrumadora mayoría de los informes que las propias plataformas mandan a NCMEC provienen de Facebook. Solo en Facebook se informaron de 22 millones de imágenes de explotación sexual infantil, y por primera vez se publicaron datos de otras plataformas de su propietario Meta, lo que reveló que Instagram hizo 3,3 millones de informes y WhatsApp 1,3 millones. Google, por su parte, hizo 875.783 informes y Snapchat 512.522. La red social para adultos OnlyFans también estuvo representada en la lista por primera vez haciendo 2.984 informes en 2021.

En 2022 la tendencia sigue al alza. Lo que llama la atención en 2022 es que en el primer semestre se detectó un aumento en el contenido de explotación sexual infantil generado por los propios menores. La Fundación de Vigilancia de Internet (IWF) vio casi 20.000 informes de contenido de explotación sexual infantil autogenerado en los primeros seis meses de 2022, en comparación con los 12.000 en el mismo período del 2021. La inquietante tendencia mundial ha crecido rápidamente desde el confinamiento inicial del coronavirus, con casos que involucran al grupo de edad de 7 a 10 años en un aumento del 350% desde el primer semestre de 2020.

La directora ejecutiva de la IWF, Susie Hargreaves, dijo que “La explotación sexual infantil, que es facilitada y capturada por la tecnología utilizando una conexión a Internet, no requiere que el abusador esté físicamente presente, y la mayoría de las veces tiene lugar cuando el niño está en su dormitorio, un supuesto espacio seguro en la casa familiar. Por lo tanto, debería ser totalmente prevenible”.

Si bien el aumento más rápido en las imágenes autogeneradas estuvo entre el grupo de edad de 7 a 10 años, el grupo de edad de 11 a 13 años genera la mayor cantidad de tales imágenes reportadas por el IWF, con 56.000 imágenes marcadas en los primeros seis meses del 2022.

imágenes autogeneradas

Las imágenes de explotación sexual infantil autogeneradas generalmente se crean utilizando cámaras web o teléfonos inteligentes y luego se comparten en línea en un número creciente de plataformas. La IWF dijo que la mayoría de los ejemplos ocurren en los dormitorios, donde se pueden ver juguetes, cestas de lavandería y armarios de fondo. Tamsin McNally, gerente de la línea directa de la IWF, dijo que las imágenes y los vídeos eran impactantes: “Este no es un callejón o un sótano oscuro. Es en casas familiares... a veces se puede escuchar a sus padres fuera de las habitaciones”.

La IWF también advirtió en su informe anual de este año que los niños de entre 3 y 6 años se estaban comenzando a convertir en víctimas de abuso sexual autogenerado.

Se recomienda seguir las tres reglas básicas que todas las familias debería implementar en lo que al mundo digital se refiere con independencia de la edad de los menores: Qué se puede ver/usar con cada edad, la cantidad de tiempo de uso y los lugares de uso de la tecnología en casa (lugares comunes donde haya adultos presentes). 

Desgraciadamente muchas familias comienzan a preocuparse por la educación digital cuando sus hijos e hijas están en 5º o 6º de Primaria y ven cómo comienza a acercarse la posibilidad de tener un smartphone propio (la edad recomendada es de 14 a 16 años). Pero la educación digital conviene implementarla desde que los niños comienzan a tener cualquier tipo de contacto con pantallas, incluso con la televisión: qué, cuánto y dónde.