Hay muchas imágenes de la vida cotidiana que se nos quedan grabadas. Son la prueba irrefutable de algo que ha sucedido. Son imágenes que vemos en el telediario, en una película o en nuestra serie preferida. Imágenes que memorizamos y que nos hacen inclinarnos hacia un lado u otro en una decisión.

Esta situación podría estar llegando a su fin. Los últimos avances en inteligencia artificial (concretamente en redes neuronales) permiten falsificar imágenes con relativa facilidad. La tecnología que está por detrás ya la hemos comentado en este espacio en alguna otra ocasión: son los deepfakes, que podríamos traducir como ultrafalso. Esto queda mejor explicado como tecnologías de aprendizaje avanzado para falsificar la interpretación de una imagen.

Hasta la fecha, la industria de las fake news, había explotado bastante el formato textual. Escribir es libre, y más aún crear espacios solo con la intención de publicar noticias que uno escribe y miles pueden leer. Pero las imágenes y vídeos eran un terreno más complicado. Más allá de montajes baratos hechos en Photoshop, no éramos capaces de hacer algo medianamente natural. Pero las técnicas de aprendizaje profundo de inteligencia artificial, que han permitido el desarrollo de los vehículos autónomos o el reconocimiento facial, lógicamente, también pueden ser empleadas con peores intenciones.

Existen ya aplicaciones y programas gratuitos que con dos o tres botones, nos crean imágenes falsificadas. En los últimos meses se han empleado mucho para la generación de vídeos con contenidos para adultos o para hacer humor barato. De ahí no ha pasado la historia. Sin embargo, una nueva investigación realizada por la empresa de ciberseguridad Sensity AI, ha detectado incluso programas automáticos en aplicaciones como Telegram que actúan como un servicio. Les envías una foto y te la pueden devolver manipulada completamente gratis.

Esto abre un terreno realmente peligroso: los pagos de chantajes por no compartir imágenes íntimas, ya sabemos, es una industria bastante lucrativa en Internet. Si ahora le sumamos la capacidad de manipular una imagen para parecer cierta, todo apunta a que veremos un repunte de este tipo de delitos.

La preocupación es tan alta que, las grandes plataformas mediáticas de nuestra era -Google y Facebook-, así como equipos de investigación que luchan contra la creación de vídeos falsos, han comenzado a tomar medidas. Si antes la preocupación era la divulgación de textos falsificados intencionadamente, ahora la preocupación gira hacia los vídeos e imágenes. Como siempre, las redes sociales llevan la delantera de lo que ocurre en los fenómenos sociales.

Tiene sentido que así sea; la atención de la sociedad está ahí. Conseguir colar una imagen y que se haga viral no solo puede traer notoriedad a personajes de nuestras sociedades, sino también aportar suculentos montantes económicos fruto de la publicidad programática (la mal programada, claro). Pero puede luego llegar a otros espacios. Por ejemplo, a espacios donde el reconocimiento facial va entrando. O, por ejemplo, en los vídeos usados como pruebas en juicios. O, también, en situaciones de relaciones íntimas donde se quiera demostrar una situación contraria a la realidad. En definitiva, la capacidad de creación e innovación que traen estas potentes tecnologías es tremenda.

La vía legal no se puede quedar atrás. El año pasado, el Congreso de Estados Unidos introdujo un nuevo proyecto de ley para articular un mecanismo que diera cobertura legal a poder presentar un recurso a todo aquel o aquella que sufriera un daño reputacional por la manipulación de un vídeo o imagen. Supongo que en Europa ya nos estaremos preocupando activamente por este tema. Derechos fundamentales como el derecho al honor y a la propia imagen parecen vulnerados de manera clara. Pero sospecho que el daño digital debe recoger aspectos más allá, puesto que el poder de amplificación es tremendo. Y el proyecto de ley norteamericano va por esas líneas.

Una imagen vale más que mil palabras, dicen. Aplicado a lo que nos ocupa, podríamos decir que una imagen puede hacer mucho más daño que mil palabras.

Ya es posible falsificar imágenes con relativa facilidad. Detrás están los 'deepfakes', que podríamos traducir como ultrafalso. Tecnologías de aprendizaje avanzado para falsificar la interpretación de una imagen