Madrid - Las noticias falsas son un “problema” para Facebook, que insiste en que reducir su circulación y propagación en la red social constituye una “prioridad” para la compañía, pero niega que ésta haya de jugar un papel editorial y determinar qué contenido informativo es o no verdadero.
“No somos árbitros de la verdad y sabemos que la gente no quiere que lo seamos, no es nuestro papel como plataforma tecnológica. Lo que sí estamos haciendo, y haremos, es reducir la propagación de contenido que confunda a la gente, spam y clickbait (titulares engañosos que favorecen el click fácil), explica la responsable de productos informativos de Facebook, Alex Hardiman.
La diseminación de noticias falsas en la red social -que cuenta con 2.000 millones de usuarios activos al mes-, y especialmente su criticada influencia en el resultado de las pasadas elecciones presidenciales de Estados Unidos, llevaron a Facebook a “invertir dinero” y “hacer esfuerzos” por frenar esta epidemia hace algunos meses.
El propio Mark Zuckerberg escribió en febrero una carta en la que reconocía que la red social aloja “información errónea y contenido incluso engañoso” y anunciaba entonces inversiones para ofrecer a los usuarios información veraz.
Aunque la compañía concede que la batalla contra la desinformación es una carrera de fondo, los resultados de su estrategia aún son limitados: en estos últimos días, la red social acogió numerosas noticias falsas sobre el 1-O y sobre el tiroteo de Las Vegas. “Hemos hecho progresos en los últimos meses tanto a la hora de cortar los incentivos económicos de quienes crean noticias falsas, spam y clickbait como en la construcción de productos que frenen su propagación y en ofrecer a la gente herramientas para detectarlo. Pero nos queda mucho por hacer”, añade la responsable de producto del News Feed (el muro de Facebook), Tessa Lyons-Laing.
Lyons-Laing asegura que la principal motivación de los creadores de noticias falsas es hacer dinero con su movimiento y que Facebook investiga “quiénes son y cuáles son sus tácticas” para reducir el tráfico de sus publicaciones. Además de poner en marcha una campaña para ayudar a los usuarios a detectar información falsa, que promueve la autorregulación de la comunidad, tienen en cuenta determinadas señales a la hora de identificar contenidos no deseados.
Por ejemplo, el tiempo que un usuario dedica a leer algo antes de compartirlo o las cuentas que publican contenido de forma indiscriminada. También han puesto en marcha una sección de artículos relacionados para ofrecer al lector más información, procedente de distintos medios, sobre un tema de actualidad y han empezado a ofrecer contexto de cuándo una fuente está verificada. “No hay una solución mágica”, resalta Lyons-Laing, que presume de que la compañía está “comprometida con la integridad y autenticidad” en la plataforma.
Pero ambas ejecutivas eluden valorar cómo afectó la victoria de Trump en la decisión de abordar este problema. Aunque recalcan que Facebook quiere ofrecer la “mejor experiencia informativa”, insisten en negar el papel editorial de la red social: “Dejamos que sean los usuarios y las compañías periodísticas quienes decidan qué comparten y lo que ve la gente”.
Hardiman indica que Facebook ha debatido con 2.600 compañías y organizaciones periodísticas acerca del futuro del negocio informativo. “Queremos escuchar y detectar cuáles son las oportunidades más urgentes para asegurarnos de que contribuimos a que la gente esté bien informada y de que ayudamos a la industria editorial a tener un futuro sostenible, tanto en Facebook como fuera”. - Efe