Facebook siempre ha dicho que trabaja para que su "comunidad de usuarios esté a salvo del abuso y del odio" y para asegurarse de que "el tiempo pasado en la plataforma es un tiempo bien invertido". Pero en 2017 la red de Mark Zuckerberg se dio cuenta de que sus usuarios no participaban en la plataforma "tanto como deberían". Las investigaciones internas reflejaron que estaba comenzando una tendencia "peligrosa" donde los usuarios veían lo que llegaba a sus muros pero no le daban like, ni realizaban comentarios, ni compartían ese contenido; se limitaban a verlo sin interactuar. Al estudiar la situación, los investigadores de la empresa temieron que eso pudiera conllevar un pérdida masiva de usuarios, porque sabían que si quienes entramos nos limitamos a mirar, es muy probable que nos acabemos aburriendo y dejemos de usar la plataforma de turno.
Para solucionar ese riesgo, los archivos a los que han accedido los periodistas muestran que cambiaron su algoritmo y anunciaron el cambio diciendo que querían promocionar algo que llamaron MSI (meaningful social interactions o interacciones sociales con significado. Es decir, querían que los usuarios tuviesen interacciones con otros participantes que les pudieran aportar un significado positivo y bienestar. Pero la realidad del funcionamiento de Facebook, y de la mayoría de las redes sociales, es que quienes las utilizamos no elegimos lo que vemos. Nosotros seguimos a las cuentas que queremos, sí, pero el algoritmo de cada red social se encarga de mostrarnos lo que cree que nos va a tener más tiempo pegados a la pantalla y lo que tiene más probabilidades de generar nuevas interacciones.
Cualquiera que fuese su intención, la consecuencia del cambio que Facebook realizó ha sido el llamado algoritmo de la indignación. A partir de ese cambio, el algoritmo consiguió que las interacciones crecieran de forma exponencial, y lo hizo mostrando a los usuarios las publicaciones que más probabilidades tenían de indignarles, porque el algoritmo aprendió que la indignación es la emoción que más interacciones genera y que más tiempo nos tiene pegados a la pantalla.
Para ilustrar este cambio con un ejemplo: supongamos que seguimos a un familiar o a un amigo en Facebook. Hasta 2017 nos mostraba primero lo que ese familiar publicaba y después cosas que amigos de ese familiar publicaban y que podían ser de nuestro interés. A partir de 2017, si un amigo de ese familiar publicaba algo que el algoritmo preveía que nos podía indignar, nos mostraba eso antes incluso que las propias publicaciones de nuestro familiar.
Con ese cambio, diferentes medios de comunicación como BuzzFeed detectaron, y pusieron en conocimiento de Facebook, que las noticias que habitualmente publicaban no tenían el mismo alcance ni igual cantidad de interacciones que antes del cambio. A partir de ese momento las noticias más amarillistas, aquellas que podían ser polémicas, que podrían crear división, indignación y que generaban discusiones acaloradas dentro de la plataforma comenzaron a ser las que mejor funcionaban. Un partido político de EE.UU. pasó de generar un 30% de material negativo sobre su principal oponente político a un 80%, porque esas son el tipo de publicaciones que el algoritmo premia pomocionándolas, y que como consecuencia tienen más alcance e interacciones.
El resultado final es que si los usuarios y las marcas quieren tener un alcance aceptable dentro de la plataforma, si buscan que sus publicaciones lleguen a más usuarios, después del cambio realizado para "generar interacciones sociales con significado positivo" y siempre "protegiendo a los usuarios del odio y el abuso en su plataforma", deben generar contenido que sea tóxico y polarizador, que genere indignación y fomente las polémicas acaloradas.
Además de esto, las investigaciones periodísticas han revelado que Facebook es consciente de que su plataforma se usa para la trata de personas y que no hace lo suficiente para erradicar esa práctica, y que sabe desde hace años que Instagram es tóxica para un porcentaje importante de las usuarias adolescentes y aún así seguía adelante con el proyecto de crear un Instagram para niños, proyecto que han tenido que poner en pausa después de la revelación de estas investigaciones. También se ha descubierto que hay una serie de usuarios VIP que pueden incumplir los términos de uso, tengan las consecuencias que tengan.
Estos documentos que The Wall Street Journal ha hecho públicos demuestran que Facebook, a pesar de lo que diga, antepone el beneficio económico al bienestar de sus usuarios, y que mantiene de forma consciente, sin ni siquiera pestañear, políticas que son perjudiciales para quienes lo utilizan.