El pasado 18 de marzo, Meta activó su nueva función de Notas de la Comunidad en Facebook, Instagram y Threads. Aparentemente, una medida para mejorar la calidad de la información en sus plataformas. En realidad, una jugada que ya hemos visto antes… y que salió mal.

La desinformación no se combate solo con buena voluntad. Requiere tiempo, conocimiento y responsabilidad editorial

Sí, esta historia ya la vivimos en X (antes Twitter), donde las Notas de la Comunidad prometían combatir la desinformación con inteligencia colectiva y acabaron generando más ruido que soluciones. Y ahora Meta, con la excusa de parecer más abierta, más democrática, más “colaborativa”, nos propone exactamente el mismo modelo, pero en más plataformas y con más riesgo.

“Lo que viene ahora no es bueno para las sociedades democráticas”, escribió la periodista Carmela Ríos. Y cuesta no estar de acuerdo.

¿Qué son exactamente las Notas de la Comunidad?

Sobre el papel, suena bien: los propios usuarios de estas redes sociales pueden añadir contexto a publicaciones potencialmente engañosas. Si suficientes personas, con supuestas "perspectivas diversas", validan esa nota como útil, se muestra públicamente.

Desde que Elon Musk implantó este sistema en X, los resultados han sido, siendo generosos, desiguales

En teoría, esto sustituye el viejo modelo de “verificación por expertos” por uno más horizontal, participativo. Ya no hace falta que una organización especializada diga si algo es verdad o no: ahora lo decidimos entre todos. ¿Qué podría salir mal?

Spoiler: muchas cosas.

En X no funcionó. Y lo sabemos de sobra.

Desde que Elon Musk implantó este sistema en X, los resultados han sido, siendo generosos, desiguales. La mayoría de notas no llegan a publicarse. ¿El motivo? Porque se exige consenso. Y no consenso técnico o verificado, no: consenso entre personas que probablemente no se conocen, con intereses diversos y, a veces, motivaciones ideológicas opuestas.

Lo explica muy bien el investigador Stephan Mündges: “Las Notas de la Comunidad priorizan el consenso sobre la precisión. El resultado está a la vista en X: la mayoría de las notas no se muestran, incluso en casos donde una afirmación es claramente falsa.”

Y añade algo más inquietante: Las publicaciones con notas no se penalizan en el algoritmo. Es decir, los actores malintencionados pueden seguir difundiendo mentiras, recibir notas, y no sufrir consecuencias reales.”

¿Resumimos? La mentira sigue ahí, el autor no sufre consecuencias y la nota, si llega a mostrarse, aparece tarde y sin fuerza.

Meta lo copia… y elimina a los verificadores

La sorpresa ha sido doble. Meta no solo adopta este modelo, sino que lo hace para sustituir su sistema de verificación profesional por terceros (en EE. UU., por ahora). Es decir: quitamos a los expertos, dejamos a la comunidad. Democrático, sí. Eficaz, no.

Y claro, cuando esto se traslade a Europa (porque todo apunta a que lo hará), se suma un nuevo problema: el idioma.

Como alerta Mündges, en X hay menos de 1.000 colaboradores activos para muchas lenguas europeas. ¿El resultado? Una nota en castellano puede tardar días, semanas… o nunca llegar. ¿Y mientras tanto? El bulo corre libre y gana terreno.

¿De verdad creemos que esto va a funcionar?

Hay algo que no encaja. Para que este sistema tenga sentido, deberíamos tener miles de personas bien formadas, con tiempo, con compromiso cívico, dispuestas a revisar publicaciones de forma rigurosa y objetiva. Todos los días. En todos los idiomas. En todas las plataformas.

No hace falta ser sociólogo para saber que eso no va a pasar.

Y no porque la gente no quiera ayudar. Sino porque la desinformación no se combate solo con buena voluntad. Requiere tiempo, conocimiento y —sobre todo— responsabilidad editorial. No puedes pedirle a un usuario que sepa discernir si un dato médico es falso o si una imagen está manipulada con IA. Para eso están los expertos.

¿Y ahora qué?

El problema no es solo técnico. Es ético. Porque si una plataforma como Facebook, con miles de millones de usuarios, decide que ya no tiene que asumir la responsabilidad de lo que se publica, y se la pasa a sus usuarios, lo que está haciendo es lavarse las manos.

Y eso, en tiempos de elecciones, crisis, guerras o pandemias, es jugar con fuego.

No necesitamos más botones para “añadir contexto”. Necesitamos reglas claras, consecuencias para quien miente y compromiso real de las plataformas con la verdad.

La verdad no es una encuesta

Lo más peligroso de las Notas de la Comunidad es que, sin darnos cuenta, convertimos la verdad en una cuestión de popularidad. Si la mayoría dice que algo no es falso, aunque lo sea, esa nota no se muestra. Si una mentira recibe muchos likes antes de que llegue la nota… ya es demasiado tarde.

Y así, poco a poco, la desinformación no se elimina: se normaliza. Se convierte en “una opinión más”. Y cuando todo es opinable, nada es confiable.

En resumen

  • Las Notas de la Comunidad en X no han funcionado.
  • Meta las adopta eliminando a los verificadores.
  • No hay consecuencias para quien difunde bulos.
  • Y encima dependeremos del juicio anónimo y parcial de usuarios que no conocemos.

¿Queremos eso como sistema de referencia para filtrar la verdad en internet?

Desde que usamos las redes sociales como plaza pública, donde todo el mundo opina, comparte, etiqueta y reinterpreta, es más importante que nunca defender el papel de quienes verifican con criterio, método y ética. Lo otro, lo que está haciendo Meta, puede sonar muy participativo, muy 3.0… pero es otra cosa: Es soltar la cuerda y mirar para otro lado.

Y eso, como bien decía Carmela Ríos, “no es bueno para las sociedades democráticas”.