Síguenos en redes sociales:

Ojo con las encuestas, la llegada de IA puede falsearlas a gran escala

Las respuestas dadas por sofisticados bots que se hacen pasar por humanos reales consiguen pasar los controles que intenta impedir el uso de inteligencia artificial

Ojo con las encuestas, la llegada de IA puede falsearlas a gran escalaFreepik

La Inteligencia Artificial (IA) puede corromper las encuestas de opinión pública a gran escala, pasando todos los controles de calidad, imitando a humanos reales y manipulando los resultados sin dejar rastro, según la investigación La potencial amenaza existencial de los grandes modelos lingüísticos para la investigación mediante encuestas en línea dirigida por el profesor Sean J. Westwood, de la Universidad de Dartmouth (New Hampshire, Estados Unidos).

Los hallazgos, publicados en la revista PNAS muestran cuán vulnerables se han vuelto las encuestas. Para el estudio, los investigadores trabajaron sobre las siete principales encuestas nacionales antes de las elecciones presidenciales de 2024 en Estados Unidos, y comprobaron cómo al agregar tan solo de 10 a 52 respuestas falsas de inteligencia artificial, a cinco centavos cada una, habría cambiado el resultado previsto de las mismas.

¿La encuesta la ha rellenado una persona o un bot?

Desconfianza sobre las respuestas

Esto plantea que los adversarios de quien lance la encuesta, sean extranjeros o internos, podrían explotar fácilmente esta debilidad. Los bots utilizados funcionan en esta labor de interferencia con eficacia incluso cuando están programados en lenguas como ruso, mandarín o coreano, produciendo respuestas impecables en inglés en los casos analizados.

“Ya no podemos confiar en que las respuestas a las encuestas provengan de personas reales”, dice el autor del estudio, Sean Westwood, profesor asociado de gobierno en Dartmouth y director del Laboratorio de Investigación de Polarización, quien realizó la investigación.

El análisis

Para examinar la vulnerabilidad de las encuestas en línea a los grandes modelos de lenguaje, Westwood creó una herramienta de IA simple, “un encuestado sintético autónomo”, explicó Westwood, que opera a partir de una instrucción de 500 palabras. En 43.000 pruebas, la herramienta de inteligencia artificial pasó el 99,8% de las comprobaciones de atención diseñadas para detectar respuestas automatizadas, no cometió errores en los acertijos lógicos y ocultó con éxito su naturaleza no humana.

La herramienta creada adaptó las respuestas según datos demográficos asignados aleatoriamente, como proporcionar respuestas más simples cuando se le asignaba menos educación. “Estos no son bots toscos”, insiste Westwood. “Piensan en cada pregunta y actúan como personas reales y cuidadosas, lo que hace que los datos parezcan completamente legítimos”.

Cuando se programaron para favorecer a los demócratas o a los republicanos, los índices de aprobación presidencial oscilaron entre el 34% y el 98% o el 0%. El apoyo genérico en las elecciones pasó del 38% a los republicanos al 97% o al 1%.

Conflicto más allá de la política

Las implicaciones van mucho más allá de las encuestas electorales. Las encuestas son fundamentales para la investigación científica en todas las disciplinas: en psicología para comprender la salud mental, en economía para rastrear el gasto del consumidor y en salud pública para identificar los factores de riesgo de las enfermedades. Miles de estudios revisados por pares que se publican cada año se basan en datos de encuestas para fundamentar la investigación y dar forma a las políticas. “Con datos de encuestas contaminados por bots, la IA puede envenenar todo el ecosistema del conocimiento”, resume Westwood.

Los incentivos financieros para usar IA para completar encuestas son evidentes. Los encuestados humanos suelen ganar 1,50 dólares por completar una encuesta, mientras que los bots de IA pueden completar la misma tarea de forma gratuita o por aproximadamente cinco centavos. El problema ya se está materializando, ya que un estudio de 2024 descubrió que el 34% de los encuestados había usado IA para responder una pregunta abierta de la encuesta.

Nueva metodología

Westwood probó todos los métodos de detección de IA que se utilizan actualmente y todos fallaron en identificar la herramienta de IA. Su estudio aboga por la transparencia de las empresas que realizan encuestas, exigiéndoles que demuestren que sus participantes son personas reales.

“Necesitamos nuevos enfoques para medir la opinión pública que estén diseñados para un mundo de IA”, concluye Westwood. “Existe la tecnología para verificar la participación humana real; solo necesitamos la voluntad de implementarla. Si actuamos ahora, podemos preservar tanto la integridad de las encuestas como la rendición de cuentas democrática que proporciona”.