Síguenos en redes sociales:

Por qué un chatbot de IA puede responder de forma diferente a una misma pregunta

Las respuestas que ofrecen estos asistentes virtuales se basan en probabilidades y en los datos de los que beben, por lo que pueden incluir errores e incluso desinformación

Por qué un chatbot de IA puede responder de forma diferente a una misma pregunta

Aunque lainteligencia artificial (IA)avanza a una velocidad de vértigo, las respuestas que ofrecen los chatbots de IA a los usuarios siguen sin ser infalibles. Los modelos conversacionales, aparentemente, lo saben todo de casi todo, pero lo cierto es que lo que dicen no siempre es fiable. Y además, un mismo chatbot no siempre va a responder igual a una misma pregunta.

Sistemas como ChatGPT, Grok o la vista creada con IA de Google generan sus respuestas basándose en probabilidades y en los datos de los que beben, así que cada vez que predicen un resultado, este puede ser distinto en redacción y en contenido. El peligro es que en esas diferencias se pueden colar datos incorrectos, descontextualizados y desinformación. 

Modelo de lenguaje

¿Y por qué un chatbot de IA puede responder de manera distinta a una misma pregunta? Esto se debe a que funciona gracias a un modelo de lenguaje de gran tamaño (LLM, por sus siglas en inglés). Se trata de modelos matemáticos que han sido entrenados con grandes cantidades de texto para tratar de predecir cómo es más probable que continúe una frase

Las respuestas se basan en probabilidad, según el prompt (instrucción de texto) y lo aprendido durante su entrenamiento, por lo que el resultado de la predicción puede ser distinto.

"Aprenden patrones estadísticos, no reglas humanas", señala a Maldita.es Liany Mendoza, especialista en desarrollo de software e interacción humano-computadora. Por eso, aunque la pregunta sea la misma, no hay una única respuesta correcta. 

Carmen Torrijos, lingüista computacional y responsable de IA en Prodigioso Volcán, precisa a Maldita.es que "es una tecnología predictiva que fabrica la respuesta cada vez, no la tiene guardada".

Recreación de un diálogo entre un usuario y un chatbot.

Actualizaciones del modelo

Otros factores también influyen, como el historial de la conversación, si el sistema está conectado a internet y la información del usuario, como la ubicación o el idioma. Julián Estévez, profesor e investigador en inteligencia artificial, indica a Maldita.es que las versiones y actualizaciones del modelo pueden cambiar el resultado: "Si consultas un LLM en diferentes días, puede que interactúes con diferentes versiones del mismo".

Datos incorrectos y desinformación

Cuando estas respuestas varían, no solo cambia la redacción: también pueden incluir datos incorrectos o descontextualizados y generar desinformación. Por eso siempre hay que contrastar lo que responde una IA con fuentes de información fiables.

Ocurrió, por ejemplo, con Grok, la IA de la red social X. Ante preguntas sobre una fotografía histórica, ofrecía versiones distintas sobre fecha, lugar y autor, pero todas equivocadas: atribuía la imagen a Estados Unidos durante la Gran Depresión, cuando en realidad fue tomada en Málaga durante el franquismo, según el archivo histórico de la Universidad de Málaga.

También ha sucedido con la vista creada con IA de Google, una función que genera un resumen con Gemini, la IA de la empresa, para responder a nuestras búsquedas. 

Ha pasado con el bulo de los aviones Canadair: circula un contenido que asegura que los 14 aviones Canadair en servicio en España se compraron en 1971 con el franquismo, pero es falso, se compraron durante la democracia. Sin embargo, la vista creada con IA de Google generó un resumen en el que indicaba que fuentes de Maldita.es dicen que no se ha comprado ningún avión Canadair desde Franco (algo que es falso y que además Maldita sí ha desmentido). Maldita.es han repetido la misma búsqueda y, en otras ocasiones, no genera esta vista con IA, pero posiciona el artículo al respecto como primer enlace.