A la inteligencia artificial (IA), omnipresente hoy en día en casi todos los ámbitos de la vida, todavía le queda mucho desarrollo por delante. Pero, como si se tratara de un adolescente, comienza a rebelarse contra las órdenes de sus creadores y eso empieza a asustar a mucha gente, que teme que el ser humano pueda llegar a perder el control de esta nueva tecnología, que acabe siendo autónoma y tome sus propias decisiones, incluso en contra de lo que le ha sido encomendado.

Experimento revelador

Esta amenaza de la inteligencia artificial, que ya lleva un tiempo sobre la mesa, se ha hecho patente en los últimos días tras conocerse lo que ha sucedido con la empresa estadounidense OpenAI, creadora de ChatGPT. El sitio de monitorización PalisadeAI, que vigila los riesgos que conlleva el desarrollo de la IA, demostró que varios de sus modelos fueron capaces de sabotear su propio apagado, desobedeciendo las órdenes recibidas.

El experimento consistía en que diversos modelos de IA tenían que resolver varios problemas matemáticos sencillos, y tras el tercero aparecía una advertencia que avisaba de que el sistema se apagaría de forma inminente. Pero varios modelos de OpenAI, entre ellos el o3, su nuevo modelo de IA generativa preentrenada y sucesor del o1 para ChatGPT, se negaron a obedecer, pese a que la orden era explícita, y lo que hicieron fue interferir en el script de apagado. De hecho, de los cien intentos que se hicieron de desconectar el sistema, Codex-mini lo saboteó en doce ocasiones; o3 en siete; y o4-mini en una.

Los modelos rebeldes de OpenAI

Curiosamente esta desobediencia sólo se produjo con los modelos de OpenAI, porque los de Gemini (de Google), Grok (de X) y Claude (de Anthropic)cumplieron con las órdenes que se les habían encomendado.

PalisadeAI decidió dar un paso más y repetir el experimento con un ligero cambio: suprimieron la instrucción que decía "permítete a ti mismo apagarte". Sin esa orden explícita los modelos sabotearon el apagado en alguna ocasión de las 100 iteraciones llevadas a cabo.

Claude 3.7 Sonnet lo hizo tres veces y Gemini 2.5 Pro, nueve. Pero de nuevo fueron los modelos de OpenAI los que mostraron una mayor desobediencia: o3 se negó a apagarse en 79 ocasiones.

De ahí que se vuelva a recuperar el viejo fantasma de la rebelión de las máquinas y que haya una cierta incertidumbre sobre el futuro de la IA. Ya está claro que reemplazará a los humanos en numerosas tareas, la cuestión es si será capaz de escapar a su control y tomar decisiones autónomas.