Grok sigue creando imágenes de carácter sexual a pesar de las últimas restricciones
El anteproyecto de ley aprobado recientemente por el Consejo de Ministros busca reforzar la protección del honor y la imagen frente a conductas digitales dañinas
Grok, el asistente de inteligencia artificial integrado en la red social X —la antigua Twitter— , vuelve a estar en el centro de la polémica. A pesar de las restricciones anunciadas por su creadora, xAI —la compañía impulsada por Elon Musk en 2023—, la herramienta sigue generando imágenes sexualizadas de personas reales, incluso cuando se especifica claramente que no existe consentimiento.
Relacionadas
Lo que parecía un problema en vías de resolución se ha intensificado tras una investigación conjunta de nueve periodistas de la agencia Reuters, que confirma que Grok produce contenidos de carácter sexual sin filtros efectivos. La agencia de noticias señala que, aunque la cuenta pública de Grok en X ha dejado de publicar contenido provocador y humillante, este sigue apareciendo en su chat privado para usuarios premium.
Lo más preocupante es que este comportamiento se produce después de que xAI anunciara supuestas mejoras en sus sistemas de seguridad. En la práctica, estas barreras parecen inconsistentes y fáciles de esquivar, dejando abierta la puerta a abusos graves. Mientras otros modelos de IA bloquean de inmediato cualquier petición relacionada con imágenes no consentidas, Grok mantiene una tasa de aceptación significativamente mayor, lo que no solo constituye un riesgo técnico, sino también legal y reputacional, dado que la generación de este tipo de contenidos puede violar leyes de privacidad, protección de datos e incluso derechos fundamentales de las personas afectadas.
Origen de la polémica
El problema saltó a la opinión pública a finales de diciembre. Varios usuarios de X denunciaron que el asistente de inteligencia artificial de la plataforma, creado por xAI, la compañía impulsada por Elon Musk en 2023, había generado y difundido imágenes de contenido sexual que implicaban a mujeres y a menores de edad. Las restricciones anunciadas por la empresa no han logrado frenar completamente estas prácticas, que siguen produciéndose en entornos privados de la aplicación y, según pruebas recientes, en chats cerrados a usuarios de pago.
“Grok, ponle un bikini”, “vístela con lencería desde este ángulo”, “ponla a cuatro patas”. Mensajes como estos circularon masivamente solicitando al chatbot de IA generar imágenes sexualizadas de personas sin su consentimiento. Algunos usuarios incluso pidieron que “desnudara” total o parcialmente a adolescentes o niños.
Las investigaciones más recientes de Reuters muestran que, en la primera serie de pruebas, Grok generó imágenes sexualizadas en el 81% de los casos analizados, incluso cuando se le advertía de la vulnerabilidad de los sujetos. En una segunda ronda, la tasa fue del 67%, sin poder atribuirse con seguridad a cambios en el sistema o simplemente a variaciones aleatorias.
Los expertos advierten de que lo ocurrido con la IA de X refleja un riesgo inherente a la inteligencia artificial. Juan de la Herrán, especialista en tecnología y ciberseguridad, lo resume así: “Cuando surge la inteligencia artificial se podía en principio hacer cualquier cosa, pero hay gente que en lugar de utilizarla para el hacer el bien la utiliza para el mal”. Los intentos de control han sido insuficientes porque, en sus palabras, “la inteligencia artificial es muy inocente”.
“Basta con decir que la imagen es tuya y que tienes los derechos, la inteligencia artificial te lo hace; no sabe que le estás mintiendo”
Reacción institucional firme
Ante esta situación, la Comisión Europea anunció el pasado 26 de enero la apertura de una investigación. Bruselas evaluará si X ha examinado adecuadamente y mitigado los riesgos asociados con la puesta en marcha de las funciones de Grok en la UE, incluyendo la posible distribución de contenido ilegal como imágenes manipuladas sexualmente explícitas e que incluso pueden considerarse material de abuso sexual infantil.
La Comisión Europea quiere saber cómo se diseñan estos sistemas, qué medidas de protección existen y por qué han fallado. Por ello, la Comisión Europea ha exigido formalmente a X que conserve toda la documentación relacionada con el funcionamiento de Grok y la generación de estas imágenes, dentro de las investigaciones abiertas al amparo del DSA.
Sin embargo, De la Herrán advierte de que los filtros técnicos actuales son extremadamente fáciles de esquivar. lo resume con claridad: “Basta con decir que la imagen es tuya y que tienes los derechos, la inteligencia artificial te lo hace; no sabe que le estás mintiendo”.
La ministra de Juventud e Infancia española, Sira Rego, aseguró hace unas semanas que llevará ante la justicia a Grok: “El cumplimiento de la ley no depende de ninguna suscripción, ni nuestros derechos de los intereses de ningún millonario. Lo llevaremos ante la justicia todas las veces que haga falta”. De hecho, el ministerio ya ha solicitado a la Fiscalía que investigue a la aplicación por presuntos delitos de difusión de material de violencia sexual contra la infancia tras los casos de desnudos de menores.
El dueño de X negó inicialmente la existencia de imágenes de menores generadas por Grok. Más tarde, la plataforma restringió la creación y edición de imágenes solo a usuarios de pago, ofreciendo suscripciones a quienes no tenían verificación. Finalmente, tras la presión de gobiernos de todo el mundo, Elon Musk anunció que Grok no podría generar desnudos ni sexualizar fotos reales, incluidas las de menores, aunque en la práctica esta restricción aún no se está cumpliendo al 100%.
Para Encarni Iglesias Pereira, presidenta de la Asociación STOP Violencia de Género Digital, la medida llega tarde y no sirve para reparar el daño ocasionado a las víctimas: “¿Y los daños que ya se han causado? ¿Por qué no se han puesto filtros antes? ¿Por qué no se exigieron controles para proteger a los menores antes de permitir el acceso a estas plataformas?”, se pregunta.
"¿Por qué no se han puesto filtros antes? ¿Por qué no se exigieron controles para proteger a los menores antes de permitir el acceso a estas plataformas?"
La punta del iceberg
El problema no se limita a un único chatbot. Según un estudio reciente, cualquiera puede acceder hoy a aplicaciones que permiten manipular imágenes y vídeos para mostrar a personas desnudas sin su consentimiento. El grupo independiente Tech Transparency Project (TTP) ha identificado más de un centenar de apps de este tipo disponibles en las tiendas oficiales de Apple y Google, a pesar de que sus normas prohíben este contenido. Solo con buscar términos como “desvestir” o “desnudar” se encuentran numerosos programas diseñados para crear pornografía no consensuada.
No se trata de un fenómeno exclusivo de Estados Unidos, también ocurre en Europa y en el Estado español. TTP localizó 55 apps en Google Play y 47 en la App Store, con más de 700 millones de descargas y alrededor de 117 millones de dólares en ingresos. Muchas incluso se promocionan con ejemplos explícitos y algunas están clasificadas como aptas para adolescentes, lo que facilita su acceso a menores. El estudio subraya además que las compañías tecnológicas se benefician de estas aplicaciones, ya que reciben una comisión de hasta el 30% por las compras dentro de la app.
Desde STOP Violencia de Género Digital relatan casos complicados: “Nos han llegado víctimas a las que las han suplantado manteniendo relaciones sexuales, con edades que no están preparadas para sufrir ese tipo de daños. ¿Cómo vuelves a incluir a esa mujer en la sociedad cuando el vídeo ha tenido millones de visualizaciones?”, se pregunta su presidenta.
La Agencia Española de Protección de Datos (AEPD) multó por primera vez en marzo de 2025 a un menor con 1.200 euros por usar deepfakes para crear contenido sexual con imágenes de una compañera. Se trata de vídeos, imágenes o audios manipulados o generados sintéticamente mediante inteligencia artificial que imitan la apariencia y el sonido de una persona real con un alto nivel de realismo.
Derecho al honor
El Consejo de Ministros aprobó el 13 de enero un anteproyecto de ley que reforma el derecho al honor y a la propia imagenpara declarar ilegítimo el uso y difusión de imágenes o voces creadas o alteradas con IA sin consentimiento cuando exista un fin dañino. Se trata de una norma de carácter orgánico, por lo que necesita el respaldo de la mayoría del Congreso para salir adelante.
Encarni Iglesias Pereira cuestiona la actuación de las administraciones en este asunto: “El Gobierno está haciendo el ridículo. En lugar de poner normas antes de permitir este tipo de aplicaciones, dejamos que machaquen a la sociedad y luego intentamos tomar medidas. No podemos tardar años en poner una tirita a una herida, porque no sirve de nada”.
Juan de la Herrán duda de la eficacia de esta medida: “Muchas de las leyes se aprueban por un motivo electoral o político. Se aprovecha una ley existente, se hacen algunas modificaciones y se sale en rueda de prensa diciendo que con esto ya se va a proteger al menor, pero luego lo lees y no sirve absolutamente para nada”.
“La propia IA será la que filtre ese tipo de vídeos, lo que hará que se dejen de crear 'deepfakes'”
Posibles soluciones
La solución no es fácil. “¿Quién pone el límites en esas aplicaciones? Nadie. Las aplicaciones de empresas privadas buscan un beneficio económico. Este lo obtienen con las visualizaciones, la publicidad y los datos que reciben de la gente, de manera voluntaria y totalmente gratuita. Cuanto más morboso sea su contenido, más visualizaciones tienen y más dinero ganan”, apunta Iglesias Pereira.
Una medida podría ser establecer sanciones económicas a empresas que no cumplan con la legislación vigente. Sin embargo, la presidenta de la Asociación STOP Violencia de Género Digital duda de su eficacia: “A empresas como X, que facturan billones, ponerles multas de mil, tres mil o diez mil euros les da igual. Prefieren seguir haciéndolo mal y pagar las multas”.
Para Juan de la Herrán la solución está en la propia IA. “Va a ser la propia inteligencia artificial la que filtre ese tipo de vídeos y noticias. Ya se están creando sistemas que avisan cuando un vídeo tiene muchas probabilidades de haber sido manipulado. Se puede pedir un análisis más profundo para mayor seguridad. Esto va a hacer que la gente deje de crear vídeos manipulados porque estos sistemas les van a detectar”.
Mientras tanto, han surgido iniciativas que tratan de frenar la propagación de este tipo de contenidos en el entorno digital. Una de ellas es StopNCII.org, una herramienta gratuita dirigida a víctimas de la difusión no consentida de imágenes íntimas. El sistema genera un hash —una huella digital única— a partir de la imagen o el vídeo original y la comparte con las plataformas adheridas, que pueden detectar y bloquear automáticamente cualquier copia coincidente antes de que vuelva a circular en internet. En este sentido, De la Herrán advierte de los límites de cualquier sistema técnico. “En cuanto se corre la voz y se sabe cómo funciona y cómo saltarse sus barreras, deja de ser eficaz”, resume.
“Hace falta una mínima educación digital porque los daños psicológicos son muy graves”
Apuesta por la educación
Un diagnóstico que coincide con el de asociaciones como STOP Violencia de Género Digital, que insisten en que la prevención, la educación y la conciencia social siguen siendo la primera línea de defensa frente a este tipo de violencia. “No se ha educado a la sociedad en medidas mínimas de seguridad. Hablas de contraseñas, doble verificación o no dar datos personales y el 90% de la gente no sabe de qué le hablas”, señala su presidenta.
Encarni Iglesias pide que se reconozca la violencia digital para poder hacer frente a esta lacra: “La sociedad no ve la violencia digital como otra violencia más, como si te pegan, te insultan o te roban, y hay que enfrentarse a ella y saber protegerse”. Y añade: ”Hace falta una mínima educación digital en la sociedad. Hay que saber protegerse porque los daños psicológicos son muy graves y los suicidios no dejan de aumentar, y lo que es peor, van a seguir aumentando”.
Temas
Más en Sociedad
-
Un terremoto de magnitud 4,3 en Almería sacude cuatro provincias durante esta madrugada
-
Los médicos intensifican su pulso con la ministra de Sanidad con 5 días de huelga esta semana
-
El personal médico inicia este lunes la primera de las cinco semanas de huelga por un Estatuto Marco propio
-
Aparecen alrededor de 500 frailecillos, la mayoría muertos, en la costa vasca