Síguenos en redes sociales:

Claude, el chatbot 'responsable' de Anthropic, también quiere ahora tus datos

La compañía de IA, que nació como una inteligencia artificial ética y segura bajo la promesa de privacidad total, sigue los pasos de OpenAI, Google y Meta

Claude, el chatbot 'responsable' de Anthropic, también quiere ahora tus datos

Anthropic, la compañía que en su nacimiento prometía una inteligencia artificial (IA) ética y segura, ha dado un giro clave en su estrategia. A partir de ahora, las conversaciones de los usuarios con su chatbot Claude serán utilizadas para entrenar nuevos modelos de lenguaje, salvo que el usuario indique lo contrario. De esta forma, la IA que se comprometía a una privacidad total se alinea con gigantes como OpenAI, Google o Meta.

Y este no es el único movimiento que ha realizado la empresa recientemente, ya que también ha cerrado un acuerdo millonario con autores y editoriales para resolver una demanda por el uso no autorizado de libros en el entrenamiento de Claude. 

Aunque no ha trascendido la lista completa de títulos ni de autores, se estima que la media pagada es de unos 3.000 dólares por obra (2.555 euros), lo que ha sido interpretado como un gesto de buena voluntad, pero también de estrategia por parte de la empresa.

Una mujer dialoga con una IA a través de un chat.

Dónde queda la ética que prometían

Anthropic fue fundada en 2021 por Dario y Daniela Amodei, antiguos directivos de OpenAI que rompieron con su excompañía para construir una IA más responsable. Su proyecto apostó por lo que llamaron Constitutional AI, un enfoque basado en principios éticos escritos, que guían el comportamiento del chatbot Claude sin depender solo del feedback humano.

Uno de los grandes aspectos que la diferenciaba de sus rivales era la promesa de no usar las conversaciones privadas para mejorar el sistema, pero esa promesa ya no existe. "El cambio es una mezcla de necesidad competitiva y pragmatismo", explica Antonio Pita, profesor de la Universitat Oberta de Catalunya (UOC) y experto en IA. "No hacerlo era competir con desventaja", aclara.

Ventajas y riesgos

Desde el punto de vista técnico, entrenar con datos reales tiene beneficios como mejorar la precisión, acelerar el aprendizaje del modelo y permitir adaptarlo a contextos reales; sin embargo, también tiene desventajas y la principal es la pérdida de confianza por parte de quienes valoraban a Claude por su respeto a la privacidad.

"Este giro puede diluir la identidad que hizo destacar a Anthropic en un mercado saturado", advierte Pita, y "ahora tiene que demostrar que puede usar datos sin sacrificar la transparencia ni el control por parte del usuario".

Intercambio de mensajes en un chat de inteligencia artificial.

Acuerdo con los autores

Mientras OpenAI sigue batallando en tribunales por demandas similares, Anthropic ha optado por resolver el problema por la vía rápida: ha pagado una suma histórica para cerrar un acuerdo extrajudicial con varios autores y editoriales estadounidenses.

Aunque los detalles no son públicos, el mensaje es claro: prefieren pagar ahora para evitar conflictos futuros. "No es solo un acuerdo legal, es una declaración estratégica", dice Pita. "No solo buscan resultados, sino que quieren proyectar una imagen de empresa que respeta a los creadores", añade.

Distintas visiones

Este cambio de rumbo llega en un momento de alta tensión entre Anthropic y OpenAI. En agosto, Anthropic revocó el acceso de OpenAI a la API de Claude, acusándola de usarla para preparar el lanzamiento de GPT‑5 y en defintiva de la violación de los términos de uso.

"La pelea no es anecdótica: son dos visiones del futuro de la IA que están chocando", resume el experto. "Una quiere dominar el mercado a toda costa, la otra busca distinguirse por sus principios… aunque ahora empieza a ceder", señala.

Cómo le afecta al usuario

Que Claude empiece a usar tus conversaciones para entrenarse tiene dos caras: mientras que por un lado mejora el producto, por otro compromete la privacidad. Anthropic asegura que habrá opciones claras para excluirse del entrenamiento, pero muchos usuarios estarán atentos a ver si eso se cumple. 

Consciente de la dificultad, Pita concluye que "el futuro de Claude se juega en un equilibrio difícil: seguir mejorando sin traicionar la confianza de quienes lo eligieron por su diferencia". Sin duda, todo un reto.