Desde 2022, empresas estadounidenses, consumidores e incluso las Naciones Unidas han utilizado grandes modelos lingüísticos: sistemas de inteligencia artificial (IA) como ChatGPT, entrenados para crear texto que se lee como si estuviera escrito por humanos, según desvelan investigadores de la Universidad de Stanford (Estados Unidos). En concreto, en la revista 'Patterns' de Cell Press, revelan que la IA ya se utiliza en un promedio del 17% del contenido escrito corporativo y gubernamental analizado, desde ofertas de empleo hasta comunicados de prensa, y es probable que esta tasa siga aumentando.

"Esta es la primera revisión exhaustiva del uso de la escritura asistida por IA en diversos sectores de la sociedad", asegura el autor correspondiente James Zou, de la Universidad de Stanford. "Pudimos observar los patrones de adopción entre diversas partes interesadas y usuarios, y todos mostraron una tendencia al alza muy consistente en los últimos dos años".

Detección de IA

Los modelos de lenguaje de gran tamaño estuvieron ampliamente disponibles para el público a finales de 2022. Hoy en día, más de mil millones de personas en todo el mundo los utilizan regularmente.

Zou y su equipo decidieron usar un programa de detección de IA que habían desarrollado previamente para investigar los patrones de adopción de estas herramientas en cuatro contextos de escritura diferentes: quejas de consumidores en Estados Unidos, comunicados de prensa de empresas, comunicados de prensa de la ONU y ofertas de empleo. Recopilaron textos publicados entre enero de 2022 y septiembre de 2024 en cada uno de estos dominios y los procesaron con el programa.

Para comenzar, el equipo analizó más de 687.000 quejas presentadas entre 2022 y 2024 ante la Oficina de Protección Financiera del Consumidor (CFPB), una agencia del gobierno estadounidense encargada de proteger a los consumidores de los bancos y otras entidades financieras. Descubrieron que aproximadamente el 18% de estas quejas probablemente fueron redactadas por IA.

Para los comunicados de prensa corporativos, los investigadores analizaron el texto publicado en tres importantes plataformas de noticias en EE. UU.: Newswire, PRWeb y PRNewswire. Descubrieron que, desde el lanzamiento de ChatGPT, casi una cuarta parte de los comunicados en estos sitios fueron generados por IA. En particular, los comunicados de ciencia y tecnología registraron la mayor tasa de uso de IA a finales de 2023.

Aumento del contenido escrito por IA

En cuanto a las ofertas de empleo, los investigadores descubrieron que las publicaciones de grandes empresas en LinkedIn tenían menos probabilidades de ser redactadas por IA. Sin embargo, tras investigar las ofertas de empleo de empresas más pequeñas, descubrieron que los modelos de lenguaje de gran tamaño probablemente ayudaron en aproximadamente el 10% de las publicaciones.

El equipo también analizó los comunicados de prensa de la ONU escritos en inglés. Detectaron un aumento significativo en la redacción asistida por IA, del 3% a principios de 2023 a más del 13% a finales de 2024.

En general, los investigadores descubrieron que la proporción de contenido marcado como escrito principalmente por IA aumentó drásticamente, del 1,5% antes del lanzamiento de ChatGPT en noviembre de 2022 a más del 15% en agosto de 2023. Después de eso, el crecimiento se desaceleró y la tasa de adopción de IA fue de aproximadamente el 17% en agosto de 2024.

"Estas estimaciones probablemente reflejen un límite inferior de las tasas de adopción reales", apunta Zou. El detector que utilizaron no puede diferenciar con precisión los textos con una gran cantidad de edición humana, señala. Zou también afirma que la herramienta de detección de IA funciona mejor con una gran cantidad de texto. No podría determinar con precisión si un solo artículo utilizó IA.

"Espero que en el futuro las tasas de adopción sigan aumentando, pero probablemente no tan rápidamente como las del primer año", confirma Zou.

Como ocurre con todas las nuevas tecnologías, es difícil determinar si estos modelos de IA son simplemente 'buenos' o 'malos'. Siguen cometiendo errores, así que si las personas externalizan completamente su trabajo a estas herramientas y no se molestan en comprobar su precisión, podrían cometer errores en su redacción.