La inteligencia artificial avanza a pasos agigantados, tanto que lo hace sin ningún tipo de control. Así lo aseguran un millar de expertos que han firmado un manifiesto para advertir sobre el peligro que supone la anarquía que predomina en este campo.
La explosión de los modelos de inteligencia artificial generativa, capaces de “conversar” y crear textos, imágenes o música a partir de datos existentes, como el popular Chat GPT, ha hecho que más de 5.500 expertos de todo el mundo, entre ellos el empresario Elon Musk, hayan dado la voz de alarma, y pedido una pausa.
Los científicos solicitan en una carta a los laboratorios que suspendan al menos seis meses el entrenamiento de sistemas de inteligencia artificial (IA) más potentes que GPT-4 (el último modelo de IA generativa de la empresa OpenAI).
Carles Sierra, director del instituto de inteligencia artificial del CSIC, y uno de los firmantes de la carta denuncia que “actualmente se está dando una especie de carrera armamentística” en la que están las empresas tecnológicas “para ver quién se queda con la mayor parte del pastel” en el que se han invertido miles de millones de euros. Sin embargo, “no están siendo prudentes”, asegura el director del instituto de IA del CSIC.
“Con la IA se está dando una carrera armamentística para ver quién se queda con la mayor parte del pastel”
Y es que a pesar de que sostiene que no es “en absoluto” un manifiesto contra la IA, ya que la consideran “beneficiaria de la humanidad”, los expertos consideran necesario poner el foco en los “riesgos para la sociedad y para la humanidad” que puede suponer.
Como sostiene Sierra, igual que los medicamentos “tienen que pasar una periodo de ensayo clínico de pruebas de verificación para ver que no hay efectos laterales, que el sistema funciona bien”, lo mismo se debe hacer con “estos sistemas de inteligencia artificial que se está abriendo al público en general”.
El foco se ha puesto, sobretodo, en la última versión del modelo de lenguaje que utiliza ChatGPT. Según sus creadores, mucho más precisa y con habilidades para resolver problemas más complejos. En la carta, los expertos señalan las consecuencias negativas de estos sistemas derivados de la llamada inteligencia artificial “generativa”. Ya que sostienen que se están volviendo competitivos para los humanos en tareas generales.
También alertan de que sus funciones puedan resultar un trampolín para la difusión de desinformación o para la destrucción de ciertos empleos, así como una problemática con la privacidad y el uso de los datos personales que hace este tipo de sistemas. De hecho , países como Italia ya han prohibido por este motivo el Chat GPT. Asimismo, la ONU también ha puesto de manifiesto su preocupación por los posibles impactos del rápido desarrollo de la inteligencia artificial y reclamó a las empresas del sector “responsabilidad” para evitar que estas nuevas tecnologías sean utilizadas con malos fines, apuntando a la modificación de imágenes, voces o textos que pueden derivar en desinformación, división, o violencia.
Desinformación
Por otro lado, como apunta Sierra, “estos sistemas buscan que el resultado sea verosímil, no necesariamente cierto, y que parezca que lo ha dicho, o hecho, un humano; y ahí reside, precisamente, el riesgo”. Es el caso de imágenes que han corrido como la pólvora en redes sociales en las últimas semanas. Imágenes hiperrealistas del papa Francisco con un plumas blanco o de Donald Trump resistiéndose a un arresto.
Por otro lado, el director del instituto de inteligencia artificial del CSIC, apunta al sesgo de los datos que estos sistemas pueden ofrecen como respuesta. “El riesgo está en la manipulación; en que la gente tome decisiones basadas en informaciones totalmente falsas, ya que pueden estar cometiendo graves errores”.
“Es decir que a propósito entrenen estos sistemas dándoles una versión de la historia que no se corresponde con la realidad”, puntualiza. Todo ello, motivos de peso para “al menos, sentarse y discutir cómo abordar el uso de estos sistemas”, sostiene el director del instituto de IA.
Es por eso que más de 5.000 expertos han solicitado un parón de medio año de pausa en este avance. Y, Sierra va más allá, pone el foco en la necesidad de crear un código deontológico. A nivel europeo, dice, habría que llevar la ley de inteligencia artificial de nuevo a la mesa de discusión, para especificar los riesgos de la IA generativa y cómo poner límites.
La ley, cuya aplicación se prevé este año, incluye la prohibición de prácticas como el reconocimiento facial en espacios abiertos y clasifica los riesgos de la IA en alto, moderado o de poco riesgo. Identifica por tanto sectores, como el educativo, en el que hay que tener especial salvaguarda y control.
Sin embargo, cuando se redactó la ley los sistemas de IA generativa estaban aún desarrollándose. “Ahora que los hay muy avanzados, habría que volver atrás y adaptar la norma”, defiende Sierra.
Sin embargo, no todo lo relacionado con los avances tecnológicos, y de inteligencia artificial son negativos. Y es que como recuerda el científico del CSIC, estos sistemas han traído incontables beneficios. Es el caso del sistema de diagnóstico de cáncer de piel, que permite melanomas, un sistema con un 95% de fiabilidad, que acelera el diagnóstico de la enfermedad.
Y no es el único ejemplo. Un equipo de neurocirujanos e ingenieros de varias universidades estadounidenses ha desarrollado un sistema de diagnóstico basado en inteligencia artificial que utiliza imágenes rápidas para analizar muestras tumorales tomadas durante una operación y detectar mutaciones genéticas con mayor rapidez, en menos de 90 segundos.
Futuro de la IA
Así las cosas, como expresa Sierra el objetivo “no es ir contra la tecnología”, el objetivo es poner de manifiesto “el problema que puede suponer poner estos sistemas en manos de cualquier persona”. Y sobre todo, “con esta fiebre de que cada mes va a salir un sistema diferente, con lo que ello conlleva, es decir, “que no van a haber evaluado el sistema previamente”.
Por eso, subraya que hay que calmar un poco los ánimos tras el revuelo causado tras la publicación del manifiesto, y resume la problemática: “Lo único que hay que vigilar es que los intereses económicos no generen que se pongan a disposición de la gente sistema que están poco testeados”, concluye Carles Sierra.
Chat GPT, en el ojo del huracán
Advierten sobre su uso. El ‘chatbot’ de inteligencia artificial ChatGPT ha irrumpido con fuerza en los últimos meses por sus conversaciones similares a las que puedes tener como humano, en las que los usuarios pueden introducir cualquier pregunta y el sistema genera una respuesta basada en la información almacenada en su base de datos. Millones de usuarios ya lo están utilizando para ayudar en tareas de programación, redactar emails, traducir textos o, en ocasiones, preguntarle acerca de información más sensible, como temas médicos. Pese a que suele acertar en sus respuestas, muchos expertos han advertido de que fiarse completamente de la información o datos que aporta tiene sus riesgos.