Un primer paso para poner límites a la expansión sin control de la inteligencia artificial. Es lo que ha hecho el Parlamento europeo esta misma semana, que ha acordado las primeras medidas por las que apuestan en la futura ley para regular la IA.  

Tras el manifiesto firmado hace tan solo unos meses por expertos del sector pidiendo “frenar la inteligencia artificial por ser una amenaza para la humanidad”, la Cámara acordó esta misma semana con una mayoría holgada limitar el desarrollo de algunas de las tecnologías más polémicas.

Es el caso, por ejemplo, de Chat GPT. De ahora en adelante, según lo acordado en Bruselas, la eurocámara apuesta por obligar a avisar de que sus contenidos se han generado artificialmente. Así, el pleno reclama reglas estrictas para la Inteligencia Artificial en la Unión Europea, con un enfoque basado en el nivel de riesgo y restricciones en función del mismo.

Según explica Carles Sierra, director del Instituto de Inteligencia Artificial del CSIC, uno de los aspectos más destacables de este acuerdo, es que se ha puesto el foco precisamente en los sistemas de IA generativa como Chat GPT. Y es que “la alerta se planteó porque hay empresas que ponen en el mercado productos que no están totalmente cocinados y que pueden tener riesgos no analizados”.

DESDE 2021

De esa manera, la nueva Ley europea parte de la propuesta presentada en abril de 2021 por la Comisión Europea para fijar estándares de seguridad y de derechos fundamentales que eviten que la tecnología se use con fines represivos, de manipulación o discriminatorios.

En este contexto, Bruselas abogó por distinguir sistemas de “alto riesgo” para prohibir “en principio su uso” pero dejando la puerta abierta a su autorización en circunstancias excepcionales y previa autorización judicial, por ejemplo en el caso de la vigilancia biométrica. Así, como sostiene Sierra, los niveles de riesgo están “bien puestos”, además, “será un documento que se irá revisando, por lo que cabe la posibilidad de ir añadiendo elementos al listado”.

Los eurodiputados, sin embargo, van más allá y apuestan por prohibir totalmente el uso de herramientas para la vigilancia biométrica, el reconocimiento de emociones y los sistemas policiales predictivos.

Para ello, plantean que esos sistemas sean incluidos en el listado propuesto por Bruselas de herramientas que plantean un “riesgo inaceptable” y deben quedar prohibidas en todo caso. En dicha lista figura ya el veto, por ejemplo, a aplicaciones como el sistema que utiliza China para vigilar a sus ciudadanos, o a mecanismos de manipulación de la voluntad, por ejemplo instalados en juguetes con asistente de voz para incitar al menor a comportamientos peligrosos.

De esta forma, Europa aspira a vetar los sistemas de identificación biométrica remota, en tiempo real o no, en espacios públicos. Es el caso de los sistemas de categorización biométrica que utilicen características identitarias como el género, la raza o la religión y los sistemas policiales predictivos.Y es que el director del instituto de inteligencia artificial del CSIC sostiene que es una de las medidas introducidas “para preservar los valores básicos de las personas”. Pero no es la única medida en la que la Eurocámara hace hincapié. También defenderán prohibir el uso de sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza; así como el rastreo de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial.

Por otro lado, piden considerar de alto riesgo sistema de IA que puedan afectar significativamente al medio ambiente o a la salud, a la seguridad o los derechos fundamentales de las personas, y aquellos que puedan influir en los votantes y el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de redes sociales (con más de 45 millones de usuarios).

UN PRIMER PASO

La nueva legislación europea, pionera en el plano global, también establecerá normas estrictas para el uso de modelos de lenguaje artificial como ChatGPT, sistemas para los que los que “habrá requisitos de transparencia”, en especial para que deban alertar de que los contenidos han sido generados con Inteligencia Artificial y no se trata, por ejemplo, de imágenes reales, “y no lleven así a engaño”, asegura Sierra.

Como conclusión del primer paso hacia el coto pionero de la inteligencia artificial, Sierra sostiene que “el objetivo es regular el mercado y que las empresas sepan los límites que no puedes sobrepasar, las líneas rojas”. Así, define estas medidas como “un paso adelante que calmará el pánico que se había creado en los últimos meses”, ya que afirma que había calado en la sociedad el mensaje de que la IA “iba a acabar con nosotros”. Pero, nada más lejos de la realidad: “Tiene potenciales beneficios para la humanidad, y siempre un botón de stop”, zanja el experto.