La Escuela Abierta de la Ciudadanía de Vitoria (HEI), el espacio municipal de encuentro que intenta fomentar el pensamiento crítico, inaugurará las actividades que llevará a cabo hasta diciembre con un tema de gran interés y de rabiosa actualidad: el de cómo afecta la inteligencia artificial a la vida de las personas. Lo hará con una mesa redonda, que se celebrará el miércoles desde las 18.00 horas en el Palacio Europa, con la presencia de cuatro expertos de distintas áreas: Stefano Balbi, Ainara Larrondo, Juli Ponce y Hannot Rodríguez, que debatirán sobre los claroscuros de esta potente tecnología.Entre ellas, el contenido falso que está generando, como deepfakes.
De estas últimas, por ejemplo, se encargará de hablar Ainara Larrondo Ureta, profesora titular de Periodismo en la UPV/EHU y responsable del grupo de investigación Gureiker, que comenzará su intervención tratando que los asistentes reflexionen sobre la importancia de los medios de calidad, la información noticiosa profesional y de calidad y explicará los cambios que ha traído la tecnología.
“Voy a poner el acento en la cuestión de los desórdenes informativos, sobre todo, la desinformación y cómo la tecnología, la IA, presenta claroscuros porque puede ayudar a generarla y viralizarla o propagarla, pero también puede ayudar a combatirla o a mitigarla, junto con otros factores de valor humano igual de importantes, como la alfabetización digital o mediática de la ciudadanía”, avanza Larrondo a DIARIO DE NOTICIAS DE ÁLAVA.
Generando contenido falso
Desde el punto de vista de los riesgos o retos a los que hacer frente, “podríamos decir que la IA generativa se está empleando para generar directamente contenido falso (imágenes, vídeos deepfakes, clonaciones de voz...), es decir, para camuflar información no veraz bajo la apariencia de información verídica”.
También, como añade, se están empleando las redes como Facebook, X y servicios de mensajería tipo Whatsapp “para viralizar narrativas desinformadoras creadas tanto en las propias redes, como generadas en origen en otros canales, como podría ser TikTok”.
Es por eso que “nos enfrentamos a un escenario informativo que puede hacer a la ciudadanía sentirse vulnerable y desprotegida por usos humanos no éticos o usos negligentes de la tecnología algorítmica. Pero ahí se abre también la oportunidad y el reto de saber combinar el mejor empleo de la IA en pro del avance social y la ayuda a la ciudadanía en distintos procesos, entre ellos, el proceso de informarse, con el diseño de estrategias, marcos legales y límites éticos a las amenazas que genera”.
Desafío medioambiental
Por su parte, el investigador en ciencias de la sostenibilidad y gestión de recursos naturales, Stefano Balbi, master en Economía Ambiental y doctor en Desarrollo Sostenible, explicará en su intervención cómo desde 2013 participa activamente en la gestión y el desarrollo del proyecto ARIES (Inteligencia Artificial para el Medio Ambiente y la Sostenibilidad).
“Es un proyecto innovador, que empezó en EEUU hace 15 años y empieza a ser reconocido a nivel internacional. Su aplicación es no corporativa y para el bien social. La misión de ARIES mejora la interoperabilidad de los datos y de los modelos producidos por todo el mundo para diferentes organizaciones internacionales, universidades... Sobre desafíos medioambientales y, para ello, utilizamos la IA para integrar conocimiento humano”, afirma.
Innovación responsable
En el caso de Hannot Rodríguez, profesor agregado del Departamento de Filosofía de la UPV/EHU, su intervención se centrará en “la problemitación de la manera en la que se aborda la cuestión de una gobernanza responsable de la tecnología. En este caso, relacionada con la IA. ¿Qué es ser responsable: solo minimizar riesgos de los impactos negativos asociados a la ciencia y tecnología? ¿Quién decide, sobre la ciencia, tecnología, investigación, por y para qué? Porque va a afectar nuestras vida de manera radical. ¿Se hace lo suficiente o habría que ampliar esa concepción de la responsabilidad?”.
Impacto en positivo y negativo
Por último, la intervención de Juli Ponce, catedrático de Derecho Administrativo, explicará cómo la IA impacta en positivo y negativo en la forma de sociedad que tenemos, "que podemos definir como social y democrática de Derecho (art. 9 Estatuto de Autonomía del País Vasco, art. 1 Constitución española), centrándome en su uso por los poderes públicos, exponiendo algunas ideas de mi último libro El reglamento de la Unión Europea de 2024, la buena administración digital y su control judicial, de próxima publicación por la editorial Marcial Pons".
Y es que, como precisa, desde la perspectiva democrática, la IA puede suponer una amenaza para la democracia, con la manipulación sobre los votantes mediante el acceso a enormes cantidades de datos de todos nosotros (como muestra el caso de la empresa Cambridge Analytica, su uso de datos filtrados de Facebook y su incidencia en la campaña electoral de Trump en 2016 y en el Brexit), el uso de bots (programas informáticos) maliciosos con el objetivo de difundir bulos y desinformar (más del 70% del tráfico en internet en 2023 era generado por estos bots, según informes al respecto) o incluso al uso de AI generativa con ultrafalsificaciones (deepfakes) que pueden afectar a las campañas electorales.
"Pero también puede ayudar a luchar contra esos riesgos y a abrir nuevos caminos para la participación ciudadana y a poder analizar con más detalle las aportaciones ciudadanas en la elaboración de un reglamento o un plan de urbanismo, por ejemplo".
Sustitución de puestos de trabajo
Ponce también advierte que desde la perspectiva social, la IA puede suponer una automatización de numerosos puestos de trabajo con sustitución del trabajador humano (recuerda que para el caso español, hay informes que hablan de alrededor de 5 millones; en el el sector público, 1 millón hasta 2030, equivalente a las jubilaciones ya previstas), pero también puede generar nuevos lugares de trabajo asociados a la automatización, para la que será precisa una supervisión humana de las máquinas.
Respecto a las ayudas públicas propias de un Estado Social que lucha contra las desigualdades, la IA puede generar denegaciones masivas erróneas y no motivadas de las mismas, como ya ha sucedido en EEUU, por ejemplo, pero también puede contribuir a acelerar su concesión, a personalizarla facilitándola a medida de cada persona y a evitar el llamado efecto non take-up, que implica desaprovechamiento de derechos, por la no utilización de prestaciones o servicios públicos o programas sociales por aquellos que cumplen los criterios para su uso, debido a su desconocimiento y a la complejidad burocrática actual.
Amenaza de derechos
Desde la perspectiva del Estado de Derecho, la IA también puede suponer una amenaza para derechos, como la intimidad y la protección de datos personales, la libertad o la autonomía personal, debido a la manipulación, la transparencia (con las cajas negras y la incapacidad de motivar a los ciudadanos las decisiones que les afecten) la buena administración o la igualdad, debido a sus sesgos, pero también puede ser un instrumento para conseguir la eficacia plena de los derechos, "como por ejemplo el derecho a una buena administración de los ciudadanos, al mejorar la gestión pública, haciéndola más eficiente y eficaz".
Si bien la IA presenta la posibilidad de multiples beneficios, debido a su enorme capacidad de procesar información y decidir y realizar predicciones, "también supone riesgos para los derechos de los ciudadanos, como dije antes".
Por ello, frente al modelo de los EEUU, basado en el mercado, y el chino, basado en el Estado, la regulación de la Unión Europea se basa en la protección de los riesgos a los derechos fundamentales, a través sobre todo del Reglamento de Inteligencia Artificial de la UE, publicado el pasado día 12 de julio, que debe ser complementado nacionalmente, especialmente por lo que se refiere al uso de la IA por los poderes públicos.
Este reglamento, a su juicio, puede generar además el llamado "efecto Bruselas", es decir, que las empresas que comercian con la UE, y se ven sometidas a esta norma, vean que no es económicamente y técnicamente práctico mantener estándares más bajos en mercados fuera de la UE. Las compañías que no son de la UE que exportan globalmente, pueden ver que es necesario adoptar los estándares puestos en Bruselas uniformemente en lugar de aplicar distintos estándares para diferentes mercados.
Falta de empatía
Y la falta de empatía de las máquinas "presenta un problema específico que puede generar la toma de malas decisiones". "La IA es psicópata, pues es incapaz de experimentar compasión o empatía (puede, eso sí fingirla, lo que implica una manipulación y da un poco de miedo...)", agrega.
Así, Ponce expondrá cómo la toma de buenas decisiones exige, "como nos explican neurocientíficos como Damasio, una combinación de razón y de emociones. La ausencia de empatía implica la imposibilidad de la IA de considerar todos los aspectos relevantes en la toma de una decisión, y si ésta es de las Administraciones Públicas, por tanto, el incumplimiento de las obligaciones jurídicas derivadas del derecho a una buena administración".
"Por ello, en el estado actual de la técnica, una aplicación del principio de precaución exige prohibir la toma de decisiones públicas discrecionales por parte de IA, como ya se ha hecho en algunos países. Cuestión distinta es su posible uso para tomar decisiones regladas, sin margen de apreciación (por ejemplo, una licencia de edificación) o para servir de apoyo a la toma de la decisión discrecional (una ley, una sentencia, un reglamento, un plan de urbanismo...) por parte de los humanos".
Tecno-realismo
Aparte, "hay que huir tanto de un tecno-optimismo excesivo como de un tecno-pesimismo paralizante e intentar avanzar hacia un tecno-realismo".
No en vano, el uso de IA "presenta, efectivamente riesgos, como los aludidos y otros (así, destrucción de empleo, afectación de derechos fundamentales por sesgos, errores o alucinaciones, adopción de mala decisiones que no tienen en cuenta todos los factores relevantes debido a la falta de empatía) que pueden causar graves problemas a la humanidad, pero también puede contribuir a luchar contra algunos de los que ya nos preocupan, como por ejemplo el cambio climático ( aunque no hay que olvidar que la IA genere, a su vez, un consumo elevado de recursos, con el consiguiente coste ambiental)".
En definitiva, que "la IA es sólo un instrumento (limitado actualmente, al ser una IA estrecha o débil, muy alejada aún de la IA fuerte o general, equivalente al modo de pensar humano), apto tanto para el bien como para el mal. El resultado final de su uso dependerá de lo que los humanos decidamos en nuestras sociedades. Que técnicamente una cosa sea posible no quiere decir que sea ni necesaria ni conveniente y por ello en nuestras democracias deberemos debatir y decidir lo que consideremos adecuado".
Pulsa aquí para saber cómo asistir a esta mesa redonda.