La directora general de la UNESCO, Audrey Azoulay, ha presentado este jueves la primera norma mundial sobre la ética de la Inteligencia Artificial, adoptada por los Estados Miembros de la UNESCO en la Conferencia General. Este texto, que la UNESCO califica de "histórico" establece valores y principios comunes que guiarán la construcción de la infraestructura jurídica necesaria para garantizar un desarrollo saludable de la IA.
A pesar de que las tecnologías de la IA están dando resultados notables en ámbitos muy especializados, la tecnología también está trayendo consigo nuevos retos sin precedentes. Desde un aumento de los prejuicios de género y étnicos, pasando por amenazas significativas contra la privacidad, la dignidad y la capacidad de acción, a los peligros de la vigilancia masiva y al aumento del uso de tecnologías de la IA poco fiables en la aplicación de la ley, entre otros. Hasta ahora, no había normas universales que dieran respuesta a estos problemas.
En 2018, la directora general de la UNESCO lanzó la idea de dar al mundo un marco ético para el uso de la Inteligencia Artificial. Tres años después, gracias a la movilización de cientos de expertos de todo el mundo y a intensas negociaciones internacionales, los 193 Estados Miembros de la UNESCO acaban de adoptar oficialmente este marco ético.
"El mundo necesita reglas para que la Inteligencia Artificial beneficie a la humanidad. La Recomendación sobre la ética de la IA es una respuesta importante. Establece el primer marco normativo mundial, al tiempo que otorga a los Estados la responsabilidad de aplicarlo a su nivel. La UNESCO apoyará a sus 193 Estados Miembros en su aplicación y les pedirá que informen periódicamente sobre sus progresos y prácticas", ha afirmado Azoulay.
La Recomendación tiene como objetivo hacer realidad las ventajas que la IA aporta a la sociedad y reducir los riesgos que conlleva. Garantiza que las transformaciones digitales promuevan los derechos humanos y contribuyan a la consecución de los Objetivos de Desarrollo Sostenible (ODS), abordando cuestiones relativas a la transparencia, la rendición de cuentas y la privacidad, con capítulos políticos orientados a la acción sobre la gobernanza de los datos, la educación, la cultura, el trabajo, la atención sanitaria y la economía.
PROTECCIÓN DE DATOS, VIGILANCIA MASIVA Y EVALUACIÓN
La Recomendación se sustenta en tres grandes pilares. El primero de ellos versa sobre la protección de datos. En este sentido, la Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos para garantizar a las personas una mayor protección, asegurando la transparencia, la capacidad de actuar y el control de sus datos personales.
El documento afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del individuo a controlar sus propios datos. También aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir.
En segundo lugar, la Recomendación prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva. Este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades fundamentales y se utilizan de forma generalizada. La Recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados Miembros deben tener en cuenta que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos y que no se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas.
En tercer lugar, la Recomendación también sienta las bases de las herramientas que ayudarán a su aplicación. La Evaluación del Impacto Ético pretende ayudar a los países y a las empresas que desarrollan y despliegan sistemas de IA a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente.
La metodología de evaluación del grado de preparación ayuda a los Estados Miembros a evaluar su grado de preparación en términos de infraestructura jurídica y técnica. Esta herramienta ayudará a mejorar la capacidad institucional de los países y a recomendar las medidas adecuadas que deben adoptarse para garantizar la aplicación de la ética en la práctica.
Además, la Recomendación anima a los Estados Miembros a considerar la posibilidad de añadir el papel de un funcionario independiente de ética de la IA o algún otro mecanismo para supervisar los esfuerzos de auditoría y seguimiento continuo.
HUELLA DE CARBONO DE LA IA
En otro orden de cosas, la Recomendación subraya que los actores de la IA deben favorecer métodos de IA eficaces en cuanto a datos, energía y recursos que ayuden a garantizar que la IA se convierta en una herramienta más destacada en la lucha contra el cambio climático y en el tratamiento de los problemas medioambientales.
Asimismo, pide a los gobiernos que evalúen el impacto medioambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA. Esto incluye su huella de carbono, el consumo de energía y el impacto ambiental de la extracción de materias primas para apoyar la fabricación de tecnologías de IA. E incentiva a los gobiernos a invertir en tecnología verde, y si hay un impacto negativo desproporcionado de los sistemas de IA en el medio ambiente, la Recomendación insta a que no se utilicen.
"Las decisiones que afectan a millones de personas deben ser justas, transparentes y contestables. Estas nuevas tecnologías deben ayudarnos a afrontar los principales retos de nuestro mundo actual, como el aumento de las desigualdades y la crisis medioambiental, y no profundizar en ellos", señala la subdirectora general de Ciencias Sociales y Humanas de la UNESCO, Gabriela Ramos.