El conjunto diverso de aplicaciones de herramientas o técnicas de Inteligencia Artificial obliga a un debate sobre toda una diversidad de normas comunitarias y políticas públicas. Este debate está ya planteado tras la iniciativa de científicos, expertos y miembros de la industria. La lista de aplicaciones de IA y los problemas que plantean es interminable. Abarca desde la justicia penal (sentencias y despliegue de recursos) hasta la vigilancia (reconocimiento facial y seguimiento del tráfico de correo electrónico), las aplicaciones médicas (estrategias de desarrollo de medicamentos y recomendaciones de tratamiento) y las compras minoristas con plataformas como Amazon. También los discursos mediáticos y las noticias.
Es natural interpretar que los riesgos, como las armas autónomas o las herramientas FinTech mal diseñadas que de repente socavan el sistema financiero, generen preocupación. La IA plantea retos entrelazados (impactos complejos) que van mucho más allá de la privacidad, un problema que la legislación de la UE y de California ha comenzado a abordar.
Aplicar las normas y reglas existentes a una era de IA, por difícil que sea, no define adecuadamente el desafío de la gobernanza, según interpreta Lessig. Las normas y reglas existentes expresan prácticas sociales así como acuerdos políticos explícitos. La práctica social evoluciona; es probable que esos acuerdos reflejados en normas tengan que rehacerse y surjan problemas completamente nuevos que requieran nuevas normas y reglas. Además, como afirma John Zysman, la realidad que surgirá de los debates sobre IA dependerá del contexto político y social en el que se presenten los temas.
Como ejemplo de normas emergentes, tengamos en cuenta la reconsideración de la justicia penal con el movimiento Black Lives Matter. Los procesos de decisión en los que se utilizan herramientas basadas en IA obligan a examinar los datos históricos, y esos datos históricos incorporan acuerdos y normas anteriores. La historia incorpora sesgo; sesgo expresado en los datos.
Uno podría preguntarse si las herramientas de IA pueden obligarnos a confrontar fuentes de sesgo en los datos, ya que los hacen más evidentes. Por poner un ejemplo, piénsese en los sesgos raciales de la policía en Estados Unidos, y lo que conocemos de esos sesgos gracias a los teléfonos inteligentes que graban actuaciones policiales. Hay muchos otros ejemplos. Quizás las herramientas de IA, aunque menos accesibles al público que los teléfonos inteligentes, pueden tener una consecuencia similar. Si bien esas herramientas no crean un sesgo pasado, ya que el sesgo está integrado en los datos de entrenamiento, sí automatizan los procesos y las decisiones en función del comportamiento pasado.
En términos de IA, los resultados algorítmicos son muy importantes para las personas, pero el proceso para llegar a estos resultados es casi imposible de entender sin conocer las variables del algoritmo o sin ser un informático altamente capacitado, como indica Cathy O’Neil. En consecuencia, la transparencia algorítmica puede ser una quimera. De hecho, una razón principal de las llamadas a regular la IA tiene que ver con la incapacidad humana para entender realmente cómo funciona.
Con la creación de un Observatorio de Políticas de IA en la Organización para la Cooperación y el Desarrollo Económico y la propuesta de un Panel de las Naciones Unidas sobre Inteligencia Artificial ha surgido un debate vertiginoso sobre cómo gobernar la IA. Esto no es simplemente una cuestión de ética abstracta, sino de qué instituciones están mejor situadas para la regulación y la gobernanza.
¿La regulación debería ser a nivel de ciudad, como ha ocurrido muchas veces con Uber? ¿A nivel estatal o regional, como con la legislación de California sobre privacidad (inspirada en la ley de privacidad de la UE)? ¿A nivel internacional, como con los tratados entre estados?
En efecto, ¿qué deberían abordar las autoridades públicas y qué la autorregulación privada? Los casos individuales de calamidades que surgen de la autorregulación privada, como los accidentes del Boeing 737 Max, respaldan la importancia de equilibrar las autoridades públicas y los actores privados en la regulación.
Los Principios de IA de Google son otro ejemplo de autorregulación privada; ¿Los principios son meras sugerencias o Google tiene un sistema de rendición de cuentas? En términos más generales, ¿requieren las autoridades públicas los conocimientos técnicos detallados integrados en las operaciones del sector privado? De ser así, ¿cuál debería ser el equilibrio entre los actores privados y las autoridades públicas cuando colaboran en la regulación de productos?
Las plataformas digitales representan el problema sistémico de la gobernanza de la IA. Juntos, la estructura algorítmica de las plataformas y los “términos y condiciones” que aceptan quienes participan en la plataforma hacen que las plataformas digitales sean reguladores privados difíciles de controlar por las autoridades públicas, como indican los observadores mejor informados.
Esta cuestión de dónde se llevan a cabo los debates sobre la IA y los foros en los que se establecen las reglas de la IA no es una cuestión técnica. Diferentes intereses están representados en diferentes foros. Como resultado, se pueden esperar diferentes resultados en diferentes foros. La decisión de dónde y cómo enmarcar el debate sobre la gobernanza de la IA influirá, incluso determinará, el resultado.
Pero, ¿qué hay que regular? ¿Qué elementos de las herramientas o aplicaciones de IA deberían ser el centro del debate? Un enfoque estaría en el aprendizaje automático y los algoritmos de aprendizaje profundo que son el núcleo de la IA contemporánea. Esto sería un enfoque en algoritmos, datos, actores y resultados.
Muchos problemas que se presentan en las aplicaciones pueden tener soluciones comunes, como la privacidad y la vigilancia de datos. A medida que la IA se incrusta tanto en la economía como el cable eléctrico, es posible que necesitemos estándares para su uso, pero revisar cada algoritmo quizá no sea un enfoque efectivo para la gobernanza.
Supongamos por un momento que es posible, y posible a un costo razonable, desempaquetar y examinar la estructura lógica de los algoritmos de IA. Si bien eso es ciertamente discutible, todavía surgen dos preguntas importantes. Primero, la arquitectura y la lógica son parte de la propiedad intelectual. ¿Bajo qué circunstancias puede una agencia reguladora insistir en el acceso?
¿Y qué agencias deberían tener el privilegio? ¿Debería una autoridad china o de la UE tener derecho a examinar la arquitectura de un algoritmo de Google o Facebook? ¿O debería una autoridad alemana tener derecho a mirar un algoritmo de Tesla? Sin duda habría un sinfín de desafíos legales a tal acceso.
Segundo, ¿qué circunstancias justificarían emprender este camino hacia la transparencia? ¿Podemos abordar la gobernanza de la IA sin mirar las materias primas de las que depende, esto es, los datos, cómo se recopilan e implementan, por quién y con qué fines sustentan, y cómo se pueden usar? Eso abre directamente la mirada a problemas de intercambio y propiedad de datos, así como a la privacidad de los datos. Y tercero, abordar las preguntas de la IA inevitablemente obligará a considerar cuestiones de regulación de las plataformas.
El problema es si los consumidores deben ser compensados por sus datos: ¿quién puede usarlos? ¿Cómo se puede preservar la privacidad del consumidor? Por el contrario, en muchas aplicaciones de empresa a empresa, por ejemplo, en un sistema de producción que utiliza las herramientas de múltiples proveedores, los aspectos de los datos deben compartirse para que el sistema funcione y otros aspectos deberán permanecer como propiedad de la empresa.
Así pues, los retos de la regulación y el gobierno de la IA están estrechamente relacionados con los problemas centrales de la era digital y de la sociedad de la información. En estos momentos, en los inicios del debate, podemos decir que las reglas que se vayan diseñando sobre la IA no podrán simplemente injertarse en normas y reglamentos preexistentes. Esto indica que la regulación de IA traerá novedades y exigirá innovaciones en los marcos legales.
Autor del libro Contesting Megaprojects. Complex Impacts, Urban Disruption and the Quest for Sustainability (de próxima publicación, Nueva York: Columbia University Press)