El rápido desarrollo de la inteligencia artificial también ha causado gran inquietud entre los representantes de la inteligencia natural. En los últimos meses parece haberse convertido en una tendencia que quienes tienen más responsabilidad nos estén advirtiendo contra ella. A la petición de una moratoria ha seguido la exhortación de algunos expertos acerca de unos riesgos que equiparan a la guerra nuclear y las pandemias, las declaraciones de Geoffrey Hinton tras abandonar Google en las que prevenía de una inmediata superación sobre nuestra inteligencia y recientemente la comparecencia en el Senado de los Estados Unidos de Sam Altman, director de OpenAI, creadora del ChatGPT, con su posterior gira europea reclamando una mayor regulación de la inteligencia artificial. No sabe uno si interpretar estas manifestaciones como arrepentimiento o exhibición de poderío, como operación de mercadotecnia o estrategia para protegerse de futuras reclamaciones legales. En cualquier caso, todos ellos desarrollan una narrativa que sitúa a la inteligencia artificial en el terreno de lo mágico más que en el espacio de la responsabilidad.
El efecto imprevisible de estas nuevas tecnologías se compara con una guerra nuclear y una pandemia, mientras se anuncia una previsible extinción del género humano. La advertencia de tales peligros recuerda a otros miedos previos en nuestra historia reciente, como los que surgieron en los inicios de la revolución industrial, el escepticismo frente a las primeras vacunas o el rechazo de la electrificación. Ninguna de las disrupciones provocadas por estas tecnologías ha acabado con el género humano, por cierto. Más bien han proporcionado grandes avances, en algunos casos acompañados de nuevas crisis y conflictos. Comparar los riesgos de las tecnologías digitales con los nucleares es muy poco apropiado. Con todo su potencial terrorífico, las armas nucleares eran relativamente fáciles de controlar; por un lado, debido a que son costosas de fabricar y, por otro, a que están localizadas en un lugar, de manera que basta con asegurar el acceso a ellas. La tecnología digital e internet son todo lo contrario: un sistema distribuido, virtual y accesible, es decir, algo por principio imposible de asegurar. Por otro lado, la comparación con las pandemias tiene el efecto de presentar los peligros de la inteligencia artificial como si surgieran espontáneamente, como la mutación de un virus. Aquí desaparece nuevamente cualquier responsabilidad que pudiéramos identificar como el resultado de las decisiones conscientes de sus desarrolladores. ¿A quién se dirigen las advertencias de sobre los riesgos asociados a las decisiones que han tomado precisamente quienes las lanzan? Escuchar a algunos gurús de la inteligencia artificial reclamando que los políticos regulen es como si unos ladrones (perdón por la metáfora) recriminaran al dueño de la casa por no haber cerrado bien las puertas. Después de haber disfrutado de la libertad de la ausencia de reglas, los tecnólogos de Silicon Valley acaban de descubrir el alivio populista de descargar toda la responsabilidad en los políticos. La élite de la inteligencia artificial podrá decir en el futuro, cuando pase algo, que ya advirtieron de los peligros, cuya responsabilidad no correspondería a quienes los originaron sino a quienes no nos protegieron lo suficiente frente a ellos. Esa falta de responsabilidad política de los expertos en tecnología suele venir acompañada por una cierta frivolidad a la hora de emitir mensajes sobre probables futuros. A los demás nos cabe la esperanza de que si se equivocaron a la hora de hacerse cargo de los riesgos que estaban provocando, también fallen en sus previsiones acerca de lo que puede suceder. Podríamos hacer una lista de sus predicciones incumplidas, así como de sus empresas fallidas y preguntarnos después cuál es la razón para que debamos creerles ahora. La incapacidad de algunos expertos para valorar correctamente la tecnología que supuestamente conocen es uno de los motivos por los que conviene ponderar con otros criterios lo que hacen y dudar un poco más de lo que dicen.
Con esto no excluyo que haya que tomarse en serio sus advertencias, aunque no sean completamente desinteresadas. Es posible incluso que algunas sean verosímiles, pero no exactamente por las razones que aducen. La menos creíble es la que pronostica una super inteligencia que nos convertirá en dóciles subordinados. No hace falta que la inteligencia artificial nos supere (lo que es una afirmación que carece de fundamento epistemológico y forma parte más bien de la ciencia ficción) para saber que, además de enormes beneficios, va a crearnos graves problemas. Los sistemas de inteligencia artificial pueden producir daños sin necesidad de ser super inteligentes, más bien precisamente porque no lo son. Tenemos otros términos para designar a quien, un humano o una máquina, hace daño y es muy listo: puede ser sagaz, astuto, exacto, hábil, pero no será socialmente inteligente.
De lo que podemos estar seguros es de que no acertaremos a hacer lo debido sin entender bien qué es lo que realmente está en juego. Si no podemos especificar lo que se debe regular, hay pocas posibilidades de regularlo. Una buena prueba de este desconcierto es que la pregunta por la tecnología se resuelve con frecuencia en términos de optimismo o pesimismo. Si tuviéramos un mejor conocimiento de las cosas y de su posible evolución, ya no tendría sentido dividirnos entre optimistas y pesimistas. Pese a toda la carga de incertidumbre que rodea a estas tecnologías, nuestros análisis y previsiones tendrían una mayor objetividad. La necesidad de apostar a un impreciso estado de ánimo en relación con lo que pueda pasar disminuye en la misma medida en que hacemos mejores análisis sobre el futuro posible.
Esta falta de buenos análisis acerca del complejo entramado social en el que se inserta la tecnología (con dimensiones antropológicas, sociales, medioambientales, legales, éticas y políticas) es lo más preocupante de la actual situación. Parafraseando lo que Lichtenberg decía de la química podríamos afirmar que quien solo sabe de tecnología ni siquiera sabe de tecnología. Tal vez sea esto lo que explica el tono histérico de sus llamamientos a hacer algo, incapaces de recurrir a otra cosa que no sea un futuro espantoso. A los anunciadores de los posibles problemas del futuro parecen interesarles menos los reales problemas del presente, de los que se ocupa precisamente la Unión Europea en su paciente regulación: la opacidad, los riesgos, los derechos, para los que prefiere un tono desacomplejadamente burocrático que el trompeteo épico.
Tenemos que debatir intensamente acerca de qué hacer con la que probablemente es la tecnología más poderosa de todos los tiempos, para lo cual no es un buen comienzo coquetear con la idea del fin del mundo. Prestemos atención a otros finales, buenos y malos, de cosas concretas (en el trabajo, la comunicación, el poder, la democracia…), de los que nos distraen los escenarios apocalípticos.
El autor es catedrático de Filosofía Política, investigador Ikerbasque en la Universidad del País Vasco y titular de la Cátedra Inteligencia Artificial y Democracia del Instituto Europeo de Florencia. Acaba de publicar el libro ‘La libertad democrática’ (Galaxia-Gutenberg)