Síguenos en redes sociales:

Ojo avizor

La llamada “Inteligencia” artificial

Tengo algunos amigos y amigas en el ámbito educativo. Y cada vez más me expresan inquietudes del tipo a que muchas veces no saben si están examinando al alumnado o a gente conectada a bots de “inteligencia” artificial.

Seamos sinceros, la chuleta ha existido siempre. Recuerdo en mis tiempos, allá por el pleistoceno, que siempre las hubo, y presumo que aún existen. De hecho, algunas de ellas eran auténticas obras de arte dignas de un premio al ingenio. Pero eso es una cosa, y la “inteligencia” artificial –utilizada no solo como chuleta en los exámenes sino también en cualquier ámbito de la vida– es otra muy distinta. La chuleta te podía servir para salir de un escollo como un examen en el que contabas con pocas esperanzas, pero requería su asunción de riesgo y, sobre todo, bastante trabajo y previsión. En cierta manera también contribuía a tu formación –por aquello de la síntesis– por mucho que tuviera fuertes implicaciones morales –que las tenía y sigue teniendo–. La “inteligencia” artificial, en cambio, te lo da todo hecho. Y creemos erróneamente que también “resuelto”. Y no.

Lo malo es que eso acaba produciendo adicción y como toda adicción, cabe el riesgo certero de que te acabe cancelando. En el caso de una drogadicción, en el mejor de los casos, te puede afectar gravemente la salud y en el peor directamente te quita de en medio. En el caso de la así denominada “inteligencia” artificial puede ocurrir básicamente lo mismo, aunque las circunstancias sean distintas.

La “inteligencia” artificial generativa se ha formado con más de un billón de palabras en multitud de idiomas. Se ha alimentado con cosas que van desde la poesía sobre las emociones humanas, pasando por artículos de Wikipedia sobre la historia de la humanidad, e incluso con libros enteros sobre el conocimiento científico humano. Y muchas más cosas. “GPT” en ChatGPT son las siglas de Generative Pre-trained Transformer. O sea, Trasformador Preentrenado Generativo. Generativo porque puede generar texto, preentrenado porque ha entrenado a sus algoritmos previamente con muchísimos datos, y transformador por el tipo de arquitectura de red neuronal que utiliza. En esencia, es una maquinaria o maquinación que hace, como las demás máquinas, aquello para lo que fue creada.

Pero aquí es donde nos topamos con el problema de Polanyi: en realidad la IA dista mucho de saber todo lo que sabe un humano. El problema de Polanyi lleva el nombre del filósofo Michael Polanyi, pero ya lo adelantaba Platón. Polanyi argumenta que hay una diferencia entre el conocimiento explícito y el tácito: el conocimiento explícito es todo aquello sobre lo que podemos hablar, escribir y explicar. Está por todas partes en Internet y es con lo que se alimenta a los algoritmos de “inteligencia” artificial. Pero queda fuera todo lo que es intuición, instinto o lo que llamamos buenas o malas vibraciones. Eso no hay máquina que lo entienda.

A medida que crecemos como seres humanos, desarrollamos lo que los griegos llamaban frónesis. Se trata de la sabiduría práctica que nos permite saber lo que está bien o mal sin saber del todo por qué o cómo lo sabemos. El problema de Polanyi para los artilugios de “inteligencia” artificial es que, si se entrenan sólo con lo que han dicho los humanos, se limitarán a una fracción de lo que los humanos realmente saben. Y añado que –por mi parte al menos– afortunadamente es así.

De la mano de todo esto viene lo que otro filósofo –Hubert Dreyfus– denominó “cosificación”, que se produce cuando relacionamos cosas abstractas con cosas concretas. Por ejemplo, cuando nos preguntamos cosas como “¿dónde está la justicia en eso?”.

En los últimos años, la palabra rarefacción se ha asociado a los problemas relacionados con la “inteligencia” artificial. Y es que la IA tiene un gran problema: no experimenta el mundo de ninguna manera, sino que se le presenta el mundo en fragmentos matemáticos y gramaticales.

Para la mal denominada “inteligencia” artificial, las palabras “justicia” e “inteligencia” pertenecen a la misma categoría que palos, pájaros y lápices. Por supuesto, es difícil pillarla en esto porque conoce el uso adecuado y correcto de esas palabras. Pero sólo lo sabe por los patrones de entrenamiento y, como argumentó Dreyfus, la comprensión real es agregada, está situada y es históricamente contingente.

Una “inteligencia” Artificial no sabe lo que es la justicia porque la justicia solamente será una unidad gramatical que podrá aplicar de forma correcta o incorrecta a una frase. La ironía de todo esto es que corremos el riesgo de cosificar a la propia “inteligencia” artificial. Tratamos una abstracción como la “inteligencia” artificial como si fuera algo de ciencia ficción real que vemos en la televisión, o sea, algo con mente, con agencia y con personalidad. La rarefacción en este caso no solo podría limitarse errores conceptuales, sino que podría llevar a errores morales o vitales con el paso del tiempo.

Otra cosa a tener muy en cuenta con la “inteligencia” artificial es el efecto Dunning-Kruger. Es un sesgo cognitivo muy conocido (y muy a menudo mal entendido o mal utilizado) que señala la paradoja de que las personas con poca competencia en un ámbito tienden a sobreestimar considerablemente sus capacidades, mientras que las personas competentes tienden más bien a subestimar las suyas (o, al menos, a pensar que lo que hacen es más accesible para los demás de lo que es en realidad). Dicho de otra manera, el efecto Dunning-Kruger es, por así decir, el cuñadismo de siempre, pero con efectos muy crudos. ¡Ojo! Tampoco es que se trate únicamente de que «los incompetentes son arrogantes»: todos somos susceptibles de padecer el efecto Dunning-Kruger en los ámbitos en los que seamos poco competentes. El caso es que las personas que utilizan masivamente la IA (ChatGPT, Grok, Claude... etc.) sobreestiman su propia comprensión de un tema porque la IA les da respuestas que parecen perfectas. Y eso hace que creen que dominan algo, cuando en realidad se limitan a “delegar” sin comprender realmente las cosas. Darwin decía muy acertadamente que «la ignorancia genera más confianza que el conocimiento».

Por último, también habrá quien delegue en la “inteligencia” artificial cuestiones morales o éticas. El filósofo Robert Howe sostuvo que el problema con la IA en materia ética no radica en las respuestas que pueda dar ni en el razonamiento que sigue para llegar a ellas. El problema está más bien en lo que nos hace a nosotros, los usuarios, porque el razonamiento moral es una práctica y una habilidad que se adquiere con lo que en ocasiones puede ser una experiencia dolorosa. Cada vez que nos enfrentamos a un dilema ético, construimos algo: carácter, fibra moral, virtud, conciencia… Si externalizamos ese razonamiento a una aplicación, estamos externalizando nuestro propio crecimiento moral. Howell escribió esto en 2014, pero hoy es una realidad que no sabemos si podremos gestionar adecuadamente. El problema no es si ChatGPT moraliza correctamente. El problema, desde un principio, en realidad es si deberíamos estar utilizando la denominada “inteligencia” artificial para cuestiones éticas.

Ya lo siento, hoy me he agarrado mucho a los filósofos. Y termino con Karl Popper, que dijo que “el mayor peligro para la libertad es la ausencia de crítica; solo a través de la crítica podemos corregir nuestros errores y avanzar”. Y me parece que “inteligencia” artificial y crítica no coexisten bien.