uena muy tentador para cualquier negocio utilizar los sistemas de reconocimiento facial para identificar personas. Se trata de sistemas que reconocen los rasgos faciales -una base de datos tremendamente rica a efectos de los datos que transmite- y asocian los mismos a una persona concreta. Hace unos días sabíamos que la cadena de supermercados Mercadona quería emplearlos para evitar la entrada de personas que tuvieran una orden de alejamiento de sus centros (por comisión de delitos).

Me parece entendible que una empresa quiera esto. A nadie nos gusta que nos roben o intimiden. Mercadona ha explicado que es un dato que será eliminado en un espacio de 0.3 segundos (con lo que también queda anulada la clásica sospecha de querer construir bases de datos de caras). La base de datos con la que se compara el rostro facial detectado por una cámara sale de las pruebas aportadas en los procedimientos judiciales que tuviera esa persona. Todo parece razonable. ¿Por qué entonces es un método tan polémico?, ¿por qué nos fascina ver vídeos de estos sistemas en Corea del Sur, Japón o EEUU y en España nos escandaliza? Creo que hay tres motivos de preocupación: (1) Son datos de categoría especial de protección; (2) Se basa en patrones de identificación, no en una autenticación; y (3) No es un sistema infalible. Vayamos uno a uno entendiendo el problema.

El primer punto básicamente se entiende en clave jurídica. Los datos biométricos (una cara), son datos especialmente protegidos. Requieren así de un consentimiento explícito del usuario. Que, evidentemente, en este caso no se da en circunstancias naturales. Ahí tenemos un primer punto de duda, pese a que el interés de la compañía pudiera poner un contrapeso a ello en términos de interés público (también entendible). El segundo elemento se explica al entender que una persona se identifica en base a unos patrones en una base de datos. La RAE, define un patrón como “modelo que sirve de muestra para sacar otra cosa igual”. Es decir, se debe con esa muestra localizar en la base de datos a quien aparenta ser. Los riesgos son obvios: ¿y si el patrón falla? La autenticación, que es por ejemplo lo que estamos encontrando en los aeropuertos cuando miramos de frente a una cámara, aporta una concreción obvia por la direccionalidad y unicidad de la cara. Fallar es realmente improbable. Esos sistemas de búsqueda de patrones son, con razón, vigilados de cerca por la Agencia Española de Protección de Datos (AEPD). Y, tercero y último: la imperfección del sistema le lleva a introducir una reflexión ética. Primero en términos de la proporcionalidad: es fácil imaginar que el porcentaje de condenados será bajo. Para perseguir a éstos y éstas, se identifican las caras de todos los que entran. ¿Es razonable? Por otro lado, los sistemas de reconocimiento facial, para funcionar identificando patrones, deben ser previamente entrenados con una muestra representativa de la sociedad. No se ha hecho público ningún informe que exponga este detalle estratificado para apelar a la representatividad de la sociedad española. Hemos conocido muchos problemas de identificación de personas de piel oscura, por ejemplo. Ahí, la proporcionalidad con otras razas evidentemente queda en duda.

Jumbo, cadena de supermercados de los Países Bajos, propuso un sistema de reconocimiento facial muy parecido al de Mercadona. Fue suspendido a comienzos de marzo ante la indignación popular que supuso. Hemos sabido recientemente que el supervisor del citado país lo ha considerado no proporcional al riesgo que entraña en términos de privacidad y reputación de las personas. Los europeos somos así: la libertad del individuo y sus derechos es un activo que nos ha costado siglos conseguir. Y que nos lleva a pagar un precio alto en muchas cosas. Como todo en la vida, tiene costes y beneficios. Como con los rastreadores del covid-19, tener tantos derechos personales no suele ser compatible con el interés público. Es cuestión de elegir el modelo de sociedad que queremos.