SAN FRANCISCO. La asunción habitual, y lo que a menudo reiteran las empresas que gestionan asistentes virtuales como Amazon, Samsung y Apple, además de Google, es que las conversaciones entre un usuario y su asistente son del todo privadas y que la interacción se produce exclusivamente mediante inteligencia artificial, es decir, que los únicos que "escuchan" al usuario son robots.
Sin embargo, la admisión este jueves por parte de Google de que el 0,2 % de estas conversaciones son escuchadas por seres humanos para, aseguran, mejorar la calidad del servicio arroja luz sobre una práctica que las empresas por lo general evitan publicitar, aunque es conocido dentro de la industria que en menor o mayor medida, es algo habitual.
La revelación llegó de la mano del responsable de producto de búsquedas de la compañía californiana David Monsees, quien publicó una entrada en el blog oficial de Google como respuesta a una información aparecida ayer en la televisión belga VRT NWS, que pudo acceder a alrededor de un millar de grabaciones de individuos anónimos.
Las grabaciones fueron facilitadas a la televisión belga en holandés por uno de los "expertos" que Google había contratado en ese país para escuchar segmentos de las conversaciones y "comprender así las particularidades y acentos de cada idioma en específico".
La firma, que ya ha anunciado que "tomará acciones" por la filtración al considerarla una "violación" de sus políticas de seguridad de datos, admitió contar con "expertos en todo el mundo" cuya función es escuchar y transcribir "una pequeña parte de los diálogos para ayudarnos a comprender mejor esos idiomas".
En concreto, la firma de Mountain View (California, EE.UU.) cifró el porcentaje de interacciones analizadas por humanos en el 0,2 % y garantizó que estos fragmentos no van asociados a las cuentas de los usuarios y que a los expertos se les dice que no transcriban sonidos o conversaciones de fondo que no vayan dirigidas a Google.
Sin embargo, la televisión belga fue capaz de identificar "direcciones postales y otra información delicada", en las grabaciones, lo que les permitió ponerse en contacto con las personas cuya voz había sido grabada y confirmar que efectivamente se trataba de ellos.
"Una pareja de Waasmunster (Bélgica) reconoció inmediatamente la voz de su hijo y de su nieto", pusieron como ejemplo desde VRT NWS.
Google indicó que el asistente virtual sólo les envía las grabaciones de audio una vez este ha detectado que el usuario está interactuando con él tras haber dicho, por ejemplo, "Hey, Google" y que dispone de varias herramientas para evitar las "activaciones falsas", es decir, que el software interprete un sonido erróneamente como la palabra clave para activarse.
Pese a ello, VRT NWS publicó que del alrededor de millar de fragmentos de voz a los que tuvo acceso (todos ellos en lengua neerlandesa), 153 eran conversaciones en las que nadie dio la orden de activación al asistente virtual, sino que este interpretó erróneamente un sonido.
Entre otras, el medio belga aseguró haber escuchado conversaciones en la cama, entre padres y sus hijos, llamadas profesionales, discusiones y escenas tanto de sexo como de violencia.