MADRID. Cómo extraer valor médico más allá del caos que generan los millones de datos sobre enfermedades y fármacos en internet, no siempre fiables o incluso peligrosos, es el objetivo de un proyecto europeo de "Big Data" sobre salud, del que informa su coordinador, Allan Hanbury, en una entrevista a Efefuturo.
Este físico de la Universidad Tecnológica de Viena dirige una iniciativa de la UE sobre procesamiento automatizado de datos médicos en el marco del proyecto Kconnect, que involucra a una treintena de investigadores, y que está dirigido a la creación de servicios "web" que garanticen el acceso a información médica fiable y de calidad en la red.
Acreditar de forma automatizada "webs" con información médica fiable, favorecer el acceso de doctores a datos actualizados y fidedignos sobre avances sanitarios en distintos idiomas, procesar automáticamente el historial de pacientes de un hospital o agilizar la predicción de posibles efectos secundarios de nuevos medicamentos a partir de datos anonimizados son algunos objetivos del proyecto que dirige Hanbury.
Hanbury, director de varios proyectos de envergadura sobre analítica "inteligente" de datos en salud, ha participado en Madrid en unas recientes jornadas de "Big Data", organizadas por la Escuela Técnica Superior de Ingenieros de Telecomunicación (Etsit) de la Universidad Politécnica de Madrid (UPM), desde la cátedra Orange.
Precisamente la Etsit de la UPM ha celebrado oficialmente este mes el cincuenta aniversario de toda una carrera de hitos tecnológicos que arrancaron con el traslado del centro a la Ciudad Universitaria de Madrid, hace justo medio siglo.
Durante la entrevista con Efefuturo, Hanbury ha explicado que su grupo trabaja con varias fuentes informativas para su proyecto de "Big Data" en salud. En concreto, con datos de páginas de internet con información médica de calidad, publicaciones científicas y asimismo informes médicos de hospitales (donde se describen síntomas, previsibles patologías, tratamientos, etc).
La relación médico-paciente ha cambiado drásticamente con la irrupción de internet, según el experto. De hecho, dos tercios de la población se informa sobre sus dolencias en la red antes de acudir al doctor, según un reciente estudio en EEUU, ha recordado.
Por el contrario, hasta el 50 por ciento de los contenidos en internet sobre salud podrían estar bajo sospecha de ser inciertos o falsos, lo que agrava las alertas sobre la fiabilidad médica de los mismos, ha advertido.
Como parte del proyecto iniciado en 2010, con el compromiso de estar operativo en un año y medio, el equipo de Hanbury está desarrollando complejos algoritmos basados en "machine learning" o "aprendizaje automático".
Las soluciones en desarrollo permiten extraer datos médicos relevantes de páginas "web", y acreditar de forma automatizada si las mismas cumplen una serie de criterios para que puedan ser certificadas como plataformas de información fiable y de calidad.
Agilizar y mejorar las predicciones de posibles efectos secundarios de nuevos medicamentos son también objetivos del proyecto. Se busca así complementar los resultados de los obligados ensayos clínicos, que no siempre delatan todos los posibles riesgos de un nuevo fármaco, por las limitaciones en la duración de las pruebas, que es temporal, y el número de pacientes involucrados, que está acotado.
De hecho, se ha referido a un caso muy polémico de un tratamiento que disparaba la posibilidad de ataques al corazón. El problema no se descubrió durante la fase de ensayos clínicos y causó 26.000 muertes en cinco años antes de ser retirado del mercado, una vez comprobada la vinculación del medicamento con los fallecimientos mediante análisis masivos de expedientes.
El procesado de millones de datos en tiempo real ayuda a determinar patrones, modelos, tendencias y hacer predicciones de todo tipo, ha subrayado el experto.
Varias entidades colaboran con esta iniciativa europea: la ONG suiza "Health on the Net"; un hospital psiquiátrico en Londres asociado al King's College, el Departamento de Salud de Suecia y una pequeña empresa en el Reino Unido.
Según Hanbury, uno de los mayores desafíos del proyecto está en el procesado automático de informes en manos de médicos: no suelen ser fácilmente legibles dadas las prisas con las que habitualmente escriben los facultativos, quienes además utilizan muchas abreviaturas, que complican el análisis automático de los datos.
Otro reto es el idioma, teniendo en cuenta el alto número de lenguas con las que se trabaja en el proyecto, que son siete, incluido el español.
Ha añadido que la analítica "inteligente" de datos en lenguas diversas es muy relevante en sanidad, por ejemplo en la investigación de las llamadas "enfermedades raras", que padecen muy pocas personas, y en donde toda información resulta especialmente trascendental.
La creación de una especie de "ecosistema virtual" de procesado automático con servicios "web", disponibles para empresas que quieran desarrollar, previo pago, soluciones específicas de contenidos sanitarios sería el objetivo final de la iniciativa.
Al margen de la misma, Hanbury impulsa en paralelo, desde una pequeña "start up", herramientas de procesado de imágenes de radiografías y algoritmos para la creación de un motor de búsquedas que vincule las que son similares aunque estén almacenadas en distintos hospitales.
Así, un médico que dude al interpretar una radiografía o un aspecto concreto puede consultar automáticamente el diagnóstico de otros facultativos médicos a partir de imágenes similares.