La jornada sobre Big Data y Analytics en Sanidad contó con la participación de los laboratorios Abbott y Celgene para conocer el impacto de estas disciplinas en el campo de la salud, los laboratorios de análisis clínicos y diferentes experiencias de su aplicación en el ámbito hospitalario.
La jornada empezó con una breve introducción que corrió a cargo de César Chiva, director de Executive Forum, think tank organizador del evento. Según informó este, se trató de la segunda edición del encuentro realizado en 2016, frente a un mayor número de jornadas similares dedicadas a otros sectores productivos, como el financiero.
Acompañó a Chiva el vicerrector de la Universidad Camilo José Cela, entidad que albergó el encuentro, Franceso Sandulli. Según refirió este, es previsible un gran avance en el desarrollo de modelos basados en algoritmos, con utilidad para las compañías farmacéuticas, a partir de la ingente generación de datos que produce la actividad asistencial. En ese terreno, describió como ejemplo, el acuerdo alcanzado por el Ministerio de Hacienda y Administraciones Públicas (MINHAPF) y la red española de oficinas de farmacia para implantar un modelo de Respuesta Eficiente al Consumidor (ECR) que permita intregrar toda la cadena de suministro sanitario dentro de un pipeline tecnológico capaz de poder optimizar el abastecimiento farmacéutico, además de ofrecer al sector un modelo predictivo basado en algoritmos. Una vía de trabajo a la que el vicerrector sumó el acuerdo firmado recientemente entre su propia institución académica y la compañías farmacéutica Pharmamar para la investigación de pautas de vida saludable y ambientalmente sanas que ofrecer a la ciudadanía. En ese sentido, Sandulli describió ese proyecto como la búsqueda de "océanos azules", para lograr ensayos clínicos más completos y fiables.
Finalmente, el vicerrector predijo los problemas que planteará en 2018 el reglamento sobre protección de datos impuesto desde Europa, que describió como bastante inconcluso y vago, además de presentar notables implicaciones para un asunto tan sensible como el Big Data.
Para conocer aspectos importantes del nuevo análisis de datos y el Big Data al medio hospitalario, la jornada contó con la participación de la ingeniera de sistemas Julia Díaz García, también directora de innovación del área Health and Energy Predictive Analytics del Instituto de Ingeniería del Conocimiento (IIC). Su planteamiento inicial empezó con un recuerdo a John Naisbitt, quien en 1982 afirmó que los humanos, ya a finales del siglo XX, estábamos ahítos de información pero ayunos de conocimiento. A continuación, afirmó que los hospitales esperan, como el resto de las entidades sanitarias, cuatro ventajas claras que permitan afirmar que los servicios de Big Data aportan realmente valor. Estas cualidades son el volumen de información, su variedad y veracidad, y la velocidad, con las que se pueda disponer de dicha información en relación a la utilidad que provea a cada organización asistencial. Para ese fin, explicó que está surgiendo una nueva clase de perfiles profesionales, los Data Scientist o científicos de datos, a los que llamó "unicornios blancos" por su gran especificidad, al unir formación matemática y estadística a otras competencias
Al referirse a los modelos de Big Data en salud, la ponente recurrió al modelo Gartner de análisis descriptivo, predictivo y prescriptivo, constituyendo el último tipo el más apto para el medio asistencial. Tras la ilustrativa alusión a que "ya no se trata de buscar una aguja en un pajar, sino de analizar el pajar entero", Díaz García afirmó que el Big Data sanitario consiste en asignar un número exclusivo a cada paciente para generar algoritmos con capacidad de autoaprendizaje, en función de la selección de opciones que hacen los propios médicos en función de su experiencia clínica.
En cuanto al Big Data aplicado al medio hospitalario, stricto sensu, la ponente aseguró que está especialmente indicado para poder hacer diagnósticos, pronósticos y planificación de los tratatamientos. Algo posible mediante el diseño de protocolos, la optimización de recursos y la predicción de la demanda de los servicios. Como ejemplo de ello, puso la detección precoz de los casos de sepsis en pacientes ingresados, la implantación de alertas inteligentes y el estudio avanzado de las enfermedades neurodegenerativas. Para lo que el Big Data también es muy útil para la segmentación de pacientes, la predicción de las necesidades asistenciales y la anticipación tanto de la hiperfrecuentación de servicios como de la hiperprescripción de los mismos.
En ese modelo se añade la quinta "P" de Poblacional a las otras cuatro de la Medicina Predictiva, Participativa, Preventiva y Personalizada. Para completar esta afirmación, Díaz García mencionó el modelo Lynguo utilizado en el Hospital Clínico San Carlos de Madrid, a través del Servicio Madrileño de Salud (SERMAS); los estudios sobre neuroimagen y resonancia magnética desarrollados para la Fundación Cien de investigación en Alzheimer; el sistema de alertas predictivas sobre partos que no llegan a término del Hospital de Fuenlabrada (Madrid); el proyecto sobre impacto conceptual de la sustitución de rodilla en el servicio de Traumatología del Hospital de Toledo; y, especialmente, el programa de detección de sepsis, implantado en el hospital de Son Llètzer (Islas Baleares). Proyectos todos ellos que, en mayor o menor medida, pueden valerse de la aplicación del modelo de la Pirámide de Kaiser para la gestión de los casos desde Enfermería, el soporte de la autogestión, la promoción y prevención escalable, mediante un sistema capaz de autoaprender al poner en conexión el autocuidado con los autocuidados profesionales.
Por parte de Abbott Diagnóstico intervino Carlos Cendra, un profesional con un año de trayectoria en la compañía, tras varias décadas de servicio en Telefónica. Durante su ponencia destacó el protagonismo que están teniendo los smartphones como elementos fundamentales de la revolución tecnológica de las TIC. Junto a esto, y dentro de su actual responsabilidad, describió la importancia de los laboratorios clínicos de diagnóstico como aquellas entidades cuyas pruebas y resultados determinan entre el 60 y el 70% de todas las decisiones clínicas, a pesar de que sólo consumen el 5% del presupuesto sanitario. Por eso estos laboratorios tienen un gran peso en el funcionamiento y eficiencia del sistema sanitario porque, tal como detalló Cendra, un retraso de 30 minutos en obtener los resultados en urgencias, puede incrementar el coste igualmente en un 5%. Razón por la que los laboratorios puestos al servicio de los hospitales tienen que estar siempre en funcionamiento, a través de un mantenimiento predictivo que impide que se estropeen.
Para Cendra, el laboratorio clínico es la mayor fuente de Big Data posible y su mayor baza para generar valor para las compañías. Según sus datos, sólo en Europa hay 9.000 dispositivos diagnósticos con un nivel tecnológico capaz de ofrecer hasta 4 millones de tests al día.
Por su parte, el director médico de Celgene, el doctor José Luis García Fernández, destacó que la industria farmacéutica lleva retraso en su incorporación al Big Data por tener un modelo de negocio de gran éxito que, sin embargo, ofrece resistencias al cambio. Sin embargo, estimó que esta nueva tecnología es imprescindible para hacer avanzar la evidencia científica, ya que cada paciente, según los datos del ponente, genera medio millón de gigabytes de información a lo largo de su vida. Un volumen de datos que alcanzará la exorbitante cifra de 25.000 petabytes en el año 2020.
No obstante, García Fernández advirtió que la información ofrecida por el Big Data es desestructurada y que pierde entidad si se le aplican filtros. Aunque esto no impedirá que pueda ofrecer un modelo complementario muy potente al de los ensayos clínicos. Estos sólo recogen el 4% de la información sobre pacientes tratados, a través de las revistas científicas, mientras que el Big Data tiene potencial para ofrecer datos del 100% de los pacientes tratados en el mundo. Como caso llamativo al respecto, el director médico puso la investigación que se realiza actualmente sobre genética y que se publica en bibliotecas abiertas a todo el mundo. Con este material, Loxo Oncology desarrolló una molécula, evitando los altos costes de las primeras fases de la investigación. De ahí que García Fernández se mostrara seguro de que la aplicación de la información a la toma de decisiones basadas en los datos del mundo real podrá llevar a un cambio de modelo de negocio en la industria farmacéutica capaz de crear mayor valor añadido, con una eficacia en los tratamientos que podrá subir del 60% de los ensayos clínicos, al 90% gracias a todos los datos recogidos mediante RWD y RWE.
Fuente: immedicohospitalario.es