Conectividad y Sociedad líquida

15040187724_9e2f2d7c21_b

Ya en 2008 en la Fundación Gaspar Casal nos ocupábamos de cosas como La Blogosfera Sanitaria y NETS .

Me gustaría pincelar dos visiones antitéticas que han explosionado últimamente en las redes sociales: una primera, en la que se observa una progresiva desigualdad y una falta de sentido colectivo  que nos lleva a un mundo cada vez más individualista (Bauman); frente a una segunda, con la idea de sociedad empática, donde estar juntos, vivir en comunidad, puede provocar en el ser humano un desarrollo de la empatía, de los valores humanistas que resulten finalmente en un cambio de paradigma real (Rifkin).

Empezamos con Bauman. Este sociólogo nonagenario de origen polaco asentado en el Reino Unido mantiene la tesis de que la crisis de la democracia es el colapso de la confianza. La creencia de que los líderes no solo son corruptos o estúpidos, sino que son incapaces. El dilema más libertad menos seguridad y más seguridad menos libertad seguirá existiendo. La cuestión de la identidad ha sido transformada de algo que viene dado a una tarea: tú tienes que crear tu propia comunidad. Pero no se crea una comunidad, la tienes o no; lo que las redes pueden crear es un sustituto. La diferencia entre la comunidad y la red es que tú perteneces a la comunidad pero la red te pertenece a ti. Puedes añadir amigos y puedes borrarlos, controlas a la gente con que te relacionas. La gente se siente un poco mejor porque la soledad es la gran amenaza en estos tiempos de individualización. Pero en las redes es tan fácil añadir o borrar amigos que no precisas habilidades sociales. Estas las desarrollas cuando estás en el trabajo, en la calle y te encuentras con gente con la que tienes que tener una interacción e involúcrate en un diálogo. Las redes pueden encerrarte en zonas de confort donde el único sonido que oyen es el eco de su voz y donde lo único que ven son los reflejos de su propia cara. Hay que usarlas para unir y ampliar horizontes sin evitar la controversia. Las redes son muy útiles, dan servicios placenteros, pero a la vez son una trampa.

Y seguimos con Rifkin.  Propone la empatía como el mejor modelo, y posiblemente el único, para las relaciones internacionales y la supervivencia global en el siglo XXI. Parece que el mundo jamás ha estado tan interconectado a través de los medios de comunicación, el comercio y la cultura, y tan salvajemente desgarrado por la guerra, la crisis financiera, el calentamiento global e, incluso, la migración de personas en situación de vulnerabilidad y la más fácil transmisibilidad de enfermedades. No importa cuánto nos empeñemos en la tarea de afrontar los desafíos de un rápido mundo globalizado, la raza humana parece quedarse corta continuamente, incapaz de reunir los recursos mentales colectivos para pensar globalmente y actuar localmente. Hay según él una desconexión entre nuestra visión del mundo y nuestra habilidad para percibir dicha visión que radica en el estado actual de la conciencia humana. El modo en que nuestro cerebro está estructurado nos predispone hacia una forma de sentir, pensar y actuar en el mundo que ya no es apropiada para los nuevos entornos que hemos creado. Explora cómo la conciencia empática reestructura la forma en que organizamos nuestra vida personal, nos acercamos al conocimiento, perseveramos en ciencia y tecnología, dirigimos el comercio, gobernamos y orquestamos nuestra vida civil. El desarrollo de esta conciencia empática es esencial para crear un futuro en que pensemos y nos comportemos de manera que el mundo valga la pena.

En síntesis, la información ha evolucionado a lo largo de la historia del mercado local a los medios de masas y a los medios sociales. El sharismo tiene que ver con que los que comparten están acumulando capital social y una superabundancia de respeto por parte de la comunidad. El sharismo está, posiblemente, codificado en el genoma humano. Postula que la lógica neuronal de conexiones, de abundancia de conexiones como signo de salud neurobiológica, de un cerebro como sistema abierto, se repite en el ser humano, es un proceso instintivo, que intenta desactivar la cultura del no comparte, muy prevalente hasta ahora.

Hoy estamos en un entorno de datos abundantes y abiertos para la investigación con un poder casi ilimitado de procesamiento, que nos lleva a un sistema medible, incluso programable.  El reto está en convertir la participación actual de las redes sociales en participación crítica y de calidad, creando espacios donde prime el talento cooperativo (a lo Cochrane, a lo Wikipedia,…) frente al mero comercio cooperativo (Airbnb, Uber,…). Se corre el riesgo de colonización uniforme y acrítica si queda fuera la deliberación participada.

Los usuarios de la Web hoy no son consumidores pasivos, sino prosumidores. En vez de constituir la audiencia de los medios tradicionales, interactúan con la información: comentan y producen contenido. Las nuevas organizaciones (redes informales) tienen límites difusos que se recomponen de maneras distintas en función del contexto. Es posible pertenecer a varios proyectos al mismo tiempo. La vinculación a espacios tiene que ver con formas líquidas de compromiso y con la pérdida de peso de las identidades. Veremos, en poco tiempo, si puede más el dentro institucional y que por tanto estas nuevas organizaciones vayan normalizando su peculiaridad o si por el contrario es el fuera el que logra que se modifiquen las formas  de hacer tradicionales de las instituciones y de las élites que las han venido ocupando.  La cosa pinta a que observemos que en estas nuevas organizaciones, se pase de la transparencia y la horizontalidad en sus maneras a  liderazgos jerárquicos y carismáticos, mucho menos participados.

Hölderlin nos recordaba que “donde hay peligro crece también lo que nos salva”. Aureli, arquitecto italiano nos recuerda en su ensayo “Menos es suficiente” la esquizofrenia de emparejar los recortes al Estado del bienestar con el estímulo al consumo individual que define nuestro universo. La innovación vacía de valores es una de sus consecuencias.

 

De la Medicina basada en la evidencia (Evidence based medicine) a los Datos de vida real (Real World Data) y a los Grandes volúmenes de datos (Big Data): un billete de ida y vuelta

16673404815_b39604b9f7_o

La Fundación Gaspar Casal con la colaboración de la Junta de Comunidades y de la Universidad de Castilla La Mancha celebran los días 10 y 11 de marzo en Toledo el 6º Congreso de Gestión Clínica.

El Ensayo clínico controlado (ECC)  ha sido aceptado a lo largo de las dos últimas décadas como el  estándar de oro para la toma de decisiones en la práctica clínica, y hasta en la política sanitaria. Pero sólo es evidencia fiable la que proviene de los ECC. Que la mayoría de los médicos de bata blanca incorporaran en sus hábitos una sistemática de razonamiento clínico sustentado en pruebas, es un gran avance, innegable. Ahora bien, también ha contribuido a medicalizar la vida, a imposibilitar nuevas investigaciones por la  gran cantidad de estudios llevadas a cabo en su terreno, que en ocasiones no tienen significado clínico alguno. La MBE falla en el manejo de la complejidad, de las necesidades individuales, del contexto de la persona y en temas como la multimorbilidad.

De donde viene la MBE. En 1968, la Universidad de MacMaster en Canadá, ofrece un curriculum integrado con aprendizaje basado en problemas clínicos que combina ciencia básica con epidemiología clínica y medicina clínica. Se empiezan a elaborar recomendaciones basadas en niveles de evidencia que se gradúa en función del diseño de los estudios. En 1981, Sackett  y colaboradores publican una serie de artículos en el Canadian Medical Association Journal que explica los criterios para valorar la validez interna de los estudios dependiendo de su diseño. A mediados de los ochenta Ian Chalmers, director de la unidad de epidemiología perinatal de la Universidad de Oxford, establece una base datos con los ensayos perinatales cuya información es fácilmente accesible para los clínicos. Unos años después la Cochrane Collaboration emerge como organización que sistemáticamente combina la revisión y síntesis de la literatura con su acceso en tiempo al clínico durante el momento de la consulta. También la preocupación por la sostenibilidad de los sistemas sanitarios durante los años setenta, empuja a su desarrollo. Surgen nuevas disciplinas como la economía de la salud, la gestión y la investigación en resultados, que se añaden a la MBE en su empeño de perseguir objetivos medibles y evaluación continua que racionalizar el uso de recursos. Por último, la publicación en 1992 en el JAMA de “Evidence-based medicine. A new approach to teaching the practice of Medicine” donde se afirma que estamos ante un nuevo paradigma con un enfoque objetivo basado en la evidencia científica que viene a sustituir a una práctica subjetiva, intuitiva, basada en la experiencia y en el racional fisiopatológico.

Por qué se aceptó masivamente y en tan poco tiempo. De 1992 a 2015 se han publicado más de 20.000 artículos con el nombre “evidence-based”. Las Guías de práctica basadas en la evidencia son rutina en agencias de evaluación y sociedades científicas. Posiblemente el movimiento empezó, como otros sociales, con una fase de agitación (necesitamos cambiar el actual paradigma basado en la experiencia). El Grupo de trabajo de MacMaster fue muy persuasivo e infatigable en sus proclamas. Su adopción por la comunidad científica fue por el uso de conocimiento más basado en la autoridad que en la evidencia, como le han atribuido al propio Sackett recientemente.

La reputación, la credibilidad ganada por auto-citaciones entre sus proponentes, y una tupida red de profesionales que acudían cada año a las mismas conferencias y publicaban en las mismas revistas,…contribuyeron a su éxito.

De un enfoque amplio a uno restringido. Se pasó del care de Cochrane al cure. El foco se redujo con la estandarización y las guías de gestión de enfermedades. Hampton habló de la muerte de la libertad clínica por ser el mayor obstáculo para el avance de la medicina. Se graduó el conocimiento y apareció el GRADE. Los estándares para el desarrollo de guías requieren de un resumen de hallazgos o de piezas de evidencia para cada recomendación y son incluidas en el informe técnico.

Desafíos a los que se enfrenta la MBE. La MBE se ha asentado en ECC útiles para el cuidado agudo de condiciones con intervenciones simples. Nuestro contexto epidemiológico es, sin embargo, crónico y multimórbido. Se habla de libro de recetas, de la MacDonalización de la medicina, que obvia los determinantes sociales de la salud. No fueron suficientemente atendidas la efectividad, eficiencia y equidad en los servicios sanitarios. Hubo confusión entre buena evidencia y verdad científica. Primó el enfoque deductivo. Actualmente, con la emergencia de los estudios con Datos de Vida Real y el Big Data, se incorpora lo inductivo y la importancia de la pregunta de investigación a la que se quiere dar respuesta de una manera más holística, sin desmerecer lo mucho que ha hecho la MBE a la mejora de la práctica médica.

La entrada de los DVR. El ensayo clínico aleatorizado es el método de referencia para determinar la eficacia de las intervenciones sanitarias. Los estudios realizados a partir de DVR no pretenden sustituir, sino complementar la información generada a partir de ensayos clínicos aleatorizados. En términos generales, las preguntas a las que responden los estudios con DVR son diferentes a las preguntas que intentan responder los ensayos clínicos. Esas preguntas a responder con DVR no suelen estar orientadas a la comparación de intervenciones sanitarias, sino a la forma en que se utilizan dichas intervenciones (pautas de tratamiento, tipo de pacientes, etc.), a su seguridad y efectividad en condiciones de práctica clínica real, o al consumo de recursos sanitarios. En un momento en que el uso de las nuevas tecnologías de la información y de las nuevas capacidades analíticas está generando enormes expectativas sobre el potencial de los DVR en investigación, es importante conocer en profundidad las ventajas y las limitaciones de dichos estudios, evitando que esas expectativas sean exageradas; ejemplo de esto, es la creencia de que los estudios con DVR servirán para responder, de una forma más rápida y más barata que los ensayos clínicos, a casi cualquier pregunta de investigación.

Es preciso diferenciar los conceptos de gran volumen de datos (big data, en inglés) y de datos de la vida real, DVR. Los big data hacen referencia a grandes cantidades de datos (habitualmente petabytes o hexabytes), a veces no estructurados o parcialmente estructurados, que procesados permiten extraer conocimiento sobre la práctica habitual. Los DVR, por otra parte, han sido definidos por la International Society of Pharmacoeconomics and Outcomes Research (ISPOR), como aquellos datos utilizados para la toma de decisiones no obtenidos a partir de ensayos clínicos aleatorizados, sino de la práctica clínica. Los DVR pueden proceder de ensayos clínicos pragmáticos, estudios observacionales, etc….

Un adecuado análisis de los grandes datos debería ayudar a generar conclusiones generalizables, con alta validez externa, a diferencia de la MBE que tiene muy buena validez interna. Pero al mismo tiempo, la integración de datos personales de distinta procedencia (por ejemplo, historias clínicas, información genética, hábitos de vida, etc…), debería contribuir a la práctica de una medicina personalizada, encaminada a mejorar los resultados sanitarios de pacientes individuales, así como a facilitar la participación de los pacientes en la investigación y en su propio cuidado médico. Probablemente, una de las razones por las que el análisis de los grandes volúmenes de datos en los sistemas sanitarios no está mostrando el mismo potencial que en otras áreas de conocimiento es precisamente su excesivo enfoque en la generalización, en vez de en la búsqueda de oportunidades para transformar el conocimiento generado en beneficios individuales.

Por qué el aumento del interés sobre los DVR en el sector sanitario. Destacan la creciente concienciación sobre las limitaciones de los resultados de los ensayos clínicos; la existencia de mayores exigencias regulatorias, con una demanda sistemática de la evaluación continua del balance beneficio-riesgo de las intervenciones; el aumento del gasto sanitario y el desarrollo de nuevos sistemas de gestión, que fomentan la medida de los resultados en salud como requisito indispensable para desarrollar un sistema de pago “basado en el valor”; el desarrollo de nuevas tecnologías, que ha ayudado a la implantación de historias clínicas electrónicas y de repositorios de información personalizada, que están facilitando la integración de investigación clínica y de práctica médica; y el desarrollo de nuevas capacidades analíticas, que permiten el manejo de grandes volúmenes de información en periodos de tiempo cada vez más cortos.

Pero el interés por los DVR no es tan reciente como cabría esperar. En 1999, la International Society of Pharmacoeconomics and Outcomes Research (ISPOR), anteriormente mencionada, publica un monográfico donde se pregunta cómo deberían evaluarse los DVR para facilitar la toma de decisiones basada en los costes y resultados de la práctica clínica habitual, disminuyendo el riesgo de sesgo. En el editorial se reconoce que dicha información es complementaria a la que aportan los ensayos clínicos aleatorizados. En 2003, el gobierno norteamericano proporciona fondos a su agencia para la investigación y la calidad de los cuidados en salud (Agency of Healthcare Research and Quality, AHRQ) para promover la investigación en efectividad comparada en el sistema Medicare. Otras iniciativas en el mismo ámbito se suceden en esos años no sólo en Estados Unidos, sino también en Europa (NICE, IQWiG, 2006). En septiembre de 2008, coincidiendo con el décimo aniversario de Google, un editorial de Nature llama la atención sobre el cambio tecnológico en el que estamos inmersos, ligado al desarrollo de las herramientas informáticas que permiten el procesamiento de grandes cantidades de datos para generar conocimiento. El editorial plantea la necesidad de un gran acuerdo para obtener los recursos para aplicar esa capacidad tecnológica a la investigación, al tiempo que señala la necesidad de que los investigadores influyan en sus instituciones y vayan modificando sus prácticas para poder extraer todo el conocimiento de esa gran cantidad de datos, que ellos denominan “inteligencia comunitaria”.

Coincidiendo con los avances tecnológicos que facilitan el manejo de los datos provenientes de la práctica clínica, la crisis económica ha acelerado la necesidad de conocer cuál es el impacto de la inversión sanitaria en resultados de salud. Aspectos como la valoración de los costes de las enfermedades, de la efectividad comparada, de los resultados de las intervenciones a largo plazo, de la eficiencia de los sistemas sanitarios, pueden ser evaluados mediantes estudios basados en DVR. De la situación en España del nuevo movimiento de los Datos de vida real (que lo consideramos un paradigma), tendréis noticias en breve.

Los grandes volúmenes de datos. Big Data se refiere al conjunto de información que por grande y complejo, se hace muy difícil su procesamiento utilizando herramientas de gestión y análisis de bases de datos convencionales. El Big Data engloba infraestructuras, tecnologías y servicios que han sido creados para dar solución al procesamiento de enormes conjuntos de datos estructurados, no estructurados o semi-estructurados (mensajes en redes sociales, señales de móvil, archivos de audio, sensores, imágenes digitales, datos de formularios, e-mails, datos de encuestas, logs, etc.) que pueden provenir de sensores, micrófonos, cámaras, escáneres médicos o imágenes. El objetivo del Big Data es convertir el dato en información que facilita la toma de decisiones, incluso en tiempo real. ¿Cuál es entonces la diferencia entre las aplicaciones analíticas y de gestión actuales y el análisis de los Big Data?. Las diferencias se asocian a tres palabras: Volumen, Variedad y Velocidad.

Sus características. Hablamos de Big Data cuando los volúmenes superan la capacidad del software habitual para ser manejados y gestionados. Este concepto se encuentra en continuo movimiento porque los avances tecnológicos permiten tratamientos de volúmenes mayores. Cuando hablamos de grandes volúmenes nos referimos a tratamientos de terabytes o petabytes. Esto permite incluir, en este tipo de proyectos, informaciones (por ejemplo logs) que hasta la fecha no se utilizaban porque la tecnología no permitía procesarlos en un tiempo razonable. El concepto de volumen es muy variable y cada día que pasa eleva lo que podemos considerar grandes volúmenes de datos. En el concepto de variedad nos referimos a la inclusión de otros tipos de fuentes de datos diferentes a las que se utilizan de forma tradicional. Nos referimos a información obtenida en diferentes redes sociales, en el número cada vez mayor de dispositivos electrónicos conectados, la explotación de sensores que permiten conocer los movimientos y hábitos de vida, de información externa de diversas fuentes, etc. La información que procesan los Datawarehose es estructurada. Sin embargo, cuando hablamos del Big Data nos referimos a información que puede estar semiestructurada o no tener ninguna estructuración. La gestión de esta información desestructurada precisa de una tecnología diferente y permite tomar decisiones basadas en información que tiene importantes grados de inexactitud. Muchos de estos algoritmos se relacionan con los tratamientos de sistemas avanzados de lógica difusa.

El concepto de velocidad se refiere a la rapidez con que los datos se reciben, se procesan y se toman decisiones a partir de ellos. A la mayoría de los sistemas tradicionales les es imposible analizar de forma inmediata los grandes volúmenes de datos que les llegan; sin embargo, incorporar el concepto de tiempo real es imprescindible para sistemas de detección del fraude o la realización de ofertas personalizadas a los clientes.

En el sector de la salud, Big Data está teniendo mayor impacto en la actualidad. Sus aplicaciones crecerán de un modo espectacular, tanto para el área médica, como para las de análisis de datos (historias médicas, análisis clínicos…), la gestión de centros de salud, la administración hospitalaria, la documentación científica (generación, almacenamiento y explotación).

Por qué ida y vuelta. Hablamos de un viaje que comienza con la MBE y su estrella, el ECC que por su alta validez interna nos permite cumplir con la beneficencia y la no maleficiencia. Los DVR procedentes de registros, historias clínicas digitales y estudios observacionales, que por su alta validez externa, nos permite cuidar los principios de autonomía y justicia al conocer más y mejor la efectividad y la seguridad clínica. Los  grandes volúmenes de datos pueden, a través de la personalización, conseguir una mayor eficiencia, todavía por probar.