Una vez definida en términos retóricos en última instancia como "el uso concienzudo, juicioso y explícito de la mejor evidencia actual para tomar decisiones sobre el cuidado de pacientes individuales" [1], la medicina basada en la evidencia se basa en ciertos supuestos filosóficos: una verdad singular, comprobable a través de la investigación empírica; una lógica lineal de causalidad en la cual las intervenciones tienen tamaños de efectos particulares; rigor definido principalmente en términos metodológicos (especialmente, una jerarquía de diseños de estudio preferidos y herramientas para detectar sesgos); y un enfoque deconstructivo para la resolución de problemas (la base de evidencia se construye respondiendo preguntas enfocadas, típicamente enmarcadas como "PICO" - población-intervención-comparación-resultado) [2].
El problema con las pandemias es que estos supuestos rara vez se cumplen.
Un problema del tamaño de una pandemia puede ser enmarcado y disputado de múltiples maneras. Algunas preguntas de investigación sobre COVID-19, especialmente relacionadas con medicamentos y vacunas, son susceptibles de ensayos controlados aleatorios (y cuando tales ensayos fueron posibles, se establecieron con una velocidad y eficiencia impresionantes [3, 4]). Pero muchas brechas de conocimiento son más amplias y no pueden reducirse a preguntas de estilo PICO. ¿Se pudieron evitar las muertes domiciliarias en el cuidado [5]? ¿Por qué se rompió la cadena de suministro global para equipos de protección personal [6]? ¿Qué papel juega la resiliencia del sistema de salud en el control de la pandemia [7]? Y así.
Frente a estas y otras preguntas más amplias, la simplicidad de un experimento controlado de intervención activa versus intervención desactivada diseñado para producir una respuesta definitiva (es decir, estadísticamente significativa y ampliamente generalizable) a una pregunta enfocada suena hueca.
En particular, las intervenciones preventivas de salud pública aguas arriba destinadas a apoyar el cambio de comportamiento generalizado y sostenido en toda una población (en lugar de probar el impacto de un cambio de comportamiento a corto plazo en una muestra seleccionada) rara vez se prestan a tal diseño [8, 9 ] Al implementar intervenciones de salud pública para toda la población, ya sean medidas convencionales como la dieta o el ejercicio, o medidas relacionadas con COVID-19, como el lavado de manos, el distanciamiento social y las cubiertas faciales, no solo debemos persuadir a las personas para que cambien su comportamiento, sino también adaptar el entorno a hacer tales cambios más fáciles de hacer y mantener [10-12].
Los esfuerzos de salud pública en toda la población suelen ser iterativos, cultivados localmente, dependen del contexto, y tienen una metodología establecida para una evaluación y adaptación rápidas [9]. Pero la medicina basada en la evidencia ha tendido a clasificar tales diseños como "baja calidad metodológica" [13]. Si bien esto se ha reconocido como un problema en la práctica de la salud pública durante algún tiempo [11], la insuficiencia del paradigma dominante se ha convertido de repente en una misión crítica.
Mientras que la medicina basada en la evidencia reconoce que los diseños de los estudios deben reflejar la naturaleza de la pregunta (los ensayos aleatorios, por ejemplo, se prefieren solo para las preguntas de terapia [13]), incluso los científicos superiores a veces aplican en exceso su jerarquía de evidencia. Un grupo interdisciplinario de académicos de la prestigiosa Royal Society del Reino Unido revisó recientemente el uso de máscaras faciales por parte del público en general, basándose en evidencia de ciencias de laboratorio, modelos matemáticos y estudios de políticas [14]. Los epidemiólogos criticaron el informe por ser "no sistemático" y por recomendar medidas políticas en ausencia de una estimación cuantitativa del tamaño del efecto de ensayos controlados aleatorios sólidos [15].
Tales críticas parecen hacer dos suposiciones cuestionables:
- Primero, que la cuantificación precisa del impacto de este tipo de intervención es posible y deseable.
- Segundo, a menos que tengamos pruebas aleatorias de ensayos, no debemos hacer nada.
Seguramente es hora de recurrir a un paradigma científico más adecuado para su propósito. La teoría de sistemas adaptativos complejos propone que la cuantificación precisa de relaciones particulares de causa-efecto es imposible (porque tales relaciones no son constantes y no pueden aislarse significativamente) e innecesaria (porque lo que importa es lo que emerge en una situación particular del mundo real). Este paradigma propone que cuando múltiples factores interactúan de manera dinámica e impredecible, los métodos naturalistas y la evaluación de ciclo rápido son el diseño de estudio preferido.
La lógica de la medicina basada en la evidencia del siglo XX, en la que los científicos persiguieron los objetivos de certeza, previsibilidad y causalidad lineal, sigue siendo útil en algunas circunstancias (por ejemplo, los ensayos de medicamentos y vacunas mencionados anteriormente). Pero a nivel de población y sistema, debemos adoptar la epistemología y los métodos del siglo XXI para estudiar la mejor forma de hacer frente a la incertidumbre, la imprevisibilidad y la causalidad no lineal [16].
En un sistema complejo, la pregunta que impulsa la investigación científica no es "¿cuál es el tamaño del efecto y es estadísticamente significativo una vez que se han controlado otras variables?" sino "¿esta intervención contribuye, junto con otros factores, a un resultado deseable?".
Múltiples intervenciones podrían contribuir a un efecto beneficioso general a través de efectos heterogéneos en vías causales dispares, aunque ninguna tendría un impacto estadísticamente significativo en ninguna variable predefinida [11]. Para iluminar tales influencias, necesitamos aplicar diseños de investigación que pongan en primer plano las interacciones dinámicas y la emergencia. Estos incluyen estudios de casos detallados de métodos mixtos (investigación primaria) y revisiones narrativas (investigación secundaria) que detectan las interconexiones y resaltan la causalidad generativa en todo el sistema [16, 17].
Ogilvie et al han argumentado que, en lugar de enfrentar estos dos paradigmas entre sí, deberían reunirse [9]. Estos autores representan ensayos aleatorios (lo que llaman la "vía de práctica basada en la evidencia") y experimentos naturales (la "vía de evidencia basada en la práctica") en una relación complementaria y recursiva en lugar de jerárquica. Proponen que "... estudios de intervención [p. Ej. los ensayos] deberían centrarse en reducir las incertidumbres críticas, que los diseños de estudios no aleatorios deberían adoptarse en lugar de tolerarse y que se requiere un enfoque más matizado para evaluar la utilidad de diversos tipos de evidencia".
En la actual pandemia de rápido movimiento, donde el costo de la inacción se cuenta en las sombrías cifras de mortalidad anunciadas diariamente, la implementación de nuevas intervenciones políticas en ausencia de pruebas aleatorias se ha convertido en un imperativo científico y moral. |
Si bien es difícil predecir algo en tiempo real, algún día la historia nos dirá si el cumplimiento de la “práctica basada en evidencia” ayudó o dificultó la respuesta de salud pública a Covid-19, o si un aparente debilitamiento de los estándares para acomodar la “evidencia basada en la práctica” fue, en última instancia, una estrategia más efectiva.