Al comienzo de la pandemia había grandes expectativas en las previsiones matemáticas sobre su evolución, pero la escasa calidad de los datos, la incertidumbre y el uso de modelos epidemiológicos simplistas han hecho que los resultados decepcionen. Varios expertos nos dan pistas sobre posibles mejoras.
Cuando el virus causante de la COVID-19 empezó su devastadora expansión, matemáticos y físicos de todo el mundo se pusieron a disposición de Gobiernos e instituciones para desarrollar modelos que ayudaran a predecir su evolución.
En marzo, en el inicio del confinamiento por la pandemia, un grupo de investigadores españoles puso en marcha la Acción Matemática contra el coronavirus para intentar avanzar en este ámbito. Ya entonces manifestaron que el gran reto iba a suponer conseguir y armonizar los datos indispensables que permitieran desarrollar dichos modelos.
Según explica a SINC José A. Cuesta, doctor en Física y catedrático de Matemática Aplicada en la Universidad Carlos III de Madrid (UC3M), “la dificultad de la predicción de una pandemia como la actual tiene tres niveles: la calidad de los datos, la adecuación de los modelos y la incertidumbre intrínseca de los modelos epidemiológicos”.
Cuesta y su equipo enviaron el pasado mes de abril un estudio, aún en fase preprint, en el que inciden en esta incertidumbre asociada al modelado de la COVID-19 y se preguntan si se puede predecir con precisión el punto de inflexión y el fin de una epidemia en expansión. Su respuesta es que “no se puede”. Por ello, abogan por un escenario de previsión probabilístico para su estudio.
Por su parte, Davide Faranda, experto en sistemas complejos del Centro Nacional de Investigación Científica (CNRS, por sus siglas en francés), indica a SINC “el extremo cuidado que hay que tener a la hora de extrapolar datos de la pandemia”.
Este físico coincide con Cuesta en que “la incertidumbre de los modelos se debe tanto a la falta de calidad de los datos, como a la naturaleza intrínseca de la dinámica de la epidemia, ya que es ultrasensible a los parámetros, especialmente, durante la fase inicial de expansión”, tal y como muestra en su estudio, publicado la revista Chaos en mayo.
“Debido a las incertidumbres, tanto en los parámetros involucrados en los modelos –tasa de infección, período de incubación y tiempo de recuperación– como en el carácter incompleto de los datos sobre infecciones dentro de los diferentes países, y entre países, las extrapolaciones podrían conducir a un rango increíblemente amplio de resultados inciertos”, destaca el francés.
“Por ejemplo –dice Faranda– el simple hecho de asumir una subestimación de los últimos datos en el recuento de infecciones del 20 % puede llevar a un cambio en las estimaciones totales de infecciones de unos pocos miles a millones de individuos”.
En la búsqueda de soluciones para mejorar el modelado de la COVID-19, Cuesta opina que se debería tratar de imitar el modelo seguido en la predicción meteorológica, que, en su opinión, “antes era un desastre y ahora es extraordinario”.
¿Cómo se ha conseguido?: “Porque se hacen una gran cantidad de mediciones utilizando múltiples fuentes, como sondas, estaciones meteorológicas, satélites… El resultado es que hay unos datos con mucha resolución y precisión de la atmósfera a muchas alturas”, comenta el investigador de la UC3M.
Además, “las interacciones en la atmósfera y con la tierra y el mar a nivel local se describen mediante ecuaciones muy detalladas. Y esto ha sido posible también gracias al aumento de la capacidad de computación de los ordenadores”, señala Cuesta.
Según el experto, “hay un tercer aspecto en las predicciones meteorológicas que es inevitable: el caos. Las ecuaciones del clima son caóticas. Eso significa que el más mínimo error que haya en una medición se va a ir amplificando con el tiempo y producirá unos resultados que no tienen nada que ver con la realidad”.
“La dinámica epidemiológica –aclara– no es caótica, pero tiene un problema de naturaleza muy parecida porque es un proceso exponencial y las pequeñas diferencias se amplifican brutalmente con el tiempo”.
Las predicciones meteorológicas han solventado este problema de dos formas: “Aceptando que hay una ‘ventana’ fiable y que más allá la predicción es inútil. Por eso las predicciones del tiempo nunca van más allá de una semana. Lo que pase de tres días tiene una fiabilidad muy relativa y estas predicciones hay que ir corrigiéndolas sobre la marcha”, agrega Cuesta.
Otra innovación en el ámbito meteorológico es el uso de la predicción probabilística, que es una consecuencia de esa incertidumbre de los modelos. “Puesto que la predicción exacta es imposible, ¿por qué no cambiarla por un rango de posibilidades con distintas probabilidades? Ya no se dice mañana va a llover, sino la probabilidad de lluvia mañana es del 90 %”, subraya el catedrático.
Con los modelos epidemiológicos pasa algo parecido, pero, según el físico español, “nos encontramos en un estado muy anterior, debido a que la calidad de los datos no es buena. No hay suficiente certeza del número de muertes, ni sobre la cantidad de gente asintomática que está contagiando porque no se hacen suficientes test. Y, además, cada comunidad autónoma y cada país contabiliza de una forma distinta”.
“Si te fijas en los modelos que se hicieron en marzo, todos fallaban porque la incertidumbre era muy grande y había una heterogeneidad de datos enorme”, recalca.
Cuesta pone el ejemplo de las predicciones hechas por aquellas fechas por parte del grupo MUNQU, de la Universidad Politécnica de Valencia, que estuvo publicando informes diarios con previsiones hasta el 22 de marzo, cuando predijeron un pico de la epidemia en España para finales de mayo con 800.000 casos activos reportados. El pico se produjo el 18 de abril, con un número de casos activos menor de 120.000.
Los expertos se quejan de que no hay suficiente certeza del número de muertes, ni sobre la cantidad de gente asintomática que está contagiando porque no se hacen suficientes test. / Adobe Stock
Este grupo dejó de publicar informes en abril, tal y como explican en su página web por “la falta de homogeneidad de los datos en las diversas comunidades autónomas”.
En el aspecto de mejora de la calidad de los datos incide también Ander Galisteo, investigador del Instituto IMDEA Networks. Según señala a SINC, “los modelos son tan buenos como los datos que utilicemos para crearlos”.
Galisteo indica que “para un modelo de propagación, obviamente, tenemos que tener en cuenta cómo evoluciona la enfermedad, el número de contactos por individuo, el tipo de contacto que han tenido con otras personas, el tamaño de la población, la climatología, la cultura de cercanía, la legislación y cultura sobre la higiene, las características de la población, etc. Cuantos más factores podamos medir, mejor será nuestro modelo. Puede que haya algunos que no influyan y otros que no hayamos tenido en cuenta que sí, pero la idea general es que cuantas más variables midamos, mejor podremos entender qué pasa”.
Hasta ahora, dice Galisteo, “todos los modelos que he visto o bien se basaban en otras pandemias o utilizaban los datos disponibles de esta, que, en ocasiones, son demasiado pocos. Habría que resaltar también que las medidas de contención tomadas para esta pandemia no se han visto nunca antes y solo el tiempo dirá cómo han afectado a los contagios y, por ende, a los datos recogidos”, destaca.
En opinión de José A. Cuesta, a estos obstáculos se añade que “la mayoría de los modelos epidemiológicos que se usan son de comienzos del siglo XX y extremadamente simplificados, como es el modelo SIR [de las siglas población susceptible, infectada y recuperada], que clasifica a la gente en pocas categorías, y describe su evolución con unas ecuaciones diferenciales”.
Se trata, dice, “de una simplificación burda, ya que, ni basta con esas pocas categorías, ni las ecuaciones que describen los procesos son realmente diferenciales. El resultado es que los modelos ajustan a los datos bien a toro pasado, pero no sirven para predecir. El problema en la epidemiología es que se trata de un proceso exponencial y eso significa que un pequeño cambio ahora se traduce en un cambio enorme en una semana”, reitera.
¿Qué habría que hacer para cambiar este panorama? Cuesta insiste: “Lo mismo que con la predicción del tiempo. Primero, hay mejorar las mediciones muchísimo, posiblemente haciendo seguimiento de la gente a través de sus teléfonos móviles. En segundo lugar, habría que elaborar modelos muy detallados que tengan en cuenta no solo el estado de cada individuo –sano, asintomático, infectado, recuperado o muerto–, sino su movilidad, la zona en la que vive, etc. Cuanto más detalle tengamos mejor será el modelo que usemos para predecir”.
También “es necesario aceptar que hay una ventana temporal para predecir más allá de la cual la predicción no vale para nada. La incertidumbre no la podemos eliminar ni siquiera con unos datos y unos modelos perfectos. Pero la previsión probabilística nos dice posibles escenarios futuros y su probabilidad, condicionada a los datos que tenemos”, explica el catedrático de la UC3M.
“Para que te hagas una idea –señala Cuesta– cuando el Gobierno español estaba en la disyuntiva de si cerrar empresas y hacer un confinamiento duro antes de Semana Santa o no hacerlo, las predicciones que hicimos en nuestro estudio [en la semana previa de que se decidiera el confinamiento] eran que, de continuar sin hacer nada más, habría un 75% de probabilidades de que la epidemia no se pudiera contener y, con un 25 % de probabilidades, se hubiera llegado al pico de la epidemia hacia finales de abril”.
“Es como la decisión de hacer o no una barbacoa el sábado cuando dan un 75 % de probabilidad de lluvia, pero con vidas humanas”, destaca.
Por otro lado, prosigue Cuesta, “probabilísticos o no, los modelos son útiles por otro motivo: porque permiten comparar escenarios. Tal vez no puedan predecir si el pico se va a producir la semana que viene o dentro de un mes, pero sí pueden decirte si un confinamiento de tal o cual tipo puede adelantar el pico. Y eso es extremadamente útil a la hora de tomar decisiones políticas. Además, si conoces las probabilidades de cada escenario, puedes hacer estimaciones en términos de coste de vidas y de coste económico”, subraya.
El catedrático reconoce que un problema añadido puede deberse también a que no se está contando en la elaboración de estos modelos “con la colaboración de epidemiólogos”. La actual pandemia ha puesto de manifiesto, entre muchas otras cosas, “el escaso contacto entre las matemáticas y la epidemiología. Todos nos podríamos beneficiar si hubiera una colaboración más estrecha, incluyendo también a los veterinarios, que tienen gran experiencia en la contención de epidemias”.
En su caso, comenta Cuesta, es una cuestión de red de contactos. “No tengo contacto con epidemiólogos porque no es mi tema de investigación principal. Tampoco tengo nada claro que ellos usen modelos matemáticos, lo cual es un error porque les podría ayudar. La formación de los biólogos, médicos, veterinarios, etc., no contempla la matemática, desafortunadamente, por eso tenemos poca relación”.
Lo que está claro “es que esta pandemia ha pillado a todos con el pie cambiado, pero, en el caso del modelado de la COVID-19, lo que ha fallado sobre todo son los datos”, insiste.
En su opinión, “con buenos datos y sumando información de seguimiento a través del móvil, los modelos podrían haber sido, en la práctica, una simulación de la realidad. En ese escenario, lo único que hubiera quedado do es la incertidumbre de la dinámica, que es inevitable, pero los modelos epidemiológicos con que contaríamos estarían al nivel de los de la predicción del tiempo”.
Por ello, Cuesta señala la necesidad de “regularizar ya protocolos eficientes para la recogida y publicación de los datos diarios de la pandemia”.
Para concluir, este catedrático tiene otra sugerencia: “Una vez que todo esto pase, deberíamos poner en marcha la creación de un instituto epidemiológico, a imagen y semejanza del Instituto Nacional de Meteorología. Un lugar dónde se recogieran continuamente datos sobre enfermedades infecciosas y se elaborasen modelos detallados de propagación de epidemias, que fuera capaz de hacer saltar la alarma cuando las predicciones alertasen de un peligro y de activar protocolos de actuación”.