Señalaron la historia de John Ioannidis y Gideon Meyerowitz-Katz

Un par de comentaristas me señalaron la historia de John Ioannidis y Gideon Meyerowitz-Katz. David Gorski cuenta la historia. Parece que Ioannidis sigue lidiando con las secuelas de su extrapolación del año pasado de que podría haber 10.000 muertes por coronavirus en Estados Unidos. Se trataba sólo de un cálculo aproximado, y como dice Gorski, no hay que avergonzarse por estar equivocado "por un factor de diez o incluso de 50". El problema es que Ioannidis no parece ser capaz de dejar de lado su minimización inicial del riesgo. Estoy de acuerdo con Ioannidis en que muchas de las muertes son de personas mayores, por lo que la pérdida de calidad es mucho menor que la de una gripe que mata al mismo número de personas más jóvenes, pero aun así se trata de mucha mortalidad y morbilidad, por no hablar de toda la alteración de la vida de la gente (gran parte de la cual no puede atribuirse a los "cierres", dado que el año pasado por estas fechas la gente estaba sacando a sus hijos de los colegios, cancelando viajes, etc.). En retrospectiva, parece que podríamos haber salvado muchas vidas simplemente llevando máscaras, pero no es que Ioannidis dijera "sólo 10.000 muertes si todos llevamos máscaras"; no, fue lo contrario, dijo que si hubiéramos vivido nuestras vidas normalmente apenas habríamos notado el coronavirus Esta extrapolación de 10.000 se basaba en una subestimación de la tasa de mortalidad del coronavirus y también en una suposición de que sólo el 1% de la población estadounidense se infectaría. Lo curioso es que en el mismo artículo de marzo de 2020 con ese cálculo también se decía que "no sabemos si estamos fallando en la captación de infecciones por un factor de tres o de 300", y un mes después Ioannidis era coautor de un artículo que estimaba que algunos condados de California ya tenían tasas de infección superiores al 2% a principios de abril. Yo tenía escepticismo sobre la estimación del 2% -no es que pensara que era demasiado alta, necesariamente, sólo que pensaba que la estimación era menos segura de lo que los autores de ese estudio habían afirmado- pero, en cualquier caso, había mucha incoherencia en la posición de que (a) las tasas de infección eran mucho más altas de lo que se había informado, pero (b) sólo el 1% de la población estadounidense se infectaría. Creo que todos estamos de acuerdo en que ya ha sido más del 1%. De nuevo, equivocarse en una previsión está bien. La naturaleza de los pronósticos probabilísticos es que habrá incertidumbre. Pronosticamos que Joe Biden ganaría entre 259 y 415 votos electorales. En realidad obtuvo 306, por lo que estaba en nuestro rango, pero fue inferior a nuestra predicción de puntos. No puedo culpar a Ioannidis por considerar 10.000 muertes como una posibilidad; como dice Gorski, el problema vino después al no reevaluar completamente sus modelos a la luz de los errores (inevitables) del pronóstico. Este no es un problema exclusivo de un epidemiólogo en particular; problemas similares surgieron en la otra dirección con el epidemiólogo del Imperial College Neil Ferguson. Una vez más, la cuestión no es que Ferguson no fuera razonable, sino que hacer una predicción en un momento de incertidumbre es el primer paso de un proceso de dos etapas. El segundo paso consiste en volver atrás y evaluar el resultado de la predicción. Me pregunto si algunos de estos problemas pueden atribuirse a la desigualdad de Jensen. Cuando se pronostica el número de muertos de una pandemia, hay literalmente órdenes de magnitud de incertidumbre. Parte de ella está relacionada con la retroalimentación en la estocasticidad de la propagación -una epidemia puede extinguirse o explotar, y si explota puede volverse incontenible- y otra parte es simplemente incertidumbre sobre la rapidez con la que se propagará y el número de personas que matará. Supongamos que la previsión de muertes para una pandemia concreta está en el rango {100, 1000, 10.000, 100.000, 1.000.000}, siendo los extremos inferior y superior los menos probables. Para fijar las ideas, supongamos que las probabilidades de estos 5 resultados son del 5%, 20%, 50%, 20% y 5%, respectivamente. Debido a las dificultades prácticas del diagnóstico y la información, es posible que los tres resultados del extremo inferior sean difíciles de distinguir, pero no nos preocupemos por ello. En cualquier caso, la cuestión es que la mejor estimación o el resultado más probable aquí es de 10.000, pero el número esperado de muertes es de 75.000. Y podrían producirse importantes daños económicos y sociales en el extremo más alto. Así que puede tener sentido prepararse para un millón de muertes y prever una previsión de 75.000 muertes, aunque 10.000 sea lo más probable. Y todo ello con las probabilidades conocidas. Con probabilidades desconocidas, todo es mucho más difícil. Y entonces, después del hecho, si el número de muertos es sólo de 10.000, mucha gente puede ir por ahí acusando a los de "75.000" y a los de "1.000.000" de ser alarmistas innecesarios. Lo que quiero decir aquí no es que fuera un error que Ioannidis y otros al principio de la pandemia consideraran las posibilidades más bajas. Más bien, sólo quiero destacar las dificultades inherentes al manejo de este tipo de variación en órdenes de magnitud, y la importancia de volver atrás y comprender dónde se equivocaron las conjeturas del pasado P.D. También hay una discusión sobre Ioannidis criticando a Meyerowitz-Katz por llevar gafas grandes y tener un gato. No estuvo bien que Ioannidis hiciera eso, pero creo que eso es bastante independiente de las cuestiones de estadística y epidemiología que se han discutido anteriormente. Todos hacemos cosas que no están bien a veces; Ioannidis simplemente tuvo la mala suerte de no tener un editor en ese artículo que podría haber sugerido que eliminara esos pasajes. A tale of two epidemiologists: It was the worst of times