Antoine Flahault : Il y a plusieurs façons de prédire plusieurs semaines à l’avance l’évolution d’un phénomène récurrent, comme par exemple les épidémies de grippe saisonnière, de gastro-entérites, de varicelle, ou encore les cyclones dans les pays tropicaux, une fois que les phénomènes ont démarré. On a alors recours à des méthodes statistiques tenant compte de composantes cycliques, on appelle cette famille de modèles “les séries chronologiques”. On peut aussi emprunter aux climatologues la “méthode des analogues” qui consiste à chercher dans les cyclones passés (ou les épidémies passées), celui (ou celle) dont la dynamique ressemble le plus à celle que l’on observe actuellement. La prédiction du futur sera donc la moyenne des plus proches cyclones (ou épidémies) passé.e.s, appelés “analogues”. 

Mais aucune de ces méthodes ne s’applique à une pandémie pour laquelle on n’a, par définition, une très faible expérience passée, du moins de mémoire d’homme. Les seules prévisions que l’on peut alors faire consistent soit à prolonger la tendance actuelle, comme on le ferait au crayon, au doigt mouillé (même s’il existe un ensemble de modèles plus sophistiqués pour y parvenir), soit à recourir à une autre famille de modèles appelés les « modèles compartimentaux de type SEIR » (SEIR est l’acronyme de Susceptibles-Exposés-Infectieux-Retirés de la chaîne de transmission). Cette famille est celle utilisée par l’Institut Pasteur, Imperial College, ou par notre équipe à Genève. Ces modèles sont explicatifs, mécanistiques, dans le sens où ils cherchent à simuler des chaînes de transmission, avec une période d’incubation, une phase de contagiosité, une probabilité de guérison. Ils permettent d’inclure des interventions comme l’usage du masque, le confinement ou la vaccination. Ils reposent sur une théorie mathématique des épidémies qui remonte aux années 1920, à une époque où l’on n’avait pas d’ordinateurs mais où deux mathématiciens britanniques, Kermack et McKendrick avaient imaginé une simplification de la dynamique pandémique (on était juste après la grippe espagnole qu’ils voulaient mieux comprendre). Leur théorie reposait sur le paradigme de la contagion interhumaine, plaçant  les individus dans des compartiments S, E, I ou R, selon leur statut vis-à-vis de l’infection. Cette théorie fonctionne bien pour reproduire la dynamique d’épidémies de grippe, de Sida, ou de rougeole. Il était normal de vouloir l’adapter et l’appliquer à la Covid-19. Mais ces modèles n’ont jamais été développés, ni conçus pour prédire ni à long et même moyen termes pour aucune épidémie d’aucune maladie. En 1920, c’était pour mieux comprendre la grippe espagnole, théoriser le taux de reproduction, l’immunité collective, la croissance puis la décroissance de la pandémie. Dans le cas de la rougeole, on a eu recours à ces modèles pour aider l’OMS à piloter ses politiques vaccinales en Afrique. Pour le Sida, ces modèles ont été utilisés pour évaluer des scénarios de santé publique, par exemple fallait-il réaliser des tests sérologiques aux frontières ? À chaque fois qu’on a voulu les utiliser pour prédire, on s’est trompé. L’Imperial College pour le Sida, la maladie de la vache folle ou la grippe H1N1 (moi aussi pour la grippe H1N1 en 2009 d’ailleurs), l’Institut Pasteur pour le SRAS en 2003. Dans le cas de la pandémie de Covid-19, il y a eu tant de prévisions faites par de nombreuses équipes, souvent d’universités prestigieuses, que certaines ont pu, dans certains endroits, à certains moments, s’avérer exactes, mais je dirais par chance. En tout cas, lorsque ces prévisions excédaient quinze jours, elles se sont avérées presque toujours fausses, et parfois très fausses. À l’université de Genève, en collaboration avec les écoles polytechniques fédérales de Lausanne et de Zürich, nous produisons des prévisions pour 209 pays et territoires dans le monde, actualisées chaque jour. Cela prend des heures de temps calcul sur l’un des plus gros supercalculateurs d’Europe, basé à Lugano dans le Tessin. Mais nous nous réfrénons à ne prédire qu’à 7 jours. En effet, à 7 ou 15 jours, on ne peut pas se tromper beaucoup. Au-delà, aujourd’hui, on dit souvent n’importe quoi. 

Les savoirs que nous avons accumulés depuis le début de la pandémie ne devraient-ils pas nous permettre de mieux appréhender la situation ? A quel point les variants compliquent-ils la donne ? 

Prédire cette pandémie revient un peu à prédire la météorologie sous nos latitudes. À 7 jours, c’est déjà d’une fiabilité incertaine, sauf en cas d’anticyclone bien installé, où le temps peut rester stable plusieurs semaines de suite. Pour la pandémie de Covid, un « anticyclone » est bien installé en Chine actuellement. Comme, pendant de nombreux mois, en Australie, puis le variant Delta est venu comme une dépression météorologique et désormais la règle des 7 jours s’y applique, si l’on veut éviter de faire des prévisions erronées. 

 

On dispose de beaucoup de données depuis de nombreuses années dans le domaine de la météorologie. On a donc certainement progressé en précision et en fiabilité, et l’horizon temporel des prévisions a pu s’éloigner un peu, mais pas au point de prédire le temps qu’il fera à Paris dans trois mois. Et encore les saisons sont un déterminant plus puissant sur le temps que sur le coronavirus. Je crains donc que l’on n’améliore que très marginalement dans un avenir proche l’horizon de nos prévisions épidémiologiques, en tout cas sur les pandémies qui ne sont pas des phénomènes périodiques, en tout cas, pas encore.

Cette difficulté de modélisation nous condamne-t-elle à des prévisions de court terme ou analyses rétrospectives quand il s’agit de la pandémie ? Peut-on convenablement s’adapter si l’on est pas capable de prévoir la dynamique de long terme ? 

Comme nous le disions plus tôt, la modélisation mathématique des épidémies n’a pas été conçue pour prévoir l’avenir. Elle permet de mieux comprendre et reconstituer des dynamiques épidémiques passées, éventuellement de simuler des scénarios les plus réalistes possibles d’interventions envisagées pour contrôler l’épidémie. On ne peut pas faire un essai randomisé pour évaluer par exemple le confinement ou l’usage étendu du passe sanitaire, quel pays se prêterait-il à ce genre d’expérimentation par tirage au sort ? En revanche on peut simuler sur un ordinateur puissant un confinement, voire différents degrés de confinements, et comparer les résultats avec la simulation d’un usage étendu du passe sanitaire et informer les décideurs politiques des résultats obtenus pour leur pays. Pour prendre un autre exemple, on voudrait savoir jusqu’à quel niveau de décrue épidémique on doit imposer l’usage étendu du passe sanitaire en France ? Différentes options peuvent alors être simulées sur ordinateur et apporter des éléments utiles à la décision et l’action publique. C’est ainsi que l’on peut tenter d’appréhender le concept d’immunité collective à atteindre pour ne plus risquer de nouvelles vagues, ou encore modéliser l’arrivée d’un nouveau variant selon différentes caractéristiques et en fonction de différents scénarios de contrôle sanitaire aux frontières allant de la fermeture des frontières à leur perméabilité sans contrôle. Bref, la modélisation mathématique est un peu, pour l’épidémiologiste, ce qu’est la planche à dessin pour l’architecte. Elle lui permet de simuler des scénarios du spectre du possible ou des interventions dont on peine à se représenter l’efficacité contre la pandémie

Partager.

Comments are closed.

Exit mobile version