Patatras, quelques heures avant d’envoyer Causeur à l’imprimerie, nous avons appris que The Lancet prenait ses distances avec l’étude qu’elle avait publiée sur la dangerosité de la chloroquine. Il faut dire que malgré sa haute réputation, cette revue scientifique a déjà publié des études fausses. Reste à comprendre pourquoi l’OMS et notre ministère de la Santé lui ont si vite emboîté le pas.


 

« Nous n’avons pas été capables de confirmer l’efficacité de l’hydroxychloroquine ou de la chloroquine, utilisée seule ou avec un macrolide. Chacune de ces stratégies thérapeutiques utilisées dans le Covid-19 est associée avec une baisse de la survie à l’hôpital et une augmentation des troubles du rythme cardiaque. » Cette phrase, qui conclut l’étude publiée le 22 mai par Mandeep R. Mehra, cardiologue à Boston et professeur de médecine à Harvard, dans la prestigieuse revue The Lancet, n’est pas la plus simple ni la plus élégante qui ait jamais été publiée, mais elle a eu l’effet d’une bombe. En résumé, elle signifie : le professeur Raoult a tort. Définitivement. Et avec lui, bien sûr, tous ceux qui, de Donald Trump à Michel Onfray, l’ont érigé en héros du peuple, chevalier du bon sens en croisade contre l’establishment et les « élites ».

L’OMS et Véran aux ordres de The Lancet?

L’étude, selon laquelle le traitement à l’hydroxychloroquine associée à un antibiotique accroît le risque de mortalité pour les malades du coronavirus, ne fait pas que conforter le vaste camp des anti-Raoult, elle entraîne la conviction de ceux qui n’ont pas d’a priori idéologiques ou politiques. Ceci pour deux raisons : le nombre des sujets (96 032 patients !) étudiés et la réputation du journal qui l’a publiée.

Les big data ne peuvent pas être utilisées pour comparer des traitements. Les multiples ajustements et redressements statistiques effectués par Mehra dans son étude du Lancet ne sont pas du tout une garantie de qualité

Pour la première fois, une analyse reposant sur les « big data », l’exploitation d’un nombre considérable de données informatiques, et non sur un véritable essai clinique aboutit en quelques heures à l’interdiction de prescription d’une molécule présente sur le marché depuis 1949, et à l’arrêt des essais cliniques de cette molécule dans le Covid-19. Ce qui conduit à s’interroger à la fois sur l’effet de sidération produit par les grands chiffres et sur l’effet d’intimidation, exercé tant par ces même grands chiffres que par le prestige de la revue.

A lire aussi: Chloroquine: Sacré Raoult!

On croit spontanément que plus l’échantillon d’une étude est vaste, plus il est représentatif, donc, plus l’étude est sérieuse. Ceci est loin d’être vrai. En 1936, le magazine américain The Literary Digest procéda à un vaste sondage sur l’élection du président des États-Unis. Il interrogea par courrier 10 millions d’électeurs issus de ses listes d’abonnés, des annuaires téléphoniques et des listes de propriétaires d’automobiles. L’analyse de 2,3 millions de réponses permit de prédire l’élection d’Alfred M. Landon avec 55 % des voix. Franklin D. Roosevelt fut pourtant élu président avec 61 % des voix ! L’erreur était d’avoir utilisé en toute confiance une base de données très volumineuse, mais non représentative de la population des électeurs : la probabilité qu’un citoyen américain pauvre ne disposant ni d’un abonnement, ni d’un téléphone, ni d’une automobile figure dans l’échantillon était quasi nulle. Ce qui a abouti à l’erreur de sondage et incidemment à la faillite du magazine…

Fiabilité douteuse

Un échantillon de grande taille n’est donc en aucune façon une assurance de qualité. On peut même avancer que, plus le nombre de sujets est important, plus il est difficile de vérifier la qualité des données et donc de garantir la fiabilité de l’étude. En 1926, quelques années avant l’élection de Roosevelt, le statisticien et économiste anglais Arthur Lyon Bowley avait établi le premier principe garantissant la représentativité d’un échantillon, celui des tirages aléatoires : tout sujet de la population de référence doit avoir une probabilité non nulle d’être sélectionné dans l’échantillon. En conséquence, un échantillon d’un million de personnes non tirées au sort ne sera pas représentatif de la population d’ensemble, alors qu’un échantillon de 1 000 personnes tirées au sort le sera. Cette démarche fondée sur les tirages aléatoires est suivie par les autorités locales corses pour estimer la séroprévalence au coronavirus dans la population insulaire. Curieusement, elle n’a pas été employée à l’échelle nationale ou européenne.

A lire aussi, du même auteur: Le coût de la vie

Les 96 032 patients provenant de 671 hôpitaux sur les six continents analysés dans l’étude de Mehra publiée par The Lancet n’ont pas été tirés au sort parmi les patients de tous les hôpitaux du monde, ni parmi l’ensemble des patients hospitalisés pour Covid-19. Et pour cause : seuls des hôpitaux disposant d’une plate-forme de dossiers électroniques interopérables, donc compatibles, ont pu être intégrés dans l’analyse, alors que de très nombreux établissements ne sont pas équipés pour le traitement informatique de leurs dossiers patients, ou équipés d’un système maison. Quand bien même les données seraient de bonne qualité (ce qui est peu probable, car il est impo

Article réservé aux abonnés

60 % de l’article reste à lire…

Pour poursuivre la lecture de cet article Abonnez-vous dès maintenant.

ABONNEMENT 100% NUMERIQUE
  • Tout Causeur.fr en illimité
  • Le magazine disponible la veille de la sortie kiosque
  • Tous les anciens numéros
3 €80par mois
Juin 2020 – Causeur #80

Article extrait du Magazine Causeur

Lire la suite