Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

07/07/2005

Prescrire.

medium_pills.jpgLe dernier numéro de "Prescrire" est arrivé dans ma boite aux lettres il y à quelques jours.
Voici quelques "bonnes feuilles" à lire (consultation libre) sur leur site:



ici

et .

06/07/2005

La non infériorité.

Ce type d’études statistiques envahit lentement mais sûrement le monde des études cliniques.
Depuis longtemps, j’avais envie d’écrire sur ce sujet, mais il me manquait une trame et des références bibliographiques. Enfin, les statistiques restent pour moi en grande partie mystérieuses.
Pourtant, encore une fois, toutes les décisions médicales actuelles et futures se basent et se baseront sur des études cliniques, elles même basées sur des concepts statistiques plus ou moins sophistiqués.
Au début, un peu comme tout le monde, j’ai fait confiance aux revues scientifiques, et aux quelques bases mathématiques enseignées en médecine pour trier le bon grain de l’ivraie.
Mais je me suis rapidement rendu compte, que c’était une erreur, et qu’il fallait développer un peu mes connaissances statistiques pour développer mon sens critique, et résister aux Chants des Sirènes (devinez à qui je pense…).

Petit rappel.
Jusqu'à peu, les trames statistiques des grandes études de qualité étaient créées pour montrer qu’un produit A était meilleur qu’un placebo, ou qu’un produit B de référence.
Bien entendu, toute étude valable doit être au mieux randomisée, en double aveugle, en plus d’être comparative. Si elle est multicentrique, on touche le Nirvana. RALES en 1999 est un bon exemple d’une bonne étude, il y en a bien d’autres.
Depuis peu donc, éclosent des études dites « d’équivalence » ou de « non infériorité ».
Pourquoi un tel développement ?
Primo, car il est plus simple de démontrer qu’un produit est non inférieur, que de prouver qu’il est supérieur en terme de statistiques. Secundo car la taille des échantillons étudiés peut être moindre, donc des coûts plus faibles. Tertio, le risque marketing est moindre, une étude « de non infériorité » positive vaut mieux qu’une étude de supériorité négative (qui signifie l’enterrement quasi systématique du produit).

Le but n’est pas de démontrer une supériorité de A sur B, mais une « non infériorité » de A par rapport à B.

Enorme nuance.

L’étude pourra donc être positive, donc favorable pour A, même si A est jugé équivalent à B.
Personnellement, je pense que c’est déjà une régression par rapport aux études de supériorité. On pourra arguer que les effets secondaires de A sont moindres que ceux de B, et donc que A est « mieux » que B, même en cas d’équivalence statistique.
Mais il faut faire une autre étude dans ce cas, et si possible de supériorité.

Donc à partir du moment ou l’étude que je lis est de ce type, j’arrête ma lecture, et je ferme la revue.

Mais développons un peu d’autres raisons qui ne font que confirmer mon attitude.

Le risque majeur est à mon avis celui d’être tenté de « tripatouiller » les données afin de rendre l’étude positive.
Les statistiques visent à étudier l’efficacité d’un produit A sur un échantillon de patients, et non sur tous.
Le simple fait de choisir un échantillon induit une marge d’erreur incompressible dans la seule mesure d’un effet (je ne parle même pas de comparaison ici).
Chaque mesure moyenne est accompagnée de sa marge d’erreur qui dépend de plusieurs facteurs (c’est « l’écart type » ou le « standard deviation » ou « SD » des anglo-saxons)
Donc, quand on compare deux effets dans un étude de non infériorité, il faut tolérer une certaine valeur en dessous de laquelle, A et B seront déclarés équivalents.
Par exemple dans SPORTIF V, qui compare deux anticoagulants, les deux produits ont été jugés équivalents jusqu’à un seuil toléré de 2% d’évènements graves évités par an.

Donc si A présente 1.9% d’évènements graves évités de moins que B, il sera quand même jugé « équivalent » à B. Vous comprenez par ailleurs, que s’il s’agit de décès ou d’évènements graves, ce fameux seuil peut devenir rapidement inacceptable. Comment tolérer une « équivalence » entre A et B si il existe tout de même 2% de décès en plus ?
De quoi dépend ce seuil ?
Le problème est là, il dépend du bon vouloir de ceux qui font les études. Pas tout à fait tout de même, il dépend de la littérature antérieure à l’essai, du moins celle que l’on veut bien avoir exhumée.
L’article dont je me suis très largement inspiré (les références sont à la fin) cite des exemples assez édifiants en….psychiatrie.
Je vois déjà Mélie et Shayalone se dresser sur leurs chaises !
En 1989-1990, deux études concluent en la « non infériorité » de la fluvoxamine vs l’imipramine (traitement de référence) dans les dépressions sévères.
Devinez quels ont été les seuils de différence d’efficacité tolérés, en dessous desquels la fluvoxamine est quand même jugée « équivalente » à l’imipramine ?
Dites un chiffre…
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
43%
Et oui, même avec 43% d’efficacité en moins, la fluvoxamine est jugée « non inférieure » à l’imipramine
.
.
.
.
.
.


.
On peut donc clairement tout faire dire à un essai clinique, avec un peu de doigté….
Je ne connais pas du tout l'importance de ces revues que je ne lis bien évidemment pas: sont-elles lues, fiables, ont-elles un comité de lecture?
Quoiqu'il en soit, elles ont été publiées, et je n'imagine pas un instant que le marketing du labo fabriquant la fluvoxamine n'en ait pas fait ses choux gras.

La deuxième raison qui me choque, c’est que les personnes enrôlées dans ces essais (risquant donc des effets secondaires parfois grave) n’ont même plus la satisfaction de se dire qu’ils ont participé au progrès de la recherche.
Puisqu’au mieux, le match va se terminer en nul, le « design » de l’étude n’étant pas a priori créé pour montrer une supériorité…

Donc méfiance lorsque l’on ingurgite de la littérature, il faut toujours rester critique.

L’article dont je me suis très très largement inspiré est là.

Les études et le monde réel.

medium_pills.jpgNotre pratique médicale est basée en très grande partie sur des résultats d’études scientifiques effectuées sur l’être humain.
Cette recherche clinique doit être rigoureuse, sous peine d’obtenir des résultats erronés, et donc de mal traiter nos patients.
Un jour, je détaillerai tous les obstacles qui se dressent devant une étude clinique qui se voudrait rigoureuse, et si je suis en forme, quelques notions de statistique.
Un grand principe toutefois : les patients chez qui le praticien prescrit un médicament X doivent être les mêmes que ceux de l’étude. Il ne devrait avoir aucune différence entre la population initialement étudiée, pour prouver l’efficacité de tel ou tel produit, et les patients à qui l’on prescrit, en bout de chaîne, cette molécule.
Evident, vous pensez ?
Pourtant, ce n’est pas si simple à faire en pratique.
Les personnes enrôlées dans les grandes études sont sélectionnées, calibrées, éduquées, surveillées comme des vaches charolaises de concours. Donc, in fine, assez différentes du patient lambda.
Pourquoi ?
En grande partie pour éviter les facteurs de confusion que pourraient amener par exemple, l’existence de pathologies multiples chez un patient X ou Y.
Donc, les protocoles des études écartent le plus souvent les patients âgés, ou « complexes ».

Un exemple frappant est donné dans « theheart.org », à la date du premier juillet.
Je passerai sur les détails inutiles.
En 1999, une étude a remis au goût du jour une molécule, utilisée depuis une trentaine d’années. On s’est rendu compte qu’elle diminuait la mortalité de l’insuffisance cardiaque sévère de 30% environ. Ce « vieux » médicament a presque tout pour plaire : tous les médecins le connaissent, son prix est ridicule, et il sauve des vies dans une pathologie grave. Seul inconvénient, il provoque des effets secondaires parfois graves, si on ne surveille pas le patient (hyperkaliémie notamment).
Donc en 1999, l’étude est publiée dans le « New England Journal of Medicine », le Saint Graal de la littérature médicale. Elle est claire, méthodologiquement inattaquable, et les résultats sont remarquables.
La population étudiée est parfaitement définie, l’utilisation de cette molécule est limpide.
Comment cette étude a été transposée dans la pratique courante ?
Seulement 24.1% des patients satisfaisant aux critères de l’étude ont effectivement bénéficié de cette molécule.
17.4% des patients ne satisfaisant pas ces critères ont pourtant eu une prescription de ce produit
30.9% de ces prescriptions concernent des patients totalement différents de ceux étudiés en 1999.
En Ontario (Canada), le nombre d’hospitalisation pour hyperkaliémie a fait un bond de 2.4/1000 en 1994 (avant la publication de l’étude) à 11/1000 en 2001 (après).

Donc, se pose ici clairement le problème de l’inadéquation entre les données fournies par la littérature, et la mise en pratique.
Par ailleurs, on ne peut même pas accuser l’industrie pharmaceutique, qui a fait très peu de marketing autour de ce produit ancien ,et très peu rentable. Pour ne pas faillir à ma réputation : l’industrie dépense des milliards pour nous faire prescrire des médicaments chers, mais peu/pas efficaces, et infiniment moins pour les molécules anciennes, bon marché, mais abaissant la mortalité de 30% dans une pathologie grave.

En fait, l’explication d’une telle différence semble être la suivante : les médecins, rassurés par leur connaissance de ce produit, et cherchant à sauver des vies, l’ont un peu prescrit à tors et à travers.
D’ou le nombre élevé d’indications incorrectes, et d’effets secondaires.

Encore une fois, rien n’est simple en médecine…