Quid des analyses dites “ajustées”
Le contexte
Dans le cadre d’analyses rétrospectives ou prospectives, il est souvent question de comparer l’effet de deux ou plusieurs traitements ou un potentiel facteur de risque (âge, diabète, risque cytogénétique, etc.) à travers les données issues d’une cohorte existante de patients, et ce, afin d’étudier la réalité du terrain. Il arrive fréquemment dans ce type d’étude que des caractéristiques des patients, dites baseline, ne soient pas distribuées de manière équilibrée entre les groupes de patients, prenant tel ou tel traitement ou faisant partie des différentes catégories à comparer entre elles. Ces caractéristiquesbaseline réparties inégalement entre les groupes sont souvent appelées facteurs confondants ou de confusion.
La problématique
Ces facteurs confondants introduisent un biais de confusion mais peuvent avoir de plus un impact sur l’endpoint étudié. Sauf à effectuer un essai parfaitement randomisé, une analyse univariée ne permet pas de dire d’emblée si notre variable étudiée impacte ou non un endpoint d’intérêt à travers sa p-value. En effet, elle ne mesure pas l’effet relatif à la variable mais le risque. Elle compare en fait des populations d’individus (ceux d’une catégorie B vs. A, les plus âgés vs. les plus jeunes, etc.).
La réponse
La manière la plus directe pour faire un ajustement (ou analyse ajustée) est de considérer ces facteurs de confusion comme des variables d’ajustement. L’opération est simple : il s’agit d’une analyse multivariée dans laquelle on intègre dans la régression idoine, en plus de notre variable d’intérêt, celles d’ajustement, afin d’obtenir une estimation ajustée d’une différence de moyenne, d’un odds- ou hazard-ratio.
Pour l’illustrer, prenons un exemple avec des données simulées, où l’on souhaite comparer un traitement B vs. A. La première étape est d’effectuer une analyse descriptive comparative entre les patients prenant le traitement A et ceux prenant le B (table 1). Ici l’on remarque que l’âge et l’hémoglobine sont repartis différemment entre les deux groupes d’individus d’après les tests statistiques. En effet, le groupe ‘traitement A’ est plus âgé que ‘traitement B’ mais leurs patients ont un meilleur taux d’hémoglobine (les p-values étant < à 5%).
Dans notre exemple qui étudie une variable réponse binaire (nécessitant l’emploi d’une régression logistique), lorsqu’on analyse les variables ‘traitement’, ‘âge’ et ‘hémoglobine’ séparément (via des régressions univariées), on obtient les résultats figurant dans la table 2.
L’odds-ratio (OR) de la population prenant le traitement B par rapport au traitement A – et il faut insister sur cette tournure de phrase – est de 0.25 [0.09 – 0.72] avec un p=0.011. Or la population B est plus jeune, un biais majeur puisque la variable d’âge semble impacter aussi notre endpoint : plus la population est âgée, plus le risque augmente (OR=1.11) et donc inversement. Dès lors, est-ce que le traitement B divise notre risque pratiquement par 4 ?
L’analyse multivariée ajustée permet de mieux cerner l’effet traitement à proprement parler, et le résultat s’avère cette fois non-significatif (OR ajusté = 0.68, p=0.581) car c’est l’effet de l’âge qui prime sur notre endpoint. Autrement dit, lorsque l’on rééquilibre nos deux groupes de patients, l’effet entre les deux traitements est équivoque.
Ce cas de figure simulé ici n’est qu’un exemple parmi tant d’autres démontrant l’importance de l’ajustement dans ce type d’étude. Dans d’autres situations, une p-value non-significative en multivarié peut s’avérer l’être en multivarié après ajustement, ou bien rester insensible. Ce qu’il faut retenir et qu’il ne faut surtout pas conclure à partir d’une simple analyse univariée, d’un graphique comparant deux ou plusieurs courbes ou d’un test statistique usuel (Chi² ou Fisher, test de moyenne ou ANOVA, etc.).
La limite de ces analyses est qu’il faut un effectif raisonnable, les petits échantillons rendant les résultats trop fragiles et les modèles sur-paramétrés. Il se peut également que les variables confondantes/d’ajustement soient statistiquement associées, corrélées entre elles, générant des résultats multivariés difficilement interprétables. Une autre limite, moins évidente à détecter, est que certains facteurs d’ajustement manquent à l’appel car ils n’ont pas été collectés dans la base de données alors qu’ils auraient pu permettre d’ajuster encore mieux les estimations des modèles.
D’autres méthodes d’ajustement sont possibles pour rééquilibrer deux populations en fonction de divers facteurs de confusion, notamment l’utilisation du fameux score de propension, qui peut servir à la fois de variable d’ajustement, de valeur de pondération ou à la réalisation d’appariements.
Ce qu’il faut retenir
- Une régression univariée ne donne pas systématiquement la bonne estimation de risque ou de différence de moyenne s’il existe des facteurs confondants.
- Les analyses multivariées permettent, en partie, d’ajuster l’effet d’une variable d’intérêt, mais ce n’est pas pour autant la méthode parfaite.
- Ces analyses ajustées ne servent pas qu’à estimer l’effet d’un traitement, d’une condition. On peut également étudier un facteur de risque en particulier.
Pour aller plus loin
- Douglas G. Altman (2005). “Covariate Imbalance, Adjustment for,” in Encyclopedia of Biostatistics.
- Hernán MA, Robins JM (2020). “Causal Inference: What If. Boca Raton: Chapman & Hall/CRC”.