Cours n°01 : Introduction à l’inférence bayésienne Cours n°02 : Modèle Beta-Binomial Cours n°03 : Introduction à brms, modèle de régression linéaire Cours n°04 : Modèle de régression linéaire (suite) Cours n°05 : Markov Chain Monte Carlo Cours n°06 : Modèle linéaire généralisé Cours n°07 : Comparaison de modèles Cours n°08 : Modèles multi-niveaux Cours n°09 : Modèles multi-niveaux généralisés Cours n°10 : Data Hackathon
Le modèle linéaire Gaussien qu’on a vu aux Cours n°03 et n°04 est caractérisé par un ensemble de postulats, entre autres choses :
Les résidus sont distribués selon une loi Normale.
La variance de cette distribution Normale est constante (postulat d’homogénéité de la variance).
Les prédicteurs agissent sur la moyenne de cette distribution.
La moyenne suit un modèle linéaire ou multi-linéaire.
Introduction
Cette modélisation (le choix d’une distribution Normale) induit plusieurs contraintes, par exemple :
Les données observées sont définies sur un espace continu.
Cet espace n’est pas borné.
Comment modéliser certaines données qui ne respectent pas ces contraintes ? Par exemple, la proportion de bonnes réponses à un test (bornée entre 0 et 1), un temps de réponse (restreint à des valeurs positives et souvent distribué de manière approximativement log-normale), un nombre d’avalanches…
Introduction
Nous avons déjà rencontré un modèle différent : le modèle Beta-Binomial (cf. Cours n°02).
Rendre compte de données discrètes (e.g., échec/succès) générées par un processus unique.
Introduire des prédicteurs dans le modèle.
Deux changements par rapport au modèle Gaussien :
L’utilisation d’une distribution de probabilité Binomiale.
Le modèle linéaire ne sert plus à décrire directement un des paramètres de la distribution, mais une fonction de ce paramètre (on peut aussi considérer que le modèle Gaussien était formulé avec une fonction identité).
Fonction de lien
Les fonctions de lien ont pour tâche de mettre en correspondance l’espace d’un modèle linéaire (non borné) avec l’espace d’un paramètre potentiellement borné comme une probabilité, définie sur l’intervalle \([0, 1]\).
Fonction de lien
Les fonctions de lien ont pour tâche de mettre en correspondance l’espace d’un modèle linéaire (non borné) avec l’espace d’un paramètre potentiellement borné comme une probabilité, définie sur l’intervalle \([0, 1]\).
Régression logistique
La fonction logit du GLM binomial (on parle de “log-odds”) :
La cote d’un évènement (“odds” en anglais) est le ratio entre la probabilité que l’évènement se produise et la probabilité qu’il ne se produise pas. Le logarithme de cette cote est prédit par un modèle linéaire.
Ces fonctions de lien posent des problèmes d’interprétation : Un changement d’une unité sur un prédicteur n’a plus un effet constant sur la probabilité mais la modifie plus ou moins en fonction de son éloignement à l’origine. Quand \(x = 0\), une augmentation d’une demi-unité (i.e., \(\Delta x = 0.5\)) se traduit par une augmentation de la probabilité de \(0.25\). Puis, chaque augmentation d’une demi-unité se traduit par une augmentation de \(p\) de plus en plus petite…
Complications induites par la fonction de lien
Deuxième complication : cette fonction de lien “force” chaque prédicteur à interagir avec lui même et à interagir avec TOUS les autres prédicteurs, même si les interactions ne sont pas explicites…
Dans un modèle Gaussien, le taux de changement de \(y\) en fonction de \(x\) est donné par \(\partial(\alpha + \beta x)~/~\partial x = \beta\) et ne dépend pas de \(x\) (i.e., \(\beta\) est constant).
Dans un GLM binomial (avec une fonction de lien logit), la probabilité d’un évènement est donnée par la fonction logistique :
'data.frame': 504 obs. of 8 variables:
$ actor : int 1 1 1 1 1 1 1 1 1 1 ...
$ recipient : int NA NA NA NA NA NA NA NA NA NA ...
$ condition : int 0 0 0 0 0 0 0 0 0 0 ...
$ block : int 1 1 1 1 1 1 2 2 2 2 ...
$ trial : int 2 4 6 8 10 12 14 16 18 20 ...
$ prosoc_left : int 0 0 1 0 1 1 1 1 0 0 ...
$ chose_prosoc: int 1 0 0 1 1 1 0 0 1 1 ...
$ pulled_left : int 0 1 0 0 1 1 0 0 0 0 ...
pulled_left : 1 lorsque le chimpanzé pousse le levier gauche, 0 sinon.
prosoc_left : 1 lorsque le levier gauche est associé à l’option prosociale, 0 sinon.
condition : 1 lorsqu’un partenaire est présent, 0 sinon.
Régression logistique
Le problème
On cherche à savoir si la présence d’un singe partenaire incite le chimpanzé à appuyer sur le levier prosocial, c’est à dire l’option qui donne de la nourriture aux deux individus. Autrement dit, est-ce qu’il existe une interaction entre l’effet de la latéralité et l’effet de la présence d’un autre chimpanzé sur la probabilité d’actionner le levier gauche.
Les variables
Observations (pulled_left) : Ce sont des variables de Bernoulli. Elles prennent comme valeur 0/1.
Prédicteur (prosoc_left) : Est-ce que les deux plats sont sur la gauche ou sur la droite ?
Prédicteur (condition) : Est-ce qu’un partenaire est présent ?
Modèle mathématique sans prédicteur. Comment choisir une valeur pour \(\omega\)… ?
Prior predictive check
On écrit le modèle précédent avec brms et on échantillonne à partir du prior afin de vérifier que les prédictions du modèle (sur la base du prior seul) correspondent à nos attentes.
library(brms)mod1.1<-brm(# "trials" permet de définir le nombre d'essais (i.e., n)formula = pulled_left |trials(1) ~1,family =binomial(),prior =prior(normal(0, 10), class = Intercept),data = df1,# on veut récupérer les échantillons issus du priorsample_prior ="yes" )
Prior predictive check
# récupère les échantillons (sur la base) du priorprior_draws(x = mod1.1) %>%# applique la fonction de lien inversemutate(p = brms::inv_logit_scaled(Intercept) ) %>%ggplot(aes(x = p) ) +geom_density(fill ="steelblue", adjust =0.1) +labs(x ="Probabilité a priori de tirer le levier gauche", y ="Densité de probabilité")
Prior predictive check
Régression logistique
L’intercept s’interprète dans l’espace des log-odds… pour l’interpréter comme une probabilité, il faut appliquer la fonction de lien inverse. On peut utiliser la fonction brms::inv_logit_scaled() ou la fonction plogis().
fixed_effects <-fixef(mod1.2) # effets fixes (i.e., que l'intercept ici)plogis(fixed_effects) # fonction de lien inverse
En moyenne (sans considérer les prédicteurs), il semblerait que les chimpanzés aient légèrement plus tendance à appuyer sur le levier gauche que sur le levier droit…
Régression logistique
post <-as_draws_df(x = mod1.2) # récupère les échantillons du posteriorintercept_samples <-plogis(post$b_Intercept) # échantillons pour l'interceptposterior_plot(samples = intercept_samples, compval =0.5) +labs(x ="Probability of pulling left")
Régression logistique
Et si on ajoutait des prédicteurs… comment choisir une valeur pour \(\omega\) ?
prior_draws(x = mod2.1) %>%# échantillons du priormutate(condition1 =plogis(Intercept -0.5* b), # p dans condition 1condition2 =plogis(Intercept +0.5* b) # p dans condition 0 ) %>%ggplot(aes(x = condition2 - condition1) ) +# on plot la différencegeom_density(fill ="steelblue", adjust =0.1) +labs(x ="Différence dans la probabilité a priori de tirer le levier gauche entre conditions",y ="Densité de probabilité" )
Régression logistique
priors <-c(prior(normal(0, 1), class = Intercept),prior(normal(0, 1), class = b) )mod2.2<-brm(formula = pulled_left |trials(1) ~1+ prosoc_left * condition,family = binomial,prior = priors,data = df1,sample_prior ="yes" )
Prior predictive check
prior_draws(mod2.2) %>%# échantillons du priormutate(condition1 =plogis(Intercept -0.5* b), # p dans condition 1condition2 =plogis(Intercept +0.5* b) # p dans condition 0 ) %>%ggplot(aes(x = condition2 - condition1) ) +geom_density(fill ="steelblue", adjust =0.1) +labs(x ="Différence dans la probabilité a priori de tirer le levier gauche entre conditions",y ="Densité de probabilité" )
Régression logistique
summary(mod2.2)
Family: binomial
Links: mu = logit
Formula: pulled_left | trials(1) ~ 1 + prosoc_left * condition
Data: df1 (Number of observations: 504)
Draws: 4 chains, each with iter = 2000; warmup = 1000; thin = 1;
total post-warmup draws = 4000
Population-Level Effects:
Estimate Est.Error l-95% CI u-95% CI Rhat Bulk_ESS
Intercept 0.33 0.09 0.16 0.50 1.00 4221
prosoc_left 0.54 0.18 0.18 0.89 1.00 4682
condition -0.19 0.18 -0.54 0.15 1.00 5133
prosoc_left:condition 0.16 0.34 -0.49 0.82 1.00 4691
Tail_ESS
Intercept 3014
prosoc_left 3254
condition 3263
prosoc_left:condition 3253
Draws were sampled using sampling(NUTS). For each parameter, Bulk_ESS
and Tail_ESS are effective sample size measures, and Rhat is the potential
scale reduction factor on split chains (at convergence, Rhat = 1).
Effet relatif vs. Effet absolu
Le modèle linéaire ne prédit pas directement la probabilité mais le log-odds de la probabilité :
On peut distinguer et interpréter deux types d’effets.
Effet relatif : L’effet relatif porte sur le logarithme du rapport des probabilités. Il indique une proportion de changement induit par le prédicteur sur les chances de succès (ou plutôt, sur la cote). Cela ne nous dit rien de la probabilité de l’évènement, dans l’absolu.
Effet absolu : Effet qui porte directement sur la probabilité d’un évènement. Il dépend de tous les paramètres du modèle et nous donne l’impact effectif d’un changement d’une unité d’un prédicteur (dans l’espace des probabilités).
Effet relatif
Il s’agit d’une proportion de changement induit par le prédicteur sur le rapport des chances ou “cote” (odds). Illustration avec un modèle sans interaction.
Lorsque \(q = 2\) (par exemple), une augmentation de \(x_{i}\) d’une unité génère un doublement de la cote.
Interprétation de l’effet relatif
L’effet relatif d’un paramètre dépend également des autres paramètres. Dans le modèle précédent, le prédicteur prosoc_left augmente le logarithme de la cote d’environ 0.54, ce qui se traduit par une augmentation de la cote de \(\exp(0.54) \approx 1.72\) soit une augmentation d’environ 72% de la cote.
Supposons que l’intercept \(\alpha = 4\).
La probabilité de pousser le levier sans autre considération est de \(\text{logit}^{-1}(4) \approx 0.98\).
En considérant l’effet de prosoc_left, on obtient \(\text{logit}^{-1}(4 + 0.54) \approx 0.99\).
Une augmentation de 72% sur le log-odds se traduit par une augmentation de seulement 1% sur la probabilité effective… Les effets relatifs peuvent conduire à de mauvaises interprétations lorsqu’on ne considère pas l’échelle de la variable mesurée.
Interprétation de l’effet relatif
fixef(mod2.2) # récupère les estimations des effets dits "fixes"
post <-as_draws_df(x = mod2.2) # échantillons du posteriorposterior_plot(samples =exp(post$b_prosoc_left), compval =1) +labs(x ="Odds ratio")
Effet absolu
L’effet absolu dépend de tous les paramètres du modèle et nous donne l’impact effectif d’un changement d’une unité d’un prédicteur (dans l’espace des probabilités).
model_predictions <-fitted(mod2.2) %>%# prédiction pour p (i.e., la probabilité)data.frame() %>%bind_cols(df1) %>%mutate(condition =factor(condition), prosoc_left =factor(prosoc_left) )
Régression binomiale agrégée
Ces données représentent le nombre de candidatures à l’université de Berkeley par sexe et par département. Chaque candidature est acceptée ou rejetée et les résultats sont agrégés par département et par sexe.
(df2 <-open_data(admission) )
# A tibble: 12 × 5
dept gender admit reject applications
<fct> <fct> <dbl> <dbl> <dbl>
1 A Male 512 313 825
2 A Female 89 19 108
3 B Male 353 207 560
4 B Female 17 8 25
5 C Male 120 205 325
6 C Female 202 391 593
7 D Male 138 279 417
8 D Female 131 244 375
9 E Male 53 138 191
10 E Female 94 299 393
11 F Male 22 351 373
12 F Female 24 317 341
Existe-t-il un biais de recrutement lié au sexe ?
Régression binomiale agrégée
On va construire un modèle de la décision d’admission en prenant comme prédicteur le sexe du candidat.
priors <-c(prior(normal(0, 1), class = Intercept),prior(normal(0, 1), class = b) )# dummy-codingdf2$male <-ifelse(df2$gender =="Male", 1, 0)mod4 <-brm(formula = admit |trials(applications) ~1+ male,family =binomial(link ="logit"),prior = priors,data = df2,sample_prior ="yes" )
Régression binomiale agrégée
summary(mod4)
Family: binomial
Links: mu = logit
Formula: admit | trials(applications) ~ 1 + male
Data: df2 (Number of observations: 12)
Draws: 4 chains, each with iter = 2000; warmup = 1000; thin = 1;
total post-warmup draws = 4000
Population-Level Effects:
Estimate Est.Error l-95% CI u-95% CI Rhat Bulk_ESS Tail_ESS
Intercept -0.83 0.05 -0.93 -0.74 1.00 2149 2196
male 0.61 0.06 0.49 0.73 1.00 2382 2528
Draws were sampled using sampling(NUTS). For each parameter, Bulk_ESS
and Tail_ESS are effective sample size measures, and Rhat is the potential
scale reduction factor on split chains (at convergence, Rhat = 1).
Être un homme semble être un avantage… ! Le rapport des cotes est de \(\exp(0.61) \approx 1.84\).
Régression binomiale agrégée
Calculons la différence de probabilité d’admission entre hommes et femmes.
On examine les prédictions du modèle par département.
Régression binomiale agrégée
Les prédictions du modèle sont très mauvaises… Il n’y a que deux départements pour lesquels les femmes ont de moins bonnes prédictions que les hommes (C et E) alors que le modèle prédit une probabilité d’admission plus basse pour tous les départements…
Le problème est double :
Les hommes et les femmes ne postulent pas aux mêmes départements.
Les départements n’ont pas tous les mêmes effectifs.
Maintenant, la prédiction pour \(\beta_{m}\) va dans l’autre sens… La rapport des cotes (odds ratio) est de \(\exp(-0.1) = 0.9\), la cote (odds) des hommes est estimée à 90% de la cote des femmes.
Régression binomiale agrégée
Conclusions
Les hommes et les femmes ne postulent pas aux mêmes départements et les départements varient par leur probabilité d’admission. En l’occurrence, les femmes ont plus postulé aux départements E et F (avec une probabilité d’admission plus faible) et ont moins postulé aux départements A ou B, avec une probabilité d’admission plus haute.
Pour évaluer l’effet du sexe sur la probabilité d’admission, il faut donc se poser la question suivante : “Quelle est la différence de probabilité d’admission entre hommes et femmes au sein de chaque département ?” (plutôt que de manière générale).
Retenir que le modèle de régression peut être généralisé à différents modèles de génération des données (i.e., différentes distributions de probabilité, comme la distribution Normale, Binomiale, Poisson, etc) et que l’espace des paramètres peut être “connecté” à l’espace des prédicteurs (variables mesurées) grâce à des fonctions de lien (e.g., la fonction logarithme, exponentielle, logit, etc).
Retenir la distinction entre effet relatif (e.g., un changement de cote) et effet absolu (e.g., une différence de probabilité).
Travaux pratiques - Absentéisme expérimental
Travailler avec des sujets humains implique un minimum de coopération réciproque. Mais ce n’est pas toujours le cas. Une partie non-négligeable des étudiants qui s’inscrivent pour passer des expériences de Psychologie ne se présentent pas le jour prévu… On a voulu estimer la probabilité de présence d’un étudiant inscrit en fonction de l’envoi (ou non) d’un mail de rappel (cet exemple est présenté en détails dans deux articles de blog, accessibles ici, et ici).
mod7 <-brm( presence |trials(total) ~1,family =binomial(link ="logit"),prior =prior(normal(0, 1), class = Intercept),data = df3,# utilise tous les coeurs disponibles de la machine...cores = parallel::detectCores() )
Écrire le modèle qui prédit la présence en fonction du rappel.
priors <-c(prior(normal(0, 1), class = Intercept),prior(normal(0, 1), class = b) )mod8 <-brm( presence |trials(total) ~1+ reminder,family =binomial(link ="logit"),prior = priors,data = df3,cores = parallel::detectCores() )
Travaux pratiques
Quel est l’effet relatif du mail de rappel ?
exp(fixef(mod8)[2]) # rapport des cotes sans vs. avec mail de rappel
[1] 2.986724
Envoyer un mail de rappel augmente la cote (le rapport des chances) par environ \(3\).
Travaux pratiques
Quel est l’effet absolu du mail de rappel ?
post <-as_draws_df(x = mod8) # récupères les échantillons du posteriorp.no <-plogis(post$b_Intercept) # probabilité de présence sans mail de rappelp.yes <-plogis(post$b_Intercept + post$b_reminder) # probabilité de présence avec mail de rappelposterior_plot(samples = p.yes - p.no, compval =0, usemode =TRUE)
Travaux pratiques
library(tidybayes)library(modelr)df3 %>%group_by(total) %>%data_grid(reminder =seq_range(reminder, n =1e2) ) %>%add_fitted_draws(mod8, newdata = ., n =100, scale ="linear") %>%mutate(estimate =plogis(.value) ) %>%group_by(reminder, .draw) %>%summarise(estimate =mean(estimate) ) %>%ggplot(aes(x = reminder, y = estimate, group = .draw) ) +geom_hline(yintercept =0.5, lty =2) +geom_line(aes(y = estimate, group = .draw), size =0.5, alpha =0.1) +ylim(0, 1) +labs(x ="Mail de rappel", y ="Probabilité de présence")
Travaux pratiques
Quelle est la probabilité qu’un participant, qui s’est inscrit de son propre chef, vienne effectivement passer l’expérience ?
Quel est l’effet du rappel ?
Quel est l’effet du mode d’inscription ?
Quel est l’effet conjoint de ces deux prédicteurs ?
Travaux pratiques
Écrire le modèle qui prédit la présence en fonction du mode d’inscription.
priors <-c(prior(normal(0, 1), class = Intercept),prior(normal(0, 1), class = b) )mod9 <-brm( presence |trials(total) ~1+ inscription,family =binomial(link ="logit"),prior = priors,data = df3,cores = parallel::detectCores() )
Travaux pratiques
post <-as_draws_df(x = mod9)p.panel <-plogis(post$b_Intercept) # probabilité moyenne de présence - panelp.doodle <-plogis(post$b_Intercept + post$b_inscription) # probabilité moyenne de présence - doodleposterior_plot(samples = p.panel - p.doodle, compval =0, usemode =TRUE)
La probabilité de présence est augmentée d’environ \(0.16\) lorsque l’on s’inscrit sur un panel comparativement à une inscription sur un Doodle (effet légèrement plus faible que pour le rappel).
Travaux pratiques
Quelle est la probabilité qu’un participant, qui s’est inscrit de son propre chef, vienne effectivement passer l’expérience ?
Quel est l’effet du rappel ?
Quel est l’effet du mode d’inscription ?
Quel est l’effet conjoint de ces deux prédicteurs ?
On a déjà rencontré ce cas de figure (cf. Cours n°04). Lorsque deux prédicteurs contiennent une part d’information commune, l’estimation des pentes est corrélée…
as_draws_df(x = mod10) %>%ggplot(aes(b_reminder, b_inscription) ) +geom_point(size =3, pch =21, alpha =0.8, color ="white", fill ="black") +labs(x ="Effet (pente) du mail de rappel", y ="Effet (pente) du mode d'inscription")
Travaux pratiques
En effet, les données ont été collectées par deux expérimentateurs. L’un d’entre eux a recruté tous ses participants via Doodle, et n’envoyait pas souvent de mail de rappel. Le deuxième expérimentateur a recruté tous ses participants via un panneau physique présent dans le laboratoire et envoyait systématiquement un mail de rappel. Autrement dit, ces deux variables sont presque parfaitement confondues.