Dans tout ce qui suit, \( X \) désigne une variable aléatoire entière définie sur un espace probabilisé \( (\Omega, P) \).
1. À retenir !
On dit que \( X \) suit la loi de Bernoulli de paramètre \( p \in [0; 1] \) si :
\( \displaystyle P(X = 0) = 1 - p \)
\( \displaystyle P(X = 1) = p \)
On note \( X \sim {\cal B}(p) \).
Espérance : \( E(X) = p \)
Variance : \( V(X) = p\times(1-p) \)
2. Situation modélisée
Cette loi modélise une épreuve n'admettant que deux issues possibles : la réussite (\( x=1 \)) avec une probabilité de \( p \), et l'échec (\( x=0 \)) avec une probabilité -évidemment ! - de \( 1-p \),
3. Fonction génératrice
Revenons à la définition :
\( G(t) = \displaystyle\sum_{k=0}^1 t^k P(X=k) \)
Appliquons cela dans le cas d'une loi de Bernouilli.
Il ne s'agit pas d'une série mais simplement d'un polynôme du premier degrés défini pour tout \( t\in{\mathbb R} \) :
\( \displaystyle G(t) = t^0\times(1-p) + t^1\times p = 1 - p + p\times t \)
Application
Déterminer \( G'(1) \) et \( G''(1) \) :
\( G'(t) = p \)
\( G'(1) = p \)
\( G''(t) = 0 \)
\( G''(1) = 0 \)
Déterminons l'espérance :
\( E(X) = G'(1) = p \)
Déterminons la variance :
\( V(X) = G''(1) + G'(1) − G'(1)^2 \)
\( V(X) = 0 + p - p^2 \)
\( V(X) = p(1-p) \)
