Dans tout ce qui suit, \( X \) désigne une variable aléatoire réelle discrète définie sur un espace probabilisé \( (\Omega, {\cal M}, P) \).
Qui plus est, \( X\in L^2(\Omega, {\cal M}, P) \).
1. Notion de variance
1. Définition : la variance de \( X \) est définie par :
\( V(X) = E\Big(\big(X - E(X)\big)^2\Big) \)
Notons que la variance est le moment centré d'ordre 2.
Notons aussi que, par positivité de l'espérance, la variance est toujours positive.
Cela autorise la définition suivante :
2. Définition : l'écart-type de \( X \) est définie par \( \sigma_X = \sqrt{V(X)} \).
La variance permet, tout comme l'écart-type, de mesurer la dispersion de \( X \) autour de son espérance.
3. Propriété : pour tout \( a\in{\mathbb R} \) et \( b\in{\mathbb R} \),
\( V(aX +b) = a^2\,V(X) \)
Démonstration : pour tout \( a\in{\mathbb R} \) et \( b\in{\mathbb R} \),
\( \displaystyle V(aX + b) = E\Big( \big(aX+b - E(aX+b) \big)^2\Big) \)
\( \displaystyle \phantom{V(aX + b)} = E\Big( \big(aX+b - aE(X) - b \big)^2\Big) \)
\( \displaystyle \phantom{V(aX + b)} = E\Big( \big( aX - aE(X) \big)^2\Big) \)
\( \displaystyle \phantom{V(aX + b)} = E\Big( a^2\,\big( X - E(X) \big)^2\Big) \)
\( \displaystyle \phantom{V(aX + b)} = a^2\underbrace{E\Big( \big( X - E(X) \big)^2\Big)}_{V(X)} \)
■
Notons que que la variance d'une constante est nulle… et réciproquement !
4. Propriété : si \( V(X) = 0 \), alors \( X \) est constante.
Démonstration : puisque \( (X - E(X))^2 \) est une variable aléatoire positive,
\( \displaystyle V(X) = E\big((X - E(X))^2\big) = 0 \Longrightarrow (X - E(X))^2 = 0 \)
En effet, il s'agit d'une somme dénombrable de termes positifs valant zéro !
Finalement, \( X - E(X) = 0 \), c'est à dire \( X = E(X) \).
■
5. Définition : Si \( V(X) = 1 \), on dit que \( X \) est réduite.
Cette notion sera très utilisée dans le théorème central de la limite.
2. Le théorème de König-Huygens
Pour calculer la variance, on s'appuie très souvent sur le théorème de König-Huygens.
Théorème [de König-Huygens]
\( V(X) = E(X^2) - E(X)^2 \)
Démonstration : commençons par développer l'expression proposée
\( \displaystyle V(X) = E\Big(\big(X - E(X)\big)^2\Big) \)
\( \displaystyle \phantom{V(X)} = E\Big(X^2 - 2E(X)\,X + E(X)^2\Big) \)
Par linéarité de l'espérance :
\( \displaystyle V(X) = E(X^2) \underbrace{- 2E(X)E(X) + E(X)^2}_{= E(X)^2} \)
■
3. Inégalité de Bienaymé-Tchebychev
Théorème [Inégalité de Bienaymé-Tchebychev] : pour tout \( \lambda > 0 \),
\( P\big( | X - E(X) | > \lambda \big) \leqslant \dfrac{V(X)}{\lambda^2} \)
Démonstration : posons \( \overline{X} = (X - E(X))^2 \). Alors l'inégalité de Markov appliquée à \( \overline{X} \) donne pour tout \( \lambda > 0 \) :
\( \displaystyle P\big( \overline{X} > \lambda^2\big) \leqslant \frac{E(\overline{X})}{\lambda^2} \)
\( \displaystyle P\big( (X - E(X))^2 > \lambda^2\big) \leqslant \frac{E((X - E(X)^2)}{\lambda^2} \)
\( \displaystyle P\big( |X - E(X)| > \lambda\big) \leqslant \frac{V(X)}{\lambda^2} \)
■
Ce théorème peut se lire comme estimation de la probabilité que \( X \) s'éloigne de son espérance : elle est plus petite que \( \frac{V(X)}{\lambda^2} \).
Notons qu'on retrouve le fait que, pour \( V(X) = 0 \), \( p(|X - E(X)| \neq 0) = 0 \).
Autrement dit, \( X \) reste désespéremment collée à son espérance.
