Variance d'une variable aléatoire réelle

Variable aléatoire réelle
| Vendredi 14 Novembre 2025

Dans tout ce qui suit, \( X \) désigne une variable aléatoire réelle discrète définie sur un espace probabilisé \( (\Omega, {\cal M}, P) \).

Qui plus est, \( X\in L^2(\Omega, {\cal M}, P) \).

1. Notion de variance

1. Définition : la variance de \( X \) est définie par :

\( V(X) = E\Big(\big(X - E(X)\big)^2\Big) \)

Notons que la variance est le moment centré d'ordre 2.

Notons aussi que, par positivité de l'espérance, la variance est toujours positive.
Cela autorise la définition suivante :

2. Définition : l'écart-type de \( X \) est définie par \( \sigma_X = \sqrt{V(X)} \).

La variance permet, tout comme l'écart-type, de mesurer la dispersion de \( X \) autour de son espérance.

3. Propriété : pour tout \( a\in{\mathbb R} \) et \( b\in{\mathbb R} \),

\( V(aX +b) = a^2\,V(X) \)

Démonstration : pour tout \( a\in{\mathbb R} \) et \( b\in{\mathbb R} \),

\( \displaystyle V(aX + b) = E\Big( \big(aX+b - E(aX+b) \big)^2\Big) \)

\( \displaystyle \phantom{V(aX + b)} = E\Big( \big(aX+b - aE(X) - b \big)^2\Big) \)

\( \displaystyle \phantom{V(aX + b)} = E\Big( \big( aX - aE(X) \big)^2\Big) \)

\( \displaystyle \phantom{V(aX + b)} = E\Big( a^2\,\big( X - E(X) \big)^2\Big) \)

\( \displaystyle \phantom{V(aX + b)} = a^2\underbrace{E\Big( \big( X - E(X) \big)^2\Big)}_{V(X)} \)

Notons que que la variance d'une constante est nulle… et réciproquement !

4. Propriété : si \( V(X) = 0 \), alors \( X \) est constante.

Démonstration : puisque \( (X - E(X))^2 \) est une variable aléatoire positive,

\( \displaystyle V(X) = E\big((X - E(X))^2\big) = 0 \Longrightarrow (X - E(X))^2 = 0 \)

En effet, il s'agit d'une somme dénombrable de termes positifs valant zéro !

Finalement, \( X - E(X) = 0 \), c'est à dire \( X = E(X) \).

5. Définition : Si \( V(X) = 1 \), on dit que \( X \) est réduite.

Cette notion sera très utilisée dans le théorème central de la limite.

2. Le théorème de König-Huygens

Pour calculer la variance, on s'appuie très souvent sur le théorème de König-Huygens.

Théorème [de König-Huygens]

\( V(X) = E(X^2) - E(X)^2 \)

Démonstration : commençons par développer l'expression proposée

\( \displaystyle V(X) = E\Big(\big(X - E(X)\big)^2\Big) \)

\( \displaystyle \phantom{V(X)} = E\Big(X^2 - 2E(X)\,X + E(X)^2\Big) \)

Par linéarité de l'espérance :

\( \displaystyle V(X) = E(X^2) \underbrace{- 2E(X)E(X) + E(X)^2}_{= E(X)^2} \)

3. Inégalité de Bienaymé-Tchebychev

Théorème [Inégalité de Bienaymé-Tchebychev] : pour tout \( \lambda > 0 \),

\( P\big( | X - E(X) | > \lambda \big) \leqslant \dfrac{V(X)}{\lambda^2} \)

Démonstration : posons \( \overline{X} = (X - E(X))^2 \). Alors l'inégalité de Markov appliquée à \( \overline{X} \) donne pour tout \( \lambda > 0 \) :

\( \displaystyle P\big( \overline{X} > \lambda^2\big) \leqslant \frac{E(\overline{X})}{\lambda^2} \)

\( \displaystyle P\big( (X - E(X))^2 > \lambda^2\big) \leqslant \frac{E((X - E(X)^2)}{\lambda^2} \)

\( \displaystyle P\big( |X - E(X)| > \lambda\big) \leqslant \frac{V(X)}{\lambda^2} \)

Ce théorème peut se lire comme estimation de la probabilité que \( X \) s'éloigne de son espérance : elle est plus petite que \( \frac{V(X)}{\lambda^2} \).

Notons qu'on retrouve le fait que, pour \( V(X) = 0 \), \( p(|X - E(X)| \neq 0) = 0 \).
Autrement dit, \( X \) reste désespéremment collée à son espérance.