Espérance d'une variable aléatoire discrète

Probabilités discrètes
| Jeudi 13 Novembre 2025

Dans tout ce qui suit, \( X \) désigne une variable aléatoire réelle discrète définie sur un espace probabilisé \( (\Omega, {\cal M}, P) \).

Autrement dit, \( X(\Omega) \) est dénombrable.

1. Espérance

1. Définition : on dit que \( X \) admet une espérance si la famille \( \Big(P(X = x)\,x\Big)_{x\in X(\Omega)} \) est sommable. Dans ce cas, on note \( E(X) \) sa limite.

\( \displaystyle E(X) = \sum_{x\in X(\Omega)} P(X = x)\,x \)

Quelques remarques préalables :
  1. Si \( X \geqslant 0 \), alors \( E(X) \geqslant 0 \) : on dit que \( E \) est positive.
  2. Par définition de la sommabilité, \( X \) est sommable si et seulement si \( |X| \) est sommable.
  3. L'inégalité triangulaire des familles sommables donne \( |E(X)| \leqslant E(|X|) \).

2. Vocabulaire : on dit que \( X \) est centrée si \( E(X) = 0 \).

Remarquons qu'une variable aléatoire réelle discrète positive non nulle n'est jamais centrée !

3. Propriété : pour tout \( a\in{\mathbb R} \) et \( b\in{\mathbb R} \),

\( E(aX +b) = aE(X) + b \)

Preuve

\( \displaystyle E(aX +b) = \sum_{x\in X(\Omega)} P(aX +b = ax+b)\,(ax+b) \)

\( \displaystyle \phantom{E(aX +b)} = \sum_{x\in X(\Omega)} a\,P(X = x)x + b\,P(X = x) \)

Nous pouvons scinder cette somme car chaque famille est sommable. Alors,

\( \displaystyle E(aX +b) = a \underbrace{\sum_{x\in X(\Omega)}P(X = x)x}_{E(X)} + b \underbrace{\sum_{x\in X(\Omega)}P(X = x)}_1 \)

Notons \( L^1 \) ou \( L^1(\Omega, {\cal M}, P) \) l'ensemble des variables aléatoires réelles discrètes admettant une espérance.

4. Propriétés :
  1. \( L^1 \) est un espace vectoriel.
  2. L'espérance est une application linéaire positive sur \( L^1 \).

Ces propriétés structurelles sont provisoirement admises : elles seront démontrées au prochain chapitre.

2. Théorème de transfert

Considérons une application \( \Phi : X(\Omega) \longrightarrow {\mathbb R} \). Alors \( \Phi(X) \) est une variable aléatoire réelle discrète.

1. Théorème [de transfert]
\( \Phi(X)\in L^1 \) si et seulement si la famille \( \Big(P(X = x)\,\Phi(x)\Big)_{x\in X(\Omega)} \) est sommable. Dans ce cas :

\( \displaystyle E(\Phi(X)) = \sum_{y\in \Phi(X)(\Omega)} P(\Phi(X) = y)\,y = \sum_{x\in X(\Omega)} P(X = x)\,\Phi(x) \)

Preuve

Posons \( Y = |\Phi(X)| \). Pour tout \( y\in Y(\Omega) \), définissons :

\( \displaystyle I_y = \{x\in X(\Omega) | |\Phi(x)| = y\} \)

Alors \( X = \Cup I_y \) et

\( \displaystyle \sum_{x\in X(\Omega)} P(X = x)\,|\Phi(x)| = \sum_{y\in Y(\Omega)} \sum_{x\in I_y} P(X = x)\,|\Phi(x)| \)

\( \displaystyle \phantom{\sum_{x\in X(\Omega)} P(X = x)\,|\Phi(x)|} = \sum_{y\in Y(\Omega)} y \sum_{x\in I_y} P(X = x) \)

\( \displaystyle \phantom{\sum_{x\in X(\Omega)} P(X = x)\,|\Phi(x)|} = \sum_{y\in Y(\Omega)} y P(X \in I_y) \)

\( \displaystyle \phantom{\sum_{x\in X(\Omega)} P(X = x)\,|\Phi(x)|} = \sum_{y\in Y(\Omega)} y P(Y = y) \)

Ainsi, d'après le théorème de sommation par paquets, $\Phi(X)\in L^1$ si et seulement si la famille $\Big(P(X = x)\,\Phi(x)\Big)_{x\in X(\Omega)}$ est sommable.

2. Cas particulier : sous réserve d'existence,
  1. on appelle moment d'ordre \( p \) : \( m_p(X) = E(X^p) \).
  2. on appelle moment centré d'ordre : \( \overline{m_p}(X) = E((X - E(X))^p) \)

En pratique, s'ils existent, on utilise le théorème de transfert pour les calculer !