Couples de variables aléatoires discrètes.
Covariance.
Exemples d'application.

Leçon 233 - Probabilité
| Mardi 11 Mars 2025

Dans toute la leçon, on se place sur un espace probabilisé \( (\Omega, P) \) discret.
\( X \) et \( Y \) désignent deux variables aléatoires réels.
\( a \) et \( b \) désignent deux nombres réels.
\( \phi \) désigne une application \( X(\Omega)\times Y(\Omega) \rightarrow {\mathbb R} \).
Typiquement, \( X + Y \) ou \( XY \) seront vues comme des applications \( \phi \) particulières.

1. Couples de Variables Aléatoires

1) Définition
La loi de \( (X; Y) \) est l'application \( P_{(X; Y)} : {\mathbb R}^2 \rightarrow [0; 1] \) définie par :

\( \displaystyle P_{(X; Y)} (x, y) = P(\{X = x\}\cap\{Y = y\}) \)

On note \( P_{(X; Y)}(x, y) = P(X = x; Y = y) \).

2) Définition - On dit que \( X \) et \( Y \) sont indépendantes si pour tout \( x\in X(\Omega) \) et \( y\in Y(\Omega) \),

\( \displaystyle P(X = x; Y = y) = P(X = x)P(Y = y) \)

3) Propriété - Pour tout \( x\in {\mathbb R} \),

\( P(X = x) = \displaystyle\sum_{y\in Y(\Omega)} P(X = x; Y = y) \).

4) Vocabulaire - On dit que les lois de \( X \) et \( Y \) sont les lois marginales de la loi conjointe de \( (X; Y) \).

2. Application sur un couple

On cherche à étudier la loi de la variable aléatoire \( \phi(X, Y) \).
Par exemple, on peut étudier les lois de \( X + Y \), \( XY \)

1) Propriété - Pour tout \( z \in {\mathbb R} \),

\( P(\phi(X, Y) = z) = \displaystyle\sum_{(x, y)\in \phi^{-1}(z)} P(X = x; Y= y) \)

2) Théorème - Sous réserve d'existence,

\( E(\phi(X; Y)) = \displaystyle\sum_{(x; y)\in X(\Omega)\times Y(\Omega)}\phi(x; y)P(X = x; Y = y) \)

2) Corollaire : linéarité de l'espérance - Sous réserve d'existence,

\( E(aX + bY) = a\times E(X) + b\times E(Y) \)

3. Covariance

1) Définition - Sous réserve d'existence, la covariance du couple \( (X; Y) \) est définie par :

\( Cov(X; Y) = E\bigl( (X - E(X))\times(Y - E(Y)) \bigr) \)

2) Théorème [König-Huygens]

\( Cov(X; Y) = E(XY) - E(X) E(Y) \)

3) Propriété - Si \( X \) et \( Y \) sont indépendantes, alors \( Cov(X; Y) = 0 \).

4) Corollaire - Si \( X \) et \( Y \) sont indépendantes, alors :

\( \displaystyle E(XY) = E(X)E(Y) \)

Attention ! La réciproque est fausse.

La notion de covariance prolonge la notion de variance : en effet, \( Cov(X; X) = Var(X) \).

5) Propriété - Sous réserve d'existence,

\( Var(X + Y) = Var(X) + 2 Cov(X; Y) + Var(Y) \)

6) Théorème [Inégalité de Cauchy-Schwartz] - Sous réserve d'existence,

\( \displaystyle |Cov(X; Y)| \leq \sqrt{Var(X)}\sqrt{Var(Y)} \)

7) Définition - si \( X \) et \( Y \) admettent une variance non nulle, on appelle coefficient de corrélation :

\( \rho = \dfrac{Cov(X; Y)}{\sqrt{Var(X)Var(Y)}} \)

8) Propriété
- \( \rho \in[-1; 1] \)
- \( \rho = 1 \) si et seulement \( Y = aX + b \), avec \( a > 0 \).
- \( \rho = -1 \) si et seulement \( Y = aY + b \), avec \( a < 0 \).

Le coefficient de corrélation permet donc de mesurer la dépendance linéaire existant entre deux \( X \) et \( Y \).
Plus \( \rho \) se rapproche de \( \pm 1 \), plus les variables sont linéairement dépendantes.
Plus \( \rho \) se rapproche de 0, plus les variables sont linéairement indépendantes.

4. Applications

1) Stabilité des lois de Poisson

Supposons que \( X \) et \( Y \) soient indépendants.

Si \( X \sim {\cal P}(\lambda) \) et \( Y \sim {\cal P}(\mu) \), alors \( X + Y \sim {\cal P}(\lambda + \mu) \)

2) Stabilité des lois Binomiales

Supposons que \( X \) et \( Y \) soient indépendants.

Si \( X \sim {\cal B}(m, p) \) et \( Y \sim {\cal B}(n, p) \), alors \( X + Y \sim {\cal B}(m+n, p) \)

3) Régression linéaire par la méthode des moindres carrés