Dans tout ce qui suit, \( X \) désigne une variable aléatoire réelle définie sur un espace probabilisé \( (\Omega, P) \).
Sa fonction de répartition est notée \( F_X \).
De même, \( (X_n) \) désigne une suite de variables aléatoires réelles définies sur \( (\Omega, P) \).
La suite des fonctions de répartition respectives est notée \( (F_{\small X_n}) \).
1. Convergence en loi
Définition : on dit que \( (X_n) \) converge en loi vers \( X \) si pour tout \( x \in\mathbb{R} \),
\( F_X \) est continue en \( x \) \( \implies \displaystyle\lim_{n\rightarrow +\infty} F_{\small X_n}(x) = F_X(x) \)
Autrement dit, pour tout \( x \in\mathbb{R} \) tel que \( P(X=x) = 0 \),
\( \displaystyle\lim_{n\rightarrow +\infty} P(X_n \leq x) = P(X \leq x) \)
L'utilisation la plus spectaculaire de cette convergence est bien évidemment le théorème central de la limite !
2. Convergence en probabilité
Définition : on dit que \( (X_n) \) converge en probabilité vers \( X \) si pour tout \( \epsilon > 0 \),
\( \displaystyle\lim_{n\rightarrow +\infty}P\left(|X_n - X| > \epsilon\right) = 0 \)
Théorème : si \( (X_n) \) converge en probabilité, alors elle converge en loi.
Il s'agit de la convergence utilisée dans la loi faible des grands nombres.
3. Convergence presque sûrement
Définition : on dit que \( (X_n) \) converge presque surement vers \( X \) si
\( \displaystyle P\left(\lim_{n\rightarrow +\infty} X_n = X\right) = 1 \)
Autrement dit, il existe un sous-ensemble mesurable négligeable \( N\subset \Omega \) tel que pour tout \( \omega \in \Omega\text{\\}N \),
\( \displaystyle \lim_{n\rightarrow +\infty} X_n(w) = X(w) \)
Il s'agit, intuitivement, d'une convergence ponctuelle.
Théorème Si \( (X_n) \) converge presque surement, alors elle converge en probabilité (et donc en loi).
Il s'agit de la convergence utilisée dans la loi forte des grands nombres.