Dans tout ce qui suit, \( (X_n) \) désigne une suite de variables aléatoires réelles, indépendantes et identiquement distribuées, définies sur un espace probabilisé \( (\Omega, P) \).
Supposons que la loi suivie par chaque \( X_n \) possède une espérance et une variance. Notons alors :
\( \mu = E(X_1) = {\small\dots} = E(X_n) \)
\( \sigma^2 = V(X_1) = {\small\dots} = V(X_n) \).
Posons enfin :
\( S_n = \displaystyle\sum_{i=1}^n X_i \)
\( \overline{X_n} = \dfrac{1}{n} S_n = \dfrac{1}{n}\displaystyle\sum_{i=1}^n X_i \)
\( Z_n = \dfrac{\overline{S_n} - n\mu}{\sqrt{n}\sigma} = \dfrac{\overline{X_n} - \mu}{\sigma/\sqrt{n}} \)
Théorème central de la limite
La suite \( (Z_n) \) converge en loi vers \( {\cal N}(0, 1) \).
Autrement dit, pour tout \( t\in\mathbb{R} \),
\( \displaystyle\lim_{n\rightarrow +\infty} P\left(Z_n \leq t\right) = \int_{\small-\infty}^t {\dfrac{e^{-x^2 / 2} }{2\pi}dx} \)
Notons que les \( \overline{X_n} \) sont parfois simples à calculer, car certaines sommes sont connues. Par exemple :
1. Si les \( (X_n) \) suivent une loi de Bernoulli \( {\cal B}(p) \), alors \( \overline{X_n} \) suit une loi binomiale \( {\cal B}(n , p) \).
2. Si les \( (X_n) \) suivent une loi de Poisson \( {\cal P}(\lambda) \), alors \( \overline{X_n} \) suit une loi de Poisson \( {\cal P}(n\lambda) \).
3. Si les \( (X_n) \) suivent une loi exponentielle \( {\cal E}(\lambda) \), alors \( \overline{X_n} \) suit une loi de Gamma \( {\cal \Gamma}(n, \lambda^{-1}) \).