Dans tout ce qui suit, \( X \) désigne une variable aléatoire réelle définie sur un espace probabilisé \( (\Omega, P) \).
On note \( E(X) \) son espérance et \( \sigma \) son écart-type.
1. Utiliser l'inégalité de Markov
Rappel ! Pour tout réel \( x > 0 \),
\( P(| X | \geq x) \leq \dfrac{E(|X|)}{x} \)
Cette inégalité est souvent trop grossière pour obtenir une estimation correcte d'une probabilité.
Elle sert plutôt en théorie, notamment pour démontrer l'inégalité de B-T.
Exemple !
Supposons que \( X \) suive une loi \( {\cal B}(n, p) \). Alors pour tout entier \( m > 0 \),
\( P(X \geq m) \leq \dfrac{np}{m} \)
Mais il s'agit d'une loi binômiale. Donc :
\( \displaystyle P(X \geq m) = \sum_{k=m}^{n} P(X = k) \) \( \displaystyle= \sum_{k=m}^{n}\binom{n}{k}p^k(1 - p)^{n-k} \)
Finalement, on obtient que :
\( \displaystyle\sum_{k=m}^{n}\binom{n}{k}p^k(1 - p)^{n-k}\leq \dfrac{np}{m} \)
2. Utiliser l'inégalité de Bienaymé-Tchebychev
Rappel ! Pour tout réel \( x > 0 \),
\( P(| X - E(X) | \geq x) \leq \dfrac{\sigma^2}{x^2} \)
Exemple !
Supposons que \( X \) suive une loi \( {\cal B}(n, p) \). Alors pour tout réel \( x > 0 \),
\( P(| X - np | \geq x) \leq \dfrac{np(1-p)}{x^2} \)
Ce résultat n'a évidemment un intérêt que pour \( np(1-p) \geq x^2 \).
Ainsi, en lançant une pièce de monnaie 10000 fois, la valeur minimale de \( x \) est :
\( \sqrt{10000\times 0.5\times 0.5} = 50 \)
On a par exemple pour \( x = 100 \),
\( P(| X - 5000 | \geq 100) \leq \dfrac{2500}{100^2} \)
Finalement, on obtient que :
\( P(| X - 5000 | \geq 100) \leq 0.25 \)
Conclusion
On retiendra que l'on a simplement deux techniques à connaître !
+ L'inégalité de Markov
Fondamentale en théorie mais peu utile en pratique.
+ L'inégalité de Bienaymé-Tchebychev
Très pratique, à condition de disposer de la variance de \( X \).