Fonction génératrice des probabilités

Variable aléatoire réelle discrète
| Lundi 17 Novembre 2025

 
Nota Bene
Vous pouvez retrouver cet article sur YouTube !
Le texte est un peu différent : il a été relu et corrigé de nombreuses fois depuis la publication de la vidéo.
À vous de voir :)
 

Dans tout ce qui suit, \( X \) et \( Y \) désignent deux variables aléatoires entières et positives définies sur un espace probabilisé \( (\Omega, {\cal M}, P) \).

Autrement dit, \( X (\Omega) \subset {\mathbb N} \) et \( Y (\Omega) \subset {\mathbb N} \).

Définition - La fonction génératrice des probabilités de \( X \) est la série entière définie par :

\( G_X(t) = \displaystyle\sum_{n = 0}^{+\infty}P(X = n)\,t^n \)

De manière équivalente, d'après le théorème de transfert,

\( G_X(t) = E\big(t^X\big) \)

Notons \( R \) son rayon de convergence. Celui-ci va fortement dépendre de la loi de probabilité.

Parfois, il n'y a aucun problème de convergence ! C'est le cas si la somme est finie, par exemple - on peut ainsi penser à la loi binomiale. Alors \( R = \infty \).

Parfois, c'est plus complexe ! Ceci étant, pour tout entier \( n \),

\( \displaystyle \Big| P(X = n)\,t^n\Big| \leqslant |t|^n \)

Ainsi, par comparaison avec une série géométrique, la série converge pour tout \( |t| < 1 \). Autrement dit, \( R \geqslant 1 \), et donc \( G_X\in{\cal C}^{\infty}(]-1; 1[) \).

1. Propriétés élémentaires en 1

Nous savons que la série converge - à minima - sur \( ] -1; 1 [ \)… étudions son comportement au bord de l'intervalle.

\( \displaystyle G_X(1) = \sum_{n = 0}^{+\infty}P(X = n)\times 1^n \)

\( \displaystyle \phantom{G_X(1)} = \sum_{n = 0}^{+\infty}P(X = n) \)

\( \displaystyle \phantom{G_X(1)} = 1 \)

Ainsi, \( G_X \) converge absolument en \( 1 \) et \( -1 \), et donc \( G_X\in{\cal C}([-1, 1]) \).

Pour la dérivée !

Le théorème de dérivation de série entière donne, pour tout \( t\in]-1; 1[ \),

\( \displaystyle G_X'(t) = \sum_{n = 1}^{+\infty}P(X = n)\,n\,t^{n-1} \)

Ainsi, en évaluant pour \( t = 1 \), sous réserve d'existence,

\( \displaystyle G_X'(1) = \sum_{n = 1}^{+\infty}P(X = n)\,n \)

\( \displaystyle \phantom{G_X’(1)} = E(X) \)

Pour la dérivée seconde !

De même, pour tout \( t\in]-1; 1[ \),

\( \displaystyle G_X''(t) = \sum_{n = 2}^{+\infty}P(X = n)\,n\,(n-1)\,t^{n-2} \)

Ainsi, en évaluant pour \( t = 1 \), sous réserve d'existence,

\( \displaystyle G_X''(1) = \sum_{n = 2}^{+\infty}P(X = n)\,n\,(n-1) \)

\( \displaystyle \phantom{G_X''(1)} = E(X(X-1)) \)

\( \displaystyle \phantom{G_X''(1)} = E(X^2) - E(X) \)

Notons que, via le théorème de König-Huygens,

\( \displaystyle V(X) = E(X^2) - E(X)^2 \)

\( \displaystyle \phantom{V(X)} = E\left(X^2\right) - E(X) + E(X) - E(X)^2 \)

\( \displaystyle \phantom{V(X)} = G_X''(1) + G_X'(1) - G_X'(1)^2 \)

2. La loi

Propriété : une variable aléatoire entière et positive est caractérisée par sa fonction génératrice.

Autrement dit, si \( X(\Omega) = Y(\Omega) \) et pour tout \( t\in]-1; 1[ \), \( G_X(t) = G_Y(t) \), alors pour tout \( n\in{\mathbb N} \),

\( \displaystyle P(X = n) = P(Y = n) \)

Preuve : il s'agit de l'expression des coefficients d'une série entière :

\( \displaystyle P(X=n) = \frac{G_X^{(n)}(0)}{n!} = \frac{G_Y^{(n)}(0)}{n!} \)\( \displaystyle = P(Y = n) \)

3. Le produit de Cauchy

Théorème : si \( X \) et \( Y \) sont indépendantes, alors pour tout \( t\in]-1; 1[ \),

\( G_{X+Y} (t) = G_X(t) G_Y(t) \).

Preuve : pour tout \( t\in]-1; 1[ \),

\( \displaystyle G_{X+Y} (t) = \sum_{n = 0}^{+\infty}P(X + Y = n)\,t^n \)

\( X \) et \( Y \) étant à valeurs entières positives, pour tout entier \( n\in{\mathbb N} \),

\( \displaystyle P(X + Y = n) \)\( \displaystyle = \sum_{k= 0}^n P\Big( (X = k) \cap (Y = n- k) \Big) \)

\( X \) et \( Y \) étant indépendantes, pour tous entiers \( n\in{\mathbb N} \) et \( k\in{\mathbb N} \),

\( \displaystyle P\Big( (X = k) \cap (Y = n- k) \Big) \)\( \displaystyle = P(X = k) P(Y = n-k) \)

Ainsi, nous obtenons que :

\( \displaystyle G_{X+Y} (t) = \sum_{n = 0}^{+\infty}P(X + Y = n)\,t^n \)

\( \displaystyle \phantom{G_{X+Y} (t)} \)\( \displaystyle = \sum_{n = 0}^{+\infty} \Bigg(\sum_{k= 0}^n P\Big( (X = k) \cap (Y = n- k) \Big)\Bigg)t^n \)

\( \displaystyle \phantom{G_{X+Y} (t)} \)\( \displaystyle = \sum_{n = 0}^{+\infty} \Bigg(\sum_{k= 0}^n P(X = k) P(Y = n- k)\Bigg)\,t^n \)

\( \displaystyle \phantom{G_{X+Y} (t)} \)\( \displaystyle = \sum_{n = 0}^{+\infty} \sum_{k= 0}^n P(X = k) P(Y = n- k)\,t^n \)

\( \displaystyle \phantom{G_{X+Y} (t)} \)\( \displaystyle = \sum_{n = 0}^{+\infty} \sum_{k= 0}^n P(X = k) P(Y = n- k)\,t^k\,t^{n-k} \)

\( \displaystyle \phantom{G_{X+Y} (t)} \)\( \displaystyle = \sum_{n = 0}^{+\infty} \sum_{k= 0}^n P(X = k)\,t^k\,P(Y = n- k)\,t^{n-k} \)

Finalement, nous reconnaissons l'écriture du produit de Cauchy :

\( \displaystyle G_{X+Y} (t) = \sum_{n = 0}^{+\infty} P(X = n)t^n \)\( \displaystyle \times \sum_{n = 0}^{+\infty} P(Y = n)t^n \)

\( \displaystyle \phantom{G_{X+Y} (t)} = G_X(t) G_Y(t) \)

Conclusion !

Les fonctions génératrices tissent un lien entre les mondes discrets et continus, et plus précisemment loi de probabilités discrètes et analyse réelle. Elles permettent de transformer l'étude de la convergence de séries \( \sum P(X = n)n^k \) - où \( k\in{\mathbb N} \) - en la recherche de dérivée en un point particulier.

Amusant, non ?