Aller au contenu

Exercices

Probabilités⚓︎

Exercice 1

On considère un lancer de deux dés équilibrés lancés de façon indépendante.

1. Quel est l'univers \(\Omega\) des résultats possibles ?

Correction

Les résultats possibles sont les couples de résultats obtenus par les deux dés. Chaque dé possède 6 faces. Donc \(\Omega = \{1, ..., 6\} \times \{1, ..., 6\}\).

2. Donner les probabilités des événements suivants :

  • "Au moins un des dés est tombé sur 6"

  • "Au moins un des dés est tombé sur un nombre pair"

  • "La somme des résultats est impaire"

Correction
  • Les événements favorables sont \((6,1), (6,2)..., (6,6), (5,6), ..., (1,6)\). Ou on peut considérer les événements \(A_6 =\) "le premier dé est un 6" et \(B_6 =\) "le second dé est un 6", ainsi l'événement considéré est \(A\cup B\).

  • Les événements favorables sont \((2,1), ..., (2,6), (4, 1), ..., (4,6), (6,1), ..., (6,6), (1,2), (3,2), ... (6,2), (1,4), (2,4),(3,4),(5,4),(6,4),(1,6), ..., (5,6)\). Ou on peut considérer les événements comme précédemment \(A_2, A_4, A_6, B_2,B_4,B_6\), ainsi l'événement considéré est \((A_2 \cup A_4 \cup A_6) \cup (B_2 \cup B_4 \cup B_6)\). On en déduit sa probabilité en distinguant les réunions disjoints ou non.

  • On peut considérer les événements \(A_p =\)"le premier dé est pair", \(A_i =\)"le premier dé est impair", \(B_p\) et \(B_i\), ainsi l'événement considéré est \((A_p \cap B_i) \cup (A_i \cap B_p)\) car pour qu'une somme soit impaire il faut et il suffit que le premier soit impair et le second pair ou que le premier soit pair et le second impair.

Exercice 2

Soit \(n\in \mathbb{N}^*\) et \(\Omega = \{1, ..., n\}\).

1. Exprimer la mesure de probabilité uniforme \(\mathbb{P}_u\) sur \(\Omega\) comme combinaison linéaire de mesures de Dirac.

Correction

Nous avons pour tout \(A\in \mathcal{P}(\Omega)\)

\[\mathbb{P}_u(A) = \dfrac{|A|}{|\Omega|},\]

avec

\[|A| = \left| \bigcup_{a\in A} \{a\} \right| = \sum_{a\in A} |\{a\}| = \sum_{a\in A} 1 = \sum_{a\in A} 1 + \sum_{a\in \Omega\backslash A} 0 = \sum_{a\in A} \delta_a(A) + \sum_{a\in \Omega \backslash A} \delta_a(A) = \sum_{a\in \Omega} \delta_a(A).\]

Donc

\[\mathbb{P}_u = \dfrac{1}{|\Omega|} \sum_{a\in \Omega} \delta_a.\]

On considère la fonction \(\mathbb{P} = \dfrac{1}{2} \mathbb{P}_u + \dfrac{1}{2} \delta_n\).

2. Montrer que la fonction \(\mathbb{P}\) est une mesure de probabilité. Quelle expérience aléatoire peut être associée à la mesure de probabilité \(\mathbb{P}\) ?

Correction

On peut considérer un dé à \(n\) faces non équilibré où pour tout \(k\in \{1, ..., n-1\}\)

\[\mathbb{P}(\{k\}) = \dfrac{1}{2n},\]

et

\[\mathbb{P}(\{n\}) = \dfrac{1}{2n} + \dfrac{1}{2} = \dfrac{1+n}{2n}.\]

3. Déterminer \(\mathbb{P}(\{1,n\})\) et \(\mathbb{P}(2\mathbb{N} \cap \Omega)\).

Correction
  • Nous avons \(\{1, n\} = \{1\}\cup \{n\}\).

  • Nous avons

\[2\mathbb{N} \cap \Omega = \begin{cases} \{2\} \cup \{4\} \cup ... \cup \{2k\} & si & n = 2k \in 2\mathbb{N} \\ \{2\} \cup \{4\} \cup ... \cup \{2\ell\} & si & n = 2\ell + 1 \in 2\mathbb{N} + 1 \end{cases}.\]

Exercice 3

Dans un jeu de 52 cartes, une carte (autre que l'as de pique) a été remplacée par un second as de pique. Un joueur choisi au hasard de façon uniforme trois cartes de ce paquet.

1. Quel est l'ensemble \(\Omega\) des événements possibles et quelle est la mesure de probabilité de cette expérience ?

Correction

On numérote les cartes du paquet de 1 à 52 en supposant que les deux as de pique sont les numéros 1 et 2. Alors \(\Omega\) est l'ensemble des parties à 3 éléments de \(\{1, ... 52\}\) :

\[\Omega = \{a \subset \{1, ..., 52\}, \quad |a| = 3\}.\]

En particulier \(|\Omega| = 52\times 51\times 50 \times 3! = \binom{52}{3}\). De plus comme le tirage est supposé uniforme, la mesure de probabilité associée à cet événement est la probabilité uniforme :

\[\forall A \in \mathcal{P}(\Omega), \quad \mathbb{P}(A) = \dfrac{|A|}{|\Omega|}.\]

2. Quelle est la probabilité que le joueur s'aperçoive que le jeu est truqué ?

Correction

Le joueur s'apperçoit que le jeu est truqué s'il tire les deux as de pique et n'importe quelle autre carte. Comme la probabilité est uniforme il suffit de dénombrer le nombre de cas favorables. Il faut donc obligatoirement tirer les deux as de pique et une carte parmi les 50 cartes restantes, donc 50 cas favorables. Donc la probabilité \(p\) que le joueur s'aperçoive que le jeu est truqué est donnée par

\[p = \dfrac{50}{\binom{52}{3}} = \dfrac{1}{442}.\]

Exercice 4

Soit \(N \in \mathbb{N}^*\). Une boîte contient \(2N\) boules numérotées de \(1\) à \(2N\). On tire \(N\) boules successivement sans les remettre. On suppose que les boules sont toutes identiques (sauf leur numéro), et qu’on mélange les boules de la boîte avant chaque tirage.

1. Donner l’ensemble \(\Omega\) qui représente tous les tirages possibles et calculer son cardinal \(|\Omega|\). Quelle mesure de probabilité sur \((\Omega, \mathcal{P}(\Omega))\) correspond à cette façon de tirer les boules ?

Correction

Nous avons

\[\Omega = \{(n_1, ...,n_N), \quad n_1, ..., n_N \in \{1, ..., 2N\}, \quad \forall i,j\in \{1, ..., N\}, i\neq j \Longrightarrow n_i \neq n_j\}.\]

Ainsi pour chaque élément de \(\Omega\) il faut un choisir \(N\) éléments parmi \(2N\) éléments (\(\binom{2N}{N}\) choix possibles) et les ordonner (\(N!\) ordres possibles). Donc

\[|\Omega| = \binom{2N}{N} N! = \dfrac{(2N)!}{N!}.\]

Tous les événements sont équiprobables, donc la probabilité est uniforpme.

2. On note l’événement \(A_N\) : "on tire au moins un numéro inférieur ou égal à \(N\)". Calculer \(|A_N^c|\), en déduire \(\mathbb{P}(A_N)\), et en utilisant la formule de Stirling \(N! \underset{N\to +\infty}{\sim} \left( \dfrac{N}{e} \right)^N \sqrt{2\pi N}\), déterminer la limite \(\lim_{N\to +\infty} \mathbb{P}(A_N)\).

Correction

L'événement \(A_N^c\) correspond à "on tire que des numéros supérieurs à \(N\)". Autrement dit

\[A_N^c = \{(n_1, ..., n_N), \quad n_1, ..., n_N \in \{N, ..., 2N\}, \quad \forall i,j\in \{1, ..., N\}, i\neq j \Longrightarrow n_i \neq n_j\}.\]

Ainsi, avec le même raisonnement qu'à la première question,

\[|A_N^c| = \binom{N}{N} N! = N!.\]

Donc, comme la probabilité est uniforme,

\[\mathbb{P}(A_N) = 1 - \mathbb{P}(A_N^c) = 1 - \dfrac{|A_N^c|}{|\Omega|} = 1 - \dfrac{(N!)^2}{(2N)!}.\]

Or, d'après la formule de Stirling,

\[\begin{array}{rcl} \dfrac{(N!)^2}{(2N)!} & \underset{N\to +\infty}{\sim} & \dfrac{\left( \dfrac{N}{e} \right)^{2N} 2 \pi N}{\left( \dfrac{2N}{e} \right)^{2N} \sqrt{4\pi N}} \\ & = & \dfrac{\sqrt{\pi N}}{4^N} \\ & \underset{N\to +\infty}{\longrightarrow} & 0 \end{array}.\]

Par conséquent

\[\mathbb{P}(A_N) \underset{N\to +\infty}{\longrightarrow} 1.\]

Exercice 5

On place \(11\) boules dans une boîte : \(10\) boules bleues et \(1\) boule rouge.

1. Soit \(n \in \mathbb{N}^*\). On tire au hasard uniformément \(n\) boules l’une après l’autre en remettant à chaque fois la boule tirée dans la boîte. On note alors les numéros des boules tirées (avec \(11\) la boule rouge). Décrire l’ensemble \(\Omega\) et la mesure de probabilité \(\mathbb{P}\) associés.

Correction

A chaque tirage nous obtenons un nombre entre 1 et 11 et ceci \(n\) fois. Les résultats sont alors des \(n\)-uplets d'éléments de \(\{1, ..., 11\}\) Donc

\[\Omega = \{1, ..., 11\}^n.\]

2. Calculer \(p_1\) la probabilité de tirer au moins une fois la boule rouge.

Correction

Si on note \(A\) l'événement "on tire au moins une fois la boule rouge" alors \(A^c\) correspond à "on tire que des boules bleues" dont on peut calculer le cardinal et en déduire sa probabilité.

3. On considère \(E = \{B, R\}^n\) l’ensemble de toutes les répartitions de couleurs que l’on peut voir dans les tirages. Dans l’expérience du tirage, les ensembles \(\Omega\) et \(E\) sont reliés. Trouver une variable aléatoire \(X : \Omega \longrightarrow E\) qui donne ce lien.

Correction

On considère la fonction \(f\) qui associe le numéro de la boule à sa couleur

\[f(1) = ... = f(10) = B, \quad f(11) = R.\]

Alors la variable \(X\) est définie par \(X = (f, ..., f)\).

4. On considère \(\mathbb{P}_X\) sa loi de probabilité. Calculer \(\mathbb{P}_X(\{(B, . . . , B)\})\).

Correction

Nous avons

\[\mathbb{P}_X(\{(B, ..., B)\}) = \mathbb{P}(X = (B,...,B)) = \mathbb{P}(A^c).\]

5. Pour tout \(e\in E\), on considère \(k_e\) le nombre de \(B\) qui apparaissent dans \(e\). Calculer \(\mathbb{P}_X({e})\) en fonction de \(k_e\).

Correction

On considère \(I = \{i \in \{1, ..., n\}, e_i = B\}\) l'ensemble des indices des boules bleues du tirage. Alors \(|I| = k_e\). Ainsi \(X^{-1}(\{e\}) = (X = e)\) est l'ensemble des tirages \((a_1, ..., a_n)\) tels que \(a_i \in \{1, ..., 10\}\) si \(i\in I\) et \(a_i = 1\) si \(i\notin I\). Donc il y a \(10\) possiblilités pour chaque \(a_i, i\in I\) et une possibilité pour chaque \(a_i, i\notin I\), d'où \(X^{-1}(\{e\})\) contient exactement \(10^{|I|} \times 1^{|I^c|} = 10^{k_e}\) élements. Par conséquent

\[p_e = \mathbb{P}_X(\{e\}) = \mathbb{P}(X = e) = \dfrac{|(X = e)|}{|\Omega|} = \dfrac{10^{k_e}}{11^n}.\]

6. Pour \(k\in \{1, ..., n\}\), en déduire \(p_2\) la probabilité de tirer exactement \(k\) boules bleues.

Correction

Nous avons, par réunion disjointe,

\[p_2 = \mathbb{P}_X(\{e\in E, \quad k_e = k\}) = \mathbb{P}_X\left( \bigcup_{e\in E, k_e = k} \{e\} \right) = \sum_{e\in E, k_e = k} \mathbb{P}_X(\{e\}) = \sum_{e\in E, k_e = k} \dfrac{10^{k_e}}{11^n} = \sum_{e\in E, k_e = k} \dfrac{10^k}{11^n} = \dfrac{10^k}{11^n} |\{e\in E, \quad k_e = k\}|,\]

avec \(|\{e\in E, \quad k_e = k\}| = \binom{n}{k}\) car chaque \(e \in E, k_e = k,\) est entièrement déterminé par le choix de \(k\) entiers parmi \(n\). Par conséquent

\[p_2 = \dfrac{10^k}{11^n} \binom{n}{k}.\]

Exercice 6

On considère un réel \(p\in [0,1]\) et une suite de variables aléatoires \((X_k)_{k\in \mathbb{N}^*}\) indépendantes et telles que

\[\forall k\in \mathbb{N}^*, \quad \mathbb{P}(X_k = 1) = p, \quad \mathbb{P}(X_k = -1) = 1-p.\]

On considère également leurs sommes successives \(S_n = \sum_{k=1}^n X_k, n\in \mathbb{N}^*.\)

1. Montrer que pour tout \(n\in \mathbb{N}^*\) la variable aléatoire \(S_n\) est à valeurs dans \(\{-n, ..., n\}\) et de même parité que \(n\).

2. On suppose \(n\) pair : \(n = 2m\) pour \(m \in \mathbb{N}^*\). Montrer que la loi de \(S_n\) est donnée par

\[\forall j\in \{-m, ...,m\}, \quad \mathbb{P}(S_n = 2j) = \binom{n}{m+j}p^{n+j}(1-p)^{n-j}.\]

3. Montrer que \(\mathbb{P}(S_n = 0) \leq (4p(1-p))^m\).

4. En déduire que si \(p\neq \dfrac{1}{2}\) alors \(\mathbb{P}(S_n = 0) \underset{n\to +\infty}{\longrightarrow} 0\) et l'interpréter.

Correction

1.

2.

3.

4.

Exercice 7

On considère une suite de variables aléatoires binomiales \(N = (N_n)_{n\in \mathbb{N}^*} = \left(\sum_{i=1}^n X_i\right)_{n\in \mathbb{N}^*}\)\((X_i)_{i\in \mathbb{N}^*}\) est une suite de variables de Bernoulli indépendantes de paramètre \(p \in [0,1]\). On considère également pour tout \(n\in \mathbb{N}^*\) la variable aléatoire \(T_n\) l'instant de premier passage de la suite \(N\) à l'entier \(n\) :

\[T_n = \inf\{k\in \mathbb{N}^*, \quad N_k = n\} \in \mathbb{N}^* \cup \{+\infty\}.\]

1. Déterminer la loi de \(T_1\).

2. Montrer que, pour tout \(n\in \mathbb{N}^*\), \(\mathbb{P}(T_n = +\infty) = 0\).

3. Déterminer, pour \(n\in \mathbb{N}^*\), la loi de \((T_1, ..., T_n)\).

4. Déterminer, pour tout \(m\geq n\), la loi conditionnelle de \((T_1, ..., T_n)\) sachant \(N_m = n\).

5. On considère, pour \(n\in \mathbb{N}^*,\) les variables aléatoires \(U_n = n - T_{N_n}\) et \(V_n = T_{N_n+1} - n\). Interpréter les variables aléatoires \(U_n\) et \(V_n\).

6. Déterminer les lois des variables aléatoires \(U_n\) et \(V_n\) et montrer qu'elles sont indépendantes.

7. Déterminer la loi de \(T_{n+1} - T_n\) et interpréter ce résultat.

Cet exercice démontre le paradoxe de l'autobus (version discrète).

Correction

1.

2.

3.

4.

5.

6.

7.

Exercice 8

Soient \(A,B,C \in \mathcal{P}(\Omega)\) trois événements.

1. Montrer que :

\[\mathbb{P}(A \cup B \cup C) = \mathbb{P}(A)+\mathbb{P}(B)+\mathbb{P}(C)−\mathbb{P}(A\cap B)−\mathbb{P}(A \cap C) - \mathbb{P}(B\cap C)+\mathbb{P}(A \cap B \cap C).\]
Correction

2. On dispose de 3 composants électriques \(C_1,C_2\) et \(C_3\) dont les probabilités de fonctionnement sont respectivement \(p_1, p_2, p_3\), et de fonctionnement totalement indépendant les uns des autres. Donner la probabilité de fonctionnement du circuit

  • si les composants sont disposés en série.

  • si les composants sont disposés en parallèle.

  • si le circuit est mixte : \(C_1\) est disposé en série avec le sous-circuit constitué de \(C_2\) et \(C_3\) en parallèle.

Correction

Exercice 9

Soit \(n \in \mathbb{N}^*\). On choisit de manière équiprobable un entier \(x\) dans \(\{1,...,n\}\). Pour tout entier \(m \in \{1, ..., n\}\), on note \(A_m\) l'événement "\(m\) divise \(x\)". On note également \(B\) l'événement "\(x\) est premier avec \(n\)". Enfin, on note \(p_1,...,p_r\) les diviseurs premiers de \(n\).

1. Exprimer \(B\) en fonction des \(A_{p_k}\).

2. Pour tout entier naturel \(m\) qui divise \(n\), calculer la probabilité de \(A_m\).

3. Montrer que les événements \(A_{p_1},...,A_{p_r}\) sont mutuellement indépendants.

4. En déduire la probabilité de \(B\).

5. On note \(\phi(n)\) le nombre d'entiers compris entre 1 et \(n\) qui sont premiers avec \(n\). Démontrer que $

\[\phi(n) = n \prod_{k=1}^r \left(1−\dfrac{1}{p_k}\right).\]
Correction

Exercice 10

Dans une population donnée, deux maladies \(M_1\) et \(M_2\) sont observables chez respectivement 10% et 20% des individus. On suppose que le nombre des malchanceux qui souffrent à la fois de M1 et M2 est négligeable, nul pour simplifier. On entreprend un dépistage systématique de ces maladies au moyen d’un test unique. Ce test est positif pour 90% des malades de \(M_1\), 70% des malades de \(M_2\) et 10% des individus sains.

1. Déterminer la probabilité que le test d'un individu soit positif.

Correction

2. Déterminer la probabilité qu’un individu pour lequel le test est positif soit atteint de la maladie \(M_1\) ? Même question avec \(M_2\).

Correction

Exercice 11

On considère un lancer de 3 dés à 6 faces équilibrés. Calculer la moyenne de la somme des résultats des dés.

Correction

Nous avons \(\Omega = \{1,...,6\}^3\) et \(\mathbb{P}\) est la mesure de probabilité uniforme sur \(\Omega\). On considère la somme des 3 faces obtenues \(X : \Omega \longrightarrow \{3, . . . , 18\}\) définie par \(X(\omega) = \omega_1 + \omega_2 + \omega_3\) pour tout \(\omega = (\omega_1, \omega_2, \omega_3) \in \Omega\). Nous avons alors :

\[\mathbb{E}(X) = \sum_{\omega \in \Omega} X(\omega) \mathbb{P}(\{\omega\}) = \dfrac{1}{6^3} \sum_{1\leq i,j,k\leq 6} (i+j+k) = ... = \dfrac{21}{2}.\]

Espérance et variance⚓︎

Exercice 12

Un concierge rentre d'une soirée. Il dispose de \(n\) clefs dont une seule ouvre la porte de son domicile, mais il ne sait plus laquelle.

1. Il essaie les clefs les unes après les autres en éliminant après chaque essai la clef qui n'a pas convenu. Trouver le nombre moyen d'essais nécessaires pour trouver la bonne clef.

Correction

2. En réalité, la soirée était bien arrosée, et après chaque essai, le concierge remet la clef essayée dans le trousseau. Trouver le nombre moyen d'essais nécessaires pour trouver la bonne clef.

Correction

Exercice 13

Soit \(M = (R_{i j})_{1\leq i,j\leq n}\) une matrice aléatoire dont les coefficients sont des variables indépendantes de Rademacher. On considère \(D = \det(M)\).

1. Calculer l’espérance et la variance de la variable aléatoire \(D\).

Correction

2. En déduire \(\lim_{n\to +\infty} \mathbb{P}(|D| \geq \sqrt{(n + 1)!}).\)

Correction

Exercice 14

1. Soient \(X\) et \(Y\) deux variables aléatoires complexes définies. On suppose que \(\mathbb{P}(Y = y) > 0\) pour tout \(y \in Y (\Omega)\). On appelle alors espérance conditionnelle de \(X\) sachant \((Y = y)\), notée \(\mathbb{E}(X\mid Y=y)\), l’espérance de \(X\) pour la probabilité conditionnelle \(\mathbb{P}(\cdot \mid Y =y)\).

1.a. Déterminer \(\mathbb{E}(X\mid Y = y)\) pour tout \(y \in Y(\Omega)\) si \(X\) et \(Y\) sont indépendantes.

1.b. Montrer que \(\mathbb{E}(X) = \sum_{y\in Y(\Omega)} \mathbb{E}(X \mid Y = y) \mathbb{P}(Y = y).\)

Cette formule reste vraie si \(\mathbb{P}(Y = y) = 0\) pour certains \(y \in Y (\Omega)\). Le réel \(\mathbb{E}(X \mid Y =y)\) n’est pas défini dans ce cas, mais on peut considérer par convention que \(\mathbb{E}(X\mid Y=y) \mathbb{P}(Y = y) = 0.\)

2.a. Soient \(X_1,... , X_n\) et \(T\) des variables aléatoires réelles indépendantes. On suppose \(T\) à valeurs dans \(\{1, ..., n\}\) et \(X_1,... , X_n\) de même loi. On pose \(S_T = \sum_{k=1}^T X_k\).

Montrer que pour toute fonction \(f : S_T(\Omega) \longrightarrow C\) et pour tout \(t \in \{1, ..., n\}\) :

\[\mathbb{E}( f (S_T) \mid T = t) \mathbb{P}(T = t) = \mathbb{E}(f (S_t) \mid T = t) \mathbb{P}(T = t).\]

En dépit des apparences, ceci n’est pas évident.

2.b. Montrer que \(\mathbb{E}(S_T) = \mathbb{E}(T)\mathbb{E}(X_1).\)

2.c. On suppose à présent que \(X_1,... , X_n\) sont centrées. Montrer que \(\text{Var}(S_T) = \mathbb{E}(T)\text{Var}(X1).\)

Correction

Exercice 15

On considère une variable aléatoire \(G : \Omega \longrightarrow E\) et un réel \(p\in ~]0,1[\). Alors on dit que la variable \(G\) est géométrique de paramètre \(p\) si \(E = \mathbb{N}^*\) et

\[\forall n\in \mathbb{N}^*, \quad \mathbb{P}(G = n) = p(1-p)^{n-1}.\]

1. Montrer que l'égalité précédente définit bien une mesure de probabilité.

Correction

Il s'agit du terme général d'une série géométrique convergente, car \(0\leq 1-p<1\), de somme

\[\sum_{n=1}^{+\infty} p(1-p)^{n-1} = p \sum_{n=0}^{+\infty} (1-p)^n = p \dfrac{1}{1-(1-p)} = 1.\]

De plus \(\mathbb{P}_G\) est bien additive car \(\mathbb{P}\) l'est.

2. Montrer que la variable aléatoire \(G\) peut être interprété comme l'instant de premier succès dans la répétition de variables de Bernoulli indépendantes de paramètre \(p\).

Correction

On considère une suite \((X_n)_{n\in \mathbb{N}^*}\) de variables aléatoires indépendantes de Bernoulli de paramètre \(p\). On considère également \(T\) le premier instant de succès dans cette suite :

\[T = \inf\{n\in \mathbb{N}^*, \quad X_n = 1, \quad \forall k\in \{1, ..., n\}, X_k = 0\}.\]

Alors, par indépendance des \(X_n\), pour tout \(n\in \mathbb{N}^*\),

\[\mathbb{P}(T = n) = \mathbb{P}(X_1 = 0, ..., X_{n-1} = 0, X_n = 1) = \mathbb{P}(X_1 = 0) ... \mathbb{P}(X_{n-1} = 0) \mathbb{P}(X_n = 1) = (1-p)^{n-1} p = \mathbb{P}(G = n).\]

Nous avons donc bien montré \(G \sim T\).

3. Montrer que \(\mathbb{E}(G) = \dfrac{1}{p}\) et \(\text{Var}(G) = \dfrac{1-p}{p^2}\).

Correction
  • Nous avons
\[\mathbb{E}(G) = p \sum_{n=1}^{+\infty} n (1-p)^{n-1} = p f(1-p),\]

avec

\[\forall x\in ~]0,1[, \quad f(x) = \sum_{n=1}^{+\infty} nx^{n-1}.\]

Alors nous pouvons appliquer le théorème de dérivation sous le signe somme à la fonction \(F\) définie par

\[\forall x\in ~]0,1[, \quad F(x) = \sum_{n=0}^{+\infty} x^n = \dfrac{1}{1-x},\]

pour en déduire que

\[\forall x\in ~]0,1[, \quad f(x) = F'(x) = \dfrac{1}{(1-x)^2}\]

Et donc que

\[\mathbb{E}(G) = p f(1-p) = \dfrac{1}{p}.\]
  • Nous avons par lemme de transfert
\[\mathbb{E}(G^2) = p\sum_{n=1}^{+\infty} n^2(1-p)^{n-1} = p(1-p) \sum_{n=1}^{+\infty} n(n-1) (1-p)^{n-2} + p\sum_{n=1}^{+\infty}n(1-p)^{n-1} = p(1-p) F''(1-p) + \mathbb{E}(G),\]

en montrant que la fonction \(F\) précédente est deux fois dérivable de dérivée seconde

\[\forall x\in ~]0,1[, \quad F''(x) = \dfrac{2}{(1-x)^3}.\]

Donc

\[\mathbb{E}(G^2) = p(1-p) \dfrac{2}{p^3}+ \dfrac{1}{p} = \dfrac{2(1-p) +p}{p^2} = \dfrac{2-p}{p^2}.\]

Ainsi \(G\) admet une variance finie et

\[\text{Var}(G) = \mathbb{E}(G^2) - (\mathbb{E}(G))^2 = \dfrac{2-p}{p^2} - \dfrac{1}{p^2} = \dfrac{1-p}{p^2}.\]

4. Une variable aléatoire géométrique \(G\) est l'unique variable aléatoire à valeurs dans \(\mathbb{N}^*\) vérifiant

\[\forall k\in \mathbb{N}^*, \quad \forall \ell \in \mathbb{N}^*, \quad \mathbb{P}(G > k+\ell \mid G > k) = \mathbb{P}(G > \ell).\]

On dit que la loi géométrique est l'unique loi discrète sans mémoire.

Correction

On procède par double implications.

  • On considère la variable aléatoire \(G\) précédente. Soit \(k\in \mathbb{N}^*\) et \(\ell \in \mathbb{N}^*\). Alors
\[\mathbb{P}(G > k+\ell \mid G > k) = \dfrac{\mathbb{P}(G>k+\ell,G>k)}{\mathbb{P}(G>k)} = \dfrac{\mathbb{P}(G> k+\ell)}{\mathbb{P}(G>k)},\]

où l'on peut calculer

\[\mathbb{P}(G>k) = \sum_{n=k+1}^{+\infty} \mathbb{P}(G = n) = (1-p)^k,\]

et en déduire que

\[\mathbb{P}(G> k+\ell \mid G >k) = \mathbb{P}(G >\ell).\]
  • Réciproquement on considère une variable \(M\) à valeurs dans \(\mathbb{N}^*\) et sans mémoire. On note \(p = \mathbb{P}(M = 1)\). Alors on montre par récurrence
\[\forall k \in \mathbb{N}^*, \quad \mathbb{P}(M > k) = (1-p)^k.\]

Nous en déduisons

\[\forall n\in \mathbb{N}^*, \quad \mathbb{P}(M = n) = \mathbb{P}(M>n-1) - \mathbb{P}(M>n+1) = (1-p)^{n-1} - (1-p)^n = (1-p)^{n-1}(1-(1-p)) = (1-p)^{n-1}p.\]

Donc \(M\sim G\).

Exercice 16

On considère une variable aléatoire \(P : \Omega \longrightarrow E\) et un réel \(\lambda \in \mathbb{R}_+^*\). Alors on dit que la variable \(P\) est de Poisson de paramètre \(\lambda\) si \(E = \mathbb{N}\) et

\[\forall k\in \mathbb{N}, \quad \mathbb{P}(P = k) = \dfrac{\lambda^k e^{-\lambda}}{k!}.\]

1. Montrer que l'égalité précédente définit bien une mesure de probabilité.

Correction

Nous réconnaissons ici le développement de la fonction exponentielle

\[\sum_{k=0}^{+\infty} \dfrac{\lambda^k e^{-\lambda}}{k!} = e^{-\lambda} e^\lambda = 1.\]

2. Montrer que la variable aléatoire \(P\) peut être interprété comme la limite d'une suite de variables binomiales \((X_n)_{n\in \mathbb{N}}\) indépendantes de paramètres respectifs \(n,\dfrac{\lambda}{n}\) :

\[\forall k\in \mathbb{N}, \quad \mathbb{P}(X_n = k) \underset{n\to +\infty}{\longrightarrow} \mathbb{P}(P = k).\]
Correction

3. Montrer que \(\mathbb{E}(P) = \lambda\) et \(\text{Var}(P) = \lambda\).

Correction

Nous avons par changement d'indice

\[\mathbb{E}(P) = \sum_{k=0}^{+\infty} k \dfrac{\lambda^ke^{-\lambda}}{k!} = \lambda.\]

Nous avons de même

\[\mathbb{E}(P^2) = \sum_{k=0}^{+\infty} k^2 \dfrac{\lambda^k e^{-\lambda}}{k!} = \sum_{k=0}^{+\infty} k(k-1) \dfrac{\lambda^k e^{-\lambda}}{k!} + \mathbb{E}(P) = \lambda^2 + \lambda.\]

Donc

\[\text{Var}(P) = \mathbb{E}(P^2) - (\mathbb{E}(P))^2 = \lambda.\]

Exercice 17

On considère deux variables aléatoires \(X_1,X_2\) indépendantes et binomiales de paramètres respectifs \((n,p),(m,p)\). Déterminer la loi de la variable aléatoire \(X_1+X_2\). Faire de même avec deux variables aléatoires géométriques de paramètres respectifs \(\lambda,\mu\).

Correction

Exercice 18

On considère une suite de variables aléatoires \((X_n)_{n\in \mathbb{N}}\) à valeurs dans \(E\) fini. On dit que cette suite est une chaîne de Markov homogène si :

  • elle vérifie la propriété de Markov
\[\forall n\in \mathbb{N}, \quad \forall x_0, ..., x_{n+1} \in E, \quad \mathbb{P}(X_{n+1} = x_{n+1} \mid X_0 = x_0, ..., X_n = x_n) = \mathbb{P}(X_{n+1} = x_{n+1} \mid X_n = x_n),\]
  • elle vérifie la propriété d'homogénéité
\[\forall n,m\in \mathbb{N}, \quad \forall x,y\in E, \quad \mathbb{P}(X_{n+1} = y \mid X_n = x) = \mathbb{P}(X_{m+1} = y \mid X_m = x) =: P(x,y),\]

\(P\) est appelé matrice de transition.

1. Représenter schématiquement les états et les probabilités de transition pour \(E = \{1, ..., 5\}\).

Correction

2. Montrer que la matrice \(P\) est stochastique : \(\forall x,y \in E, P(x,y) \geq 0\) et

\[\forall x\in E, \quad \sum_{y\in E} P(x,y) = 1.\]
Correction

3. On note \(\mu\) la loi de \(X_0\). Montrer que

\[\forall n\in \mathbb{N}, \quad \forall x_0, ..., x_n \in E, \quad \mathbb{P}(X_0 = x_0, ..., X_n = x_n) = \mu(x_0) P(x_0,x_1)...P(x_{n-1},x_n).\]
Correction

4. On définit par récurrence les puissances \(m\)-ième de \(P\) pour \(m\in \mathbb{N}^*\) par

\[\forall x,y\in E, \quad P^m(x,y) = \sum_{z\in E} P(x,z) P^{m-1}(z,y).\]

Montrer que

\[\forall n,m\in \mathbb{N}, \quad \forall x_0, ..., x_{n-1},x,y \in E, \quad \mathbb{P}(X_{n+m} = y \mid X_0 = x_0, ..., X_{n-1} = x_{n-1}, X_n = x) = P^m(x,y).\]
Correction

Exercice 19

On dispose dans une maison de deux systèmes de chauffage, l'un de base et l'autre d'appoint. L'état 1 correspond au fonctionnement du système de base et l'état 2 au fonctionnement simultané des deux systèmes.

Si un jour la maison est dans l'état 1 alors la probabilité qu'elle reste dans cet état le lendemain est \(\dfrac{1}{2}\). Par contre si un jour la maison est dans l'état 2 alors la probabilité qu'elle passe à l'état 1 le lendemain est \(\dfrac{3}{4}\).

On note \(X_n\) l'état du système au \(n\)-ième jour. On admet que la suite \((X_n)_{n\in \mathbb{N}}\) est une chaîne de Markov homogène.

1. Déterminer sa matrice de transition et son graphe.

2. On considère \(p_n = \mathbb{P}(X_n = 1), n\in \mathbb{N}\). Déterminer une relation de récurrence entre \(p_{n+1}\) et \(p_n\). En déduire \(p_n\) en fonction de \(p_0\) puis \(\lim_{n\to +\infty} p_n\).

3. Sachant que la maison est dans l'état 1 un dimanche, déterminer la probabilité que la maison soit dans le même état le dimanche suivant.

4. Montrer que si un jour la maison est dans l'état 1 avec probabilité \(\dfrac{3}{5}\) alors il en est de même pour tous les jours qui suivent.

5. Chaque journée dans l'état 1 coûte 5 euros, dans l'état 2 côute 10 euros, et chaque transition de l'état 1 à l'état 2 coûte 3 euros. Calculer le coût moyen d'une journée dans la situation précédente.

Correction

Exercice 20

Une compagnie aérienne exploite un avion Paris-Montréal d'une capacité de 150 places. Pour ce vol, une analyse statistique a montré qu'un passager ayant réservé son billet se présentait à l'embarquement avec une probabilité de \(p = 0,75\). La compagnie souhaite optimiser le remplissage de l'avion et souhaite vendre \(n\) billets, avec \(n > 150\), mais en limitant le risque que plus de 150 personnes se rendent à l'embarquement à moins de 5%. On supposera dans la suite que \(n p < 150\). On définit la variable aléatoire \(S_n\) comme le nombre de personnes, parmi les \(n\) ayant réservé un billet, se présentant à l'embarquement.

1. Déterminer la loi de \(S_n\).

Correction

2. En remarquant que \((S_n ≥ 150) \subset (|S_n−np|\geq 150−np)\), démontrer que

\[\mathbb{P}(S_n \geq 150) \leq \dfrac{np(1−p)}{(150−np)^2}.\]
Correction

3. Résoudre sur \(]0,150[\) l'inéquation \(\dfrac{x(1−p)}{(150−x)^2} \leq 0,05.\)

Correction

4. Combien la compagnie peut-elle vendre de billets tout en s'assurant que la probabilité que plus de 150 clients se présentent à l'embarquement est inférieure ou égale à 5% ?

Correction