Cours
Objectifs du programme officiel :
Univers, événements, variables aléatoires
-
Evénement élémentaire
-
Système complet d'événements
-
Evénements disjoints
-
Variable aléatoire
Espaces probabilités finis
-
Probabilité
-
Distribution de probabilité
-
Probabilité uniforme
-
Probabilité de la réunion ou de la différence de deux événements, de l'événement contraire, croissance
Probabilité conditionnelle
-
Formule des probabilités composées
-
Formule des probabilités totales
-
Formule de Bayes
Loi d'une variable aléatoire
-
Variables uniformes, de Bernoulli, binomiales
-
Loi conditionnelle sachant un événement
-
Loi conjointe et lois marginales d'un couple de variables aléatoires
Indépendance
-
Famille d'événements indépendants
-
Variables aléatoires indépendantes
-
Interprétation de la loi binomiale avec la loi de Bernoulli
-
Lemme des coalitions
Espérance d'une variable aléatoire
-
Linéarité, positivité, croissance, inégalité triangualire
-
Espérance d'une variable constante, de Bernoulli, binomiale
-
Formule de transfert
-
Espérance d'un produit de variables aléatoires indépendantes
Variance, écart-type et covariance
-
Variance et écart-type
-
Variance de \(aX + b\)
-
Variance d'une variable de Bernoulli, binomiale
-
Covariance de deux variables aléatoires
-
Variables aléatoires décorrélées
-
Variance d'une somme, cas de variables décorrélées
Inégalités probabilistes
-
Inégalité de Markov
-
Inégalité de Bienaymé-Tchebychev
I. Probabilités sur un univers fini⚓︎
Remarque
Dans tout ce chapitre on considère un ensemble fini \(\Omega\) que l'on appelle univers et qui sera l'ensemble des résultats possibles d'une expérience aléatoire, et un ensemble \(E\) que l'on appelle espace des valeurs et qui sera des valeurs possibles des variables aléatoires que l'on considérera.
A. Univers, événements et variables aléatoires⚓︎
Définition : Evénement
Un événement \(A\) de l'univers \(\Omega\) est une partie de l'ensemble \(\Omega\).
Remarque
On parle de singletion si l'événement \(A\) est réduit à un élément de l'univers \(A = \{\omega\}\) pour \(\omega \in \Omega\). Dans ce cas on parle d'événement élémentaire.
Exemple
On considère l'expérience d'un lancer de dé à 6 faces et on note la valeur du dé. L'univers est alors \(\Omega = \{1,2,3,4,5,6\}\) et des événements sont par exemples \(\{1\}, \{1,2\}, \{2,3,5\}, \{2,4,6\}\).
Remarque
Il est également possible d'étudier une expérience aléatoire pouvant prendre un nombre infini d'issues.
Exemples
La durée de vie d'une ampoule en jours est une expérience aléatoire avec \(\Omega = \mathbb{N}\).
La position d'une fléchette envoyée sur un cible circulaire d'un rayon de \(10\) cm avec \(\Omega = \{(x,y), \quad x^2 + y^2 \leq 10\}\).
Le cours d'un actif financier sur un intervalle de temps \([0,T]\) avec \(\Omega = (\mathbb{R}_+)^{[0,T]}\).
Définition : Evénements disjoints (ou incompatibles)
On considère des événements \(A_1, ..., A_k \in \mathcal{P}(\Omega)\). Alors on dit que les événements \(A_1, ..., A_k\) sont disjoints (ou incompatiables) deux à deux si
On dit également que les événements \(A_1, ..., A_k\) sont disjoints dans leur ensemble si
Exemple
Si l'on reprend l'exemple de la fléchette alors les événements \(A = \{(x,y), \quad x^2 + y^2 \leq 5\}\) et \(B = \{(x,y), \quad 5 < x^2 + y^2 \leq 10\}\) sont deux événements disjoints.
Proposition
On considère des événements \(A_1, ..., A_k \in \mathcal{P}(\Omega)\). Si les événements \(A_1, ..., A_k\) sont disjoints deux à deux alors ils sont disjoints dans leur ensemble. Mais la réciproque n'est pas vérifiée.
Démonstration
Exemple
Définition : Système complet d'événements
On considère des événements \(A_1, ..., A_k \in \mathcal{P}(\Omega)\). Alors on dit que la famille \((A_1, ..., A_k)\) est un système complet d'événements si les événements \(A_1, ..., A_k\) sont disjoints et leur réunion recouvre l'univers \(\Omega\) :
Exemple
Toujours avec l'exemple de la fléchette, les parties du disque habituellement utilisées forment un système complet d'événements.
Définition : Variable aléatoire
Une variable aléatoire \(X\) est une application de l'univers \(\Omega\) dans l'ensemble des valeurs \(E\). SI de plus \(E = \mathbb{R}\) alors on parle de variable aléatoire réelle.
Exemple
On considère un lancer de deux dés et on note le résultat des deux dés. Alors \(\Omega = \{(i,j), \quad 1\leq i,j\leq 6\}\). On considère de plus la fonction \(X\) qui associe la somme des résultats :
Alors l'application \(X\) est une variable aléatoire réelle.
Remarque
Pour toute partie \(A\) de l'ensemble \(E\), on note \(\{X\in A\} = (X\in A) = X^{-1}(A) \subset \Omega\) l'image réciproque de la partie \(A\) par la variable \(X\).
Exemple
Avec l'exemple précédent l'événement \(\{X \in \{2,12\}\}\) correspond à un double 1 ou un double 6 au lancer de dés.
B. Espaces probabilisés finis⚓︎
Définition : Probabilité
On considère une application \(\mathbb{P} : \mathcal{P}(\Omega) \longrightarrow [0,1]\). Alors on dit que l'application \(\mathbb{P}\) est une probabilité (ou mesure de probabilité) si \(\mathbb{P}(\Omega) = 1\) et pour tout \(A,B\in \mathcal{P}(\Omega)\) disjoints, \(\mathbb{P}(A\cup B) = \mathbb{P}(A) + \mathbb{P}(B)\). Dans ce cas on dit que le couple \((\Omega, \mathbb{P})\) est un espace probabilisé.
Exemples
On considère un événement élémentaire \(\omega \in \Omega\) et la fonction de dirac \(\delta_\omega : \mathcal{P}(\Omega) \longrightarrow [0,1]\) définie par
Alors la fonction \(\delta_\Omega\) est une probabilité.
La fonction \(\mathbb{P} : \mathcal{P}(\Omega) \longrightarrow [0,1]\) définie par
est une probabilité appelée probabilité uniforme sur l'univers \(\Omega\). On retrouve alors la formulation "nombre de cas favorables/nombre de cas possibles".
Remarque
Pour toute variable aléatoire \(X\) sur l'univers \(\Omega\) et toute partie \(A\) de l'ensemble \(E\), on note
ou si \(A = \{x\}\),
ou encore si \(E=\mathbb{R}\),
Exemples
On considère un lancer d'une pièce équilibré et on note \(0\) pour pile et \(1\) pour face. Alors \(\Omega = \{0,1\}\) et
Toujours avec le lancer d'une pièce équilibré, nous avons pour \(\mathbb{P}\) la probabilité uniforme
Proposition
On considère une application \(\mathbb{P} : \mathcal{P}(\Omega) \longrightarrow [0,1]\). Alors l'application \(\mathbb{P}\) est une probabilité si et seulement si \(\mathbb{P}(\Omega) = 1\) et pour toute famille \((A_1, ..., A_n) \in (\mathcal{P}(\Omega))^n\) deux à deux disjoints,
Démonstration
Corollaire : \(\sigma\)-additivité
On considère une application \(\mathbb{P} : \mathcal{P}(\Omega) \longrightarrow [0,1]\). Alors l'application \(\mathbb{P}\) est une probabilité si et seulemeent si \(\mathbb{P}(\Omega) = 1\) et pour toute suite d'événements \((A_n)_{n\in \mathbb{N}} \in (\mathcal{P}(\Omega))^\mathbb{N}\) deux à deux disjoints,
Démonstration
- On suppose que \(\mathbb{P}(\Omega) = 1\) et pour toute suite d'événements \((A_n)_{n\in \mathbb{N}} \in (\mathcal{P}(\Omega))^\mathbb{N}\) deux à deux disjoints,
Soit \(A,B\in \mathcal{P}(\Omega)\) disjoints. Alors on considère la suite d'événements \((A_n)_{n\in \mathbb{N}}\) définie par \(A_0 = A, A_1 = B\) et \(A_n = \emptyset\) pour tout entier \(n\geq 2\). Donc les \(A_n\) sont deux à deux disjoints, d'où
- Réciproquement on suppose que l'application \(\mathbb{P}\) est une mesure de probabilité. Soit \((A_n)_{n\in \mathbb{N}}\) une suite d'événements deux à deux disjoints. Or l'univers \(\Omega\) est supposé fini, donc \(\mathcal{P}(\Omega)\) également. Donc la suite \((A_n)_{n\in \mathbb{N}}\) ne comporte qu'un nombre fini d'éléments distincts \(A_{n_1}, ..., A_{n_r}\), tous les autres \(A_n\) sont égaux à un \(A_{n_i}, 1\leq i\leq r\). De plus les \(A_n\) sont deux à deux disjoints, donc on peut montrer que tous les autres \(A_n\) sont égaux à \(\emptyset\). En effet pour \(n\in \mathbb{N} \backslash \{n_1, ..., n_r\}\), il existe \(i\in \{1, ..., r\}\) tel que \(A_n = A_{n_i}\) et par caractère deux à deux disjoints
Par conséquent, en utilisant la proposition précédente,
Remarque
Dans le cadre où l'univers \(\Omega\) n'est pas fini, il s'agit de la définition d'une mesure de probabilité.
Définition : Distribution de probabilités
On appelle distribution de probabilités sur l'ensemble \(\Omega\) toute famille d'éléments de \(\mathbb{R}_+\) indexée par l'ensemble \(\Omega\) et de somme 1 :
Exemple
Proposition
On considère une probabilité \(\mathbb{P}\) sur l'univers \(\Omega\). Alors la probabilité \(\mathbb{P}\) est entièrement déterminée par la distribution de probabilités \((\mathbb{P}(\{\omega\}))_{\omega \in \Omega}\). Autrement dit une probabilité est déterminée par les probabilités des événements élémentaires.
Démonstration
Exemple
La probabilité \(\mathbb{P}\) est uniforme si la distribution de probabilités associée est \(\left( \dfrac{1}{|\Omega|} \right)_{\omega \in \Omega}\). Autrement dit
Remarque
Pour tout le reste du chapitre on considère une probabilité \(\mathbb{P}\) sur l'univers \(\Omega\).
Proposition
On considère deux parties \(A,B \in \mathcal{P}(\Omega)\). Alors :
-
\(\mathbb{P}(A\backslash B) = \mathbb{P}(A) - \mathbb{P}(A\cap B).\)
-
\(\mathbb{P}(A\cup B) = \mathbb{P}(A) + \mathbb{P}(B) - \mathbb{P}(A \cap B)\).
-
\(\mathbb{P}(A^c) = 1 - \mathbb{P}(A).\) En particulier \(\mathbb{P}(\emptyset) = 0\).
-
Si \(A\subset B\) alors \(\mathbb{P} (A) \leq \mathbb{P}(B)\).
Démonstration
Corollaire
On considère une famille \((A_1, ..., A_n) \in (\mathcal{P}(\Omega))^n\). Alors :
Démonstration
Théorème : Continuités croissantes et décroissantes
On considère une suite d'événements \((A_n)_{n\in \mathbb{N}} \in (\mathcal{P}(\Omega))^\mathbb{N}\).
- Si la suite \((A_n)_{n\in \mathbb{N}}\) est croissante (pour l'inclusion) alors
- Si la suite \((A_n)_{n\in \mathbb{N}}\) est décroissante (pour l'inclusion) alors
Démonstration
- On suppose que la suite \((A_n)_{n\in \mathbb{N}}\) est croissante (pour l'inclusion). On considère la suite d'événements \((B_n)_{n\in \mathbb{N}}\) définie par \(B_0 = A_0\) et \(B_n = A_n\backslash A_{n-1},n\in \mathbb{N}^*\). Alors les \(B_n\) sont deux à deux disjoints : soit \(m,n\in \mathbb{N}\) tels que \(m<n\), alors \(B_m \subset A_m \subset A_{m+1} \subset ... \subset A_{n-1}\) et \(B_n = A_n \backslash A_{n-1}\), d'où \(B_m \cap B_n = \emptyset\). De plus
En effet la première inclusion est directe car \(B_n \subset A_n\) pour tout \(n\in \mathbb{N}\). Puis pour la seconde inclusion soit \(\omega \in \bigcup_{n\in \mathbb{N}} A_n\). Alors \(\{n \in \mathbb{N}, \omega \in A_n\}\) est un ensemble non vide minoré de \(\mathbb{N}\) donc admet un plus petit élément \(n_0\). Si \(n_0 = 0\) alors
Et si \(n_0 > 0\) alors \(\omega \notin A_{n_0-1}\) et
d'où
Nous avons donc montré la seconde inclusion. Par conséquent par \(\sigma\)-additivité
- On suppose que la suite \((A_n)_{n\in \mathbb{N}}\) est décroissante. Alors la suite \((A_n^c)_{n\in \mathbb{N}}\) est croissante : pour tout \(m,n \in \mathbb{N}\) tels que \(m<n\) nous avons
Ainsi d'après ce qui précède
Remarque
La première propriété signifie que les réunions partielles \(\bigcup_{k=0}^n A_k = A_n\) croîent vers la réunion et que leurs probabilités également. Nous avons la signification équivalente pour la seconde propriété.
C. Probabilités conditionnelles⚓︎
Définition : Probabilité conditionnelle
On considère un événement \(B \in \mathcal{P}(\Omega)\) non négligeable \(\mathbb{P}(B) > 0\), et un événement \(A \in \mathcal{P}(\Omega)\). Alors la probabilité conditionnelle de l'événement \(A\) sachant l'événement \(B\) est le réel \(\mathbb{P}(A\mid B)\) défini par
Exemple
On considère la probabilité uniforme \(\mathbb{P}\) sur un lancer de dé avec $\Omega = \(\{1, ..., 6\}\) et l'événement non négligeable \(B = \{1,3,5\}\). Alors
Remarque
On le note également \(\mathbb{P}_B(A)\).
Proposition
On considère un événement non négligeable \(B \in \mathcal{P}(\Omega)\). Alors l'application \(P_B : \mathcal{P}(\Omega) \longrightarrow [0,1]\) est une probabilité sur l'univers \(\Omega\).
Démonstration
Théorème : Formule des probabilités composées
On considère des événements \(A_1, ..., A_n \in \mathcal{P}(\Omega)\) tels que \(\mathbb{P}(A_1 \cap ... \cap A_n) > 0\). Alors
Démonstration
Nous montrons cette propriété par récurrence sur \(n\in \mathbb{N}^*\) :
-
Pour \(n = 1\) nous avons directement la propriété.
-
On suppose le résultat vrai au rang \(n \in \mathbb{N}^*\) et montrons la propriété au rang \(n+1\). Soit \(A_1, ..., A_{n+1} \in \mathbb{P}(\Omega)\) tels que \(\mathbb{P}(A_1 \cap ... \cap A_{n+1}) > 0\). Alors, comme \(A_1 \cap ... \cap A_{n+1} \subset A_1 \cap ... \cap A_n\),
Donc par hypothèse de récurrence
Puis
Le principe de récurrence permet de conclure.
Théorème : Formule des probabilités totales
On considère un système complet d'événements \((A_1, ..., A_n)\) de l'univers \(\Omega\) et un événement \(B \in \mathcal{P}(\Omega)\). Alors
Démonstration
Théorème : Formule de Bayes
On considère un système complet d'événements \((A_1, ..., A_n)\) de l'univers \(\Omega\) et un événement non négligeable \(B \in \mathcal{P}(\Omega)\). Alors, pour tout \(k\in \{1, ..., n\}\)
Démonstration
Corollaire
On considère deux événements non négligables \(A,B\in \mathcal{P}(\Omega)\) tels que \(\mathbb{P}(A^c) > 0\). Alors
Démonstration
Exemple
Un individu est tiré au hasard uniformément dans une population où l’on trouve une proportion \(10^{-4}\) de séropositifs. On lui fait passer un test de détection de la séropositivité. Par ailleurs la probabilité d’avoir un résultat positif lors du test si l’individu est séropositif est \(0,99\) et que celle d’avoir un résultat positif si l’individu n’est pas séropositif est de \(0,001\). Alors, sachant que le test de l'individu tiré au hasard donne un résultat positif (événement noté \(B\)), la probabilité que l'individu soit séropositif (événement noté \(A\)) est donnée par \(\mathbb{P}(A\mid B) \simeq 0,09\) ce qui est plutôt faible par rapport à l'intuition.
D. Loi d'une variable aléatoire⚓︎
Remarque
Dans tout le reste de ce chapitre, on considère une variable aléatoire \(X\) sur l'univers \(\Omega\) à valeurs dans l'espace des états \(E\).
Définition : Loi d'une variable aléatoire
La loi de la variable aléatoire \(X\) est l'application \(\mathbb{P}_X : \mathcal{P}(E) \longrightarrow [0,1]\) définie par
Exemple
On considère un événement \(A \in \mathcal{P}(\Omega)\). Alors la fonction indicatrice \(\mathbb{1}_A\) est une variable aléatoire à valeurs dans \(\{0,1\}\) dont la loi est donnée par
En particulier \(\mathbb{P}_{\mathbb{1}_A}(\{1\}) = \mathbb{P}(A)\).
Remarque
Une variable aléatoire permet donc d'obtenir une mesure de probabilité sur un ensemble différent.
Proposition
La loi \(\mathbb{P}_X\) est une probabilité sur l'ensemble \(E\) dont la distribution de probabilités est \((\mathbb{P}(X= x))_{x\in E}\).
Démonstration
Exemple
Avec l'exemple du lancer de deux dés que l'on suppose équilibrés, loi \(\mathbb{P}_X\) de la variable aléatoire \(X\) donnée par la somme des résultats est définie sur \(\mathbb{P}(\{2, ..., 12\})\) avec par exemple
Remarque
On dit que deux variables aléatoires \(X\) et \(Y\) ont la même loi si \(\mathbb{P}_X = \mathbb{P}_Y\) ce que l'on note \(X\sim Y\).
Proposition
On considère une application \(f : E \longrightarrow F\) avec \(F\) un ensemble fini. Alors l'application \(f(X) = f\circ X\) est une variable aléatoire sur l'univers \(\Omega\) à valeurs dans l'ensemble \(F\).
Démonstration
Proposition
On considère une application \(f : E \longrightarrow F\) avec \(F\) un ensemble fini et une autre variable aléatoire \(Y\) sur l'univers \(\Omega\) à valeurs dans l'espace d'état \(E\). Si \(X\sim Y\) alors \(f(X) \sim f(Y)\).
Démonstration
Définition : Variables aléatoires uniforme, de Bernoulli, binomiale
- On dit que la variable aléatoire \(X\) suit la loi uniforme sur un ensemble non vide fini \(E\) si
Dans ce cas on le note \(X \sim \mathcal{U}(E)\).
- On dit que la variable aléatoire \(X\) suit une loi de Bernouilli de paramètre \(p \in [0,1]\) si
Dans ce cas on le note \(X\sim \mathcal{B}(p)\).
- On dit que la variable aléatoire \(X\) suit une loi binomiale de paramètres \((n,p) \in \mathbb{N}^* \times [0,1]\) si
Dans ce cas on le note \(X \sim \mathcal{B}(n,p)\).
Remarque
Une variable aléatoire de Bernouilli correspond à un succès ou un échec d'un événement.
Définition : Loi conditionnelle
On considère un événement non négligeable \(A \in \mathcal{P}(E)\). Alors la loi conditionnelle de la variable aléatoire \(X\) sachant l'événement \(A\) est l'application \(\mathbb{P}_X(\cdot \mid A)\) définie par
Exemple
Proposition
On considère un événement non négligeable \(A \in \mathcal{P}(E)\). Alors la loi conditionnelle \(\mathbb{P}_X(\cdot \mid A)\) est une probabilité sur l'univers \(E\)
Démonstration
Exemple
Proposition
On considère une autre variable aléatoire \(Y\) sur l'univers \(\Omega\) à valeurs dans un espace d'état \(F\). Alors le couple \((X,Y)\) est une variable aléatoire sur l'univers \(\Omega\) à valeurs dans l'ensemble \(E\times F\).
Démonstration
Exemple
Remarque
Pour tout \((x,y)\in E\times F\), on note \(\mathbb{P}(X=x, Y = y) = \mathbb{P}((X,Y)^{-1}((x,y)))\).
Définition : Loi conjointe, lois marginales
On considère un couple de variables aléatoires \((X,Y)\) sur l'univers \(\Omega\) à valeurs dans un espace produit \(E\times F\). La loi conjointe de la variable \((X,Y)\) est la loi de la variable aléatoire et les lois marginales sont les lois des variables \(X\) et \(Y\). On dit que la loi de la variable \(X\) est la première loi marginale et celle de \(Y\) la seconde loi marginale.
Exemple
Proposition
On considère un couple de variables aléatoires \((X,Y)\) sur l'univers \(\Omega\) à valeurs dans un espace produit \(E \times F\). Alors la première loi marginale \(\mathbb{P}_X\) de la variable aléatoire \(X\) est donnée par
Nous avons l'égalité similaire pour la seconde loi marginale \(\mathbb{P}_Y\).
Démonstration
Remarque
La connaissance de la loi conjointe suffit à déterminer les lois marginales mais la connaissance de ces dernières ne suffit pas à déterminer la loi conjointe.
Exemple
On considère une urne avec 3 boules blanches et 4 boules noires. On note \(0\) l'état blanc et \(1\) l'état noir.
- On tire aléatoirement une première boule dont on note \(X\) sa couleur. On la remet puis on retire une boule et on note \(Y\) sa couleur. Alors l'univers \(\Omega\) des tirages possibles est \(\{1, ..., 7\}^2\) de cardinal \(|\Omega| = 49\). Puis comme la probabilité est uniforme nous avons la loi conjointe de \((X,Y)\)
De même nous avons les lois marginales
- On tire aléatoirement une première boule qu'on ne remet pas dont on note \(X\) sa couleur. Puis on tire une seconde boule et on note \(Y\) sa couleur. Alors la loi conjointe de \((X,Y)\) est donnée par :
La première loi marginale est comme précédemment
Puis pour la seconde loi marginale d'après la proposition précédente
- On remarque alors que les lois conjointes sont les mêmes mais pas les lois marginales.
Remarque
On peut également considérer un couple de \(n\)-variables aléatoires \((X_1, ..., X_n)\) et obtenir les résultats similaires.
Exemple
E. Evénements indépendants⚓︎
Définition : Evénements indépendants
On considère deux événements \(A,B\in \mathcal{P}(\Omega)\). Alors on dit que les événements \(A\) et \(B\) sont indépendants si
Exemples
On considère trois lancers de dé. Alors les résultats obtenus forment des événements indépendants.
Si \(A\) et \(B\) sont deux événements disjoints non négligeables alors ils ne sont pas indépendants :
Remarque
Si de plus l'événement \(B\) est non négligeable alors les événements \(A\) et \(B\) sont indépendants si et seulement si
Remarque
Il ne faut pas confondre disjoints et indépendants. La notion d'événements disjoints est ensembliste alors que la notion d'événements indépendants est probabiliste : elle dépend totalement de la mesure de probabilité considérée.
Exemple
On considère un tirage dans un jeu de 52 cartes numérotées en commençant par les piques et les événements \(A = \{1,14,27,40\}\) la carte tirée est un as et \(B = \{1, ..., 13\}\) la carte tirée est un pique. Si le jeu n'est pas truqué alors il s'agit de la probabilité uniforme \(\mathbb{P}\) et les événements \(A\) et \(B\) sont indépendants :
Mais si le jeu est truqué avec la mesure de probabilité
alors les événements \(A\) et \(B\) ne sont pas indépendants :
Définition : Famille d'événements indépendants
On considère des événements \(A_1, ..., A_n \in\mathcal{P}(\Omega)\). Alors on dit que les événements \(A_1, ..., A_n\) sont :
- mutuellement indépendants si pour tout \(j_1, ..., j_p \in \{1, ..., n\}\) distincts,
- deux à deux indépendants si pour tout \(i,j\in \{1, ..., n\}\) distincts,
Proposition
On considère des événements \(A_1, ..., A_n \in \mathcal{P}(\Omega)\). Si les événements \(A_1, ..., A_n\) sont mutuellement indépendants alors les événements \(A_1, ..., A_n\) sont deux à deux indépendants. Mais la réciproque n'est pas vérifiée.
Démonstration
Exemple
On considère deux lancers d'une pièce équilibrée avec \(\Omega = \{0,1\}^2\) et les événements \(A = \{1\}\times \{0,1\}\) "face au premier lancer", \(B = \{0,1\} \times \{1\}\) face au second lancer et \(C = \{(0,0)\} \cup \{(1,1)\}\) même résultat aux deux lancers. Alors
mais
Remarque
Pour avoir des événements mutuellement indépendants il ne suffit pas d'avoir \(\mathbb{P}(A_1 \cap ... \cap A_n) = \mathbb{P}(A_1) ... \mathbb{P}(A_n)\). Il faut le vérifier pour toutes les intersections possibles.
Exemple
On considère un lancer de dé équilibré avec \(\Omega = \{1, ..., 6\}\) et la probabilité uniforme \(\mathbb{P}\), et les événements \(A = \{1,2,3\}, B = \{2,4,6\}\) et \(C = \{1,2,4,5\}\). Alors
mais
Proposition
On considère deux événements \(A,B\in \mathcal{P}(\Omega)\). Si les événements \(A\) et \(B\) sont indépendants alors les événements \(A\) et \(B^c\) le sont également.
Démonstration
Corollaire
On considère des événements \(A_1, ..., A_n \in \mathcal{P}(\Omega)\). Si les événements \(A_1, ..., A_n\) sont mutuellement (respectivement deux à deux) indépendants alors, pour tous \(i_1, ..., i_n \in \{1, ...,n\}\) distincts, les événements \(A_{i_1}, ..., A_{i_r}, A_{i_{r+1}}^c, ..., A_{i_n}^c\) sont mutuellement (respectivement deux à deux) indépendantes.
Démonstration
F. Variables aléatoires indépendantes⚓︎
Définition : Variables aléatoires indépendantes
On considère une autre variable aléatoire \(Y\) sur l'univers \(\Omega\) à valeurs dans un ensemble \(F\). Alors on dit que les variables aléatoires \(X\) et \(Y\) sont indépendantes si
On le note alors \(X\perp Y\).
Exemples
Proposition
On considère une autre variable aléatoire \(Y\) sur l'univers \(\Omega\) à valeurs dans un ensemble \(F\). Alors les variables aléatoires \(X\) et \(Y\) sont indépendantes si et seulement si la loi conjointe du couple \((X,Y)\) est le produit des lois marginales des variables \(X\) et \(Y\) :
Démonstration
Remarque
Dans ce cas les lois marginales suffisent à déterminer la loi conjointe.
Définition : Variables aléatoires indépendantes
On considère des variables aléatoires \(X_1, ..., X_n\) sur l'univers \(\Omega\) à valeurs dans des ensembles \(E_1, ..., E_n\). Alors on dit que les variables aléatoires \(X_1, ..., X_n\) sont mutuellement (respectivement deux à deux) indépendantes si, pour tout \((x_1, ..., x_n) \in E_1 \times ... \times E_n\), les événements \((X_1 = x_1), ..., (X_n = x_n)\) sont mutuellement (respectivement deux à deux) indépendants.
Exemples
Proposition
On considère des variables aléatoires \(X_1, ..., X_n\) sur l'univers \(\Omega\) à valeurs dans des ensembles \(E_1, ..., E_n\). Si les variables aléatoires \(X_1, ..., X_n\) sont mutuellement indépendantes alors elles sont deux à deux indépendantes. Mais la réciproque n'est pas vérifiée.
Démonstration
Définition : \(n\)-échantillon
On considère des variables aléatoires \(X_1, ..., X_n\) sur l'univers \(\Omega\) à valeurs dans l'espace des valeurs \(E\). Alors on dit que les variables aléatoires \(X_1, ..., X_n\) sont un \(n\)-échantillon de la variable aléatoire \(X\) si les variables aléatoires \(X_1, ..., X_n\) sont mutuellement indépendantes et de même loi que la variable aléatoire \(X\).
Exemple
Remarque
On dit alors les variables aléatoires \(X_1, ..., X_n\) sont i.i.d. (indépendantes et identiquement distribuées).
Proposition
On considère un \(n\)-échantillon \((X_1, ..., X_n)\) de loi commune de Bernoulli \(\mathcal{B}(p)\) pour \(p\in [0,1]\). Alors la variable aléatoire \(X_1+...+ X_n\) est de loi binomiale \(\mathcal{B}(n,p)\).
Démonstration
Remarque
Une loi binomiale correspond au nombre de succès lors de la répétition de \(n\) expériences indépendantes ayant chacune la probabilité \(p\) de succès.
Proposition
On considère une autre variable aléatoire \(Y\) sur l'espace \(\Omega\) à valeurs dans l'espace d'états \(E\) et une application \(f : E \longrightarrow F\) avec \(F\) un autre ensemble. Si les variables aléatoires \(X\) et \(Y\) sont indépendantes alors les variables aléatoires \(f(X)\) et \(f(Y)\) sont également indépendantes.
Démonstration
Théorème : Lemme des coalitions
On considère des variables aléatoires \(X_1, ..., X_n\) sur l'univers \(\Omega\) à valeurs dans des espaces \(E_1, ..., E_n\) et deux fonctions \(f : E_1 \times ... \times E_m \longrightarrow F_1, g : E_{m+1} \times ... \times E_n \longrightarrow F_2\) avec \(F_1,F_2\) deux ensembles. Si les variables aléatoires \(X_1, ..., X_n\) sont mutuellement indépendantes alors les variables aléatoires \(f(X_1, ..., X_m)\) et \(g(X_{m+1}, ..., X_n)\) sont indépendantes.
Démonstration
Exemple
Remarque
Nous avons le résultat similaire si l'on considère plus que deux fonctions \(f\) et \(g\).
II. Espérance et variance⚓︎
Remarque
Pour le reste de ce chapitre, on suppose que l'espace des états est \(E = \mathbb{K}\) le corps des réels ou des complexes. On pourra alors effectuer les opérations usuelles entre variables aléatoires.
A. Espérance d'une variable aléatoire⚓︎
Définition : Espérance d'une variable aléatoire
L'espérance de la variable aléatoire \(X\) est le nombre \(\mathbb{E}(X)\) défini par la somme finie
Exemple
On considère une variable aléatoire \(X\) à valeurs dans \(\{0, ..., 5\}\) de loi
Alors
On retrouve le calcul effectué pour calculer sa moyenne sur 10 notes.
Remarque
Il s'agit alors de sa valeur moyenne sur l'ensemble de ses valeurs possibles. Autrement dit l'espérance est un indicateur de position moyenne. Le terme espérance a été introduit par Blaise Pascal pour parler de l'espérance de gains, qu'espère-t-on gagner.
Définition : Variable aléatoire centrée
On dit que la variable aléatoire \(X\) est centrée si \(\mathbb{E}(X) = 0\).
Exemple
Une variable aléatoire de Rademacher \(U\) est à valeurs dans \(\{-1,1\}\) avec \(\mathbb{P}(U = -1) = \mathbb{P}(U = 1) = \dfrac{1}{2}\) est centrée :
Proposition
L'application \(\mathbb{E}\) définie sur l'ensemble des variables \(\mathbb{K}^\Omega\) et à valeurs dans l'espace des états \(\mathbb{K}\) :
- est linéaire :
- est positive :
- est croissante :
- vérifie l'inégalité triangulaire :
Démonstration
Proposition
-
Si \(X \sim \mathcal{U}(\{1, ..., n\})\), pour \(n\in \mathbb{N}^*\), alors \(\mathbb{E}(X) = \dfrac{n+1}{2}\).
-
Si \(X \sim \mathcal{B}(p)\), pour \(p\in [0,1]\), alors \(\mathbb{E}(X) = p\).
-
Si \(X \sim \mathcal{B}(n,p)\), pour \(n\in \mathbb{N}^*\) et \(p\in [0,1]\), alors \(\mathbb{E}(X) = np\).
Démonstration
Corollaire
On considère un événement \(A \in \mathcal{P}(\Omega)\). Alors \(\mathbb{E}(\mathbb{1}_A) = \mathbb{P}(A)\).
Démonstration
Théorème : Formule (ou lemme ou théorème) de transfert
On considère une application \(f : X(\Omega) \longrightarrow \mathbb{K}\). Alors
Démonstration
Nous avons
avec pour tout \(y\in f(X(\Omega))\)
Donc
Ainsi
où la dernière égalité vient du fait que \(\sum_{y\in f(X(\Omega)), f(x) = y} = |\{y\in f(X(\Omega)), f(x) = y \}| = 1\).
Exemple
On considère une variable aléatoire uniforme \(U\) sur \(\{1, ..., n\}\) pour \(n\in \mathbb{N}^*\). Alors par théorème de transfert
Remarque
La formule précédente est également valide si la variable aléatoire \(X\) est un couple ou un \(n\)-uplet ce qui permet de calculer l'espérance d'une fonction à valeurs dans \(\mathbb{K}\) de variables aléatoires.
Exemple
Proposition
On considère une autre variable aléatoire \(Y \in \mathbb{K}^\Omega\). Si les variables aléatoires \(X\) et \(Y\) sont indépendantes alors
Démonstration
Remarque
La réciproque de la proposition précédente n'est pas vérifiée. Il ne suffit pas que deux variables aléatoires \(X,Y\) vérifient \(\mathbb{E}(XY) = \mathbb{E}(X) \mathbb{E}(Y)\) pour qu'elles sont indépendantes.
Exemple
On considère une variable aléatoire uniforme \(X\) sur \(\{-1,0,1\}\) et la variable aléatoire \(Y = X^2\). Alors
mais les variables \(X\) et \(Y\) ne sont pas indépendantes car \(X = 1\) entraîne \(Y = 1\) :
Corollaire
On considère des variables aléatoires \(X_1, ..., X_n \in \mathbb{K}^\Omega\). Si les variables aléatoires \(X_1, ..., X_n\) sont mutuellement indépendantes alors
Démonstration
B. Variance d'une variable aléatoire, écart type et covariance⚓︎
Remarque
Pour le reste de ce chapitre, on suppose que l'espace des états est \(E = \mathbb{R}\).
Définitions : Variance, écart-type
La variance de la variable aléatoire \(X\) est le réel positif \(V(X)\) défini par
De plus l'écart-type de la variable aléatoire \(X\) est le réel \(\sigma(X)\) défini par
Exemple
Une variable aléatoire constante \(X = c\) est de variance nulle.
Remarque
La variance et l'écart-type sont des indicateurs de la dispersion des valeurs prises par la variable aléatoire \(X\).
Définition : Variable aléatoire réduite
On dit que la variable aléatoire \(X\) est réduite si \(\sigma(X) = 1\).
Proposition
Si \(V(X) > 0\) alors la variable aléatoire \(\dfrac{X - \mathbb{E}(X)}{\sigma}\) est centrée et réduite.
Démonstration
Exemple
La variable aléatoire centrée associée à une variable de Bernoulli \(X\) de paramètre \(p \in ~]0,1[\) est \(\dfrac{X- p}{p(1-p)}.\)
Proposition
L'application \(V\) définie sur l'ensemble des variables aléatoires \(\mathbb{R}^\Omega\) et à valeurs dans \(\mathbb{R}\) vérifie :
et
Démonstration
Proposition
-
Si \(X \sim \mathcal{U}(\{1, ..., n\})\), pour \(n\in \mathbb{N}^*\), alors \(V(X) = \dfrac{n^2-1}{12}\).
-
Si \(X \sim \mathcal{B}(p)\), pour \(p\in [0,1]\), alors \(V(X) = p(1-p)\).
-
Si \(X \sim \mathcal{B}(n,p)\), pour \(n\in \mathbb{N}^*\) et \(p\in [0,1]\), alors \(V(X) = np(1-p)\).
Démonstration
Définition : Covariance
On considère une autre variable aléatoire \(Y \in \mathbb{K}^\Omega\). Alors la covariance entre les variables aléatoires \(X\) et \(Y\) est le réel \(\text{Cov}(X,Y)\) défini par
Exemple
Nous avons \(\text{Cov}(X,X) = \text{Var}(X)\).
Proposition
On considère une autre variable aléatoire \(Y \in \mathbb{R}^\Omega\). Alors
Démonstration
Définition : Variables aléatoires non corrélées
On considère une autre variable aléatoire \(Y \in \mathbb{R}^\Omega\). Alors on dit que les variables aléatoires \(X\) et \(Y\) sont non corrélées si
Exemple
Corollaire
Deux variables aléatoires indépendantes sont non corrélées.
Démonstration
Remarque
La réciproque du corollaire précédent n'est pas vérifiée.
Exemple
Proposition
On considère une autre variable aléatoire \(Y \in \mathbb{R}^\Omega\). Alors
Démonstration
Corollaire
On considère une autre variable aléatoire \(Y \in \mathbb{R}^\Omega\). Si les variables aléatoires \(X\) et \(Y\) sont indépendantes alors
Nous avons le résultat similaire pour une famille de variables aléatoires mutuellement indépendantes.
Démonstration
Remarque
On retrouve alors la variance d'une variable aléatoire binomiale vue en tant que somme de variables aléatoires de Bernoulli i.i.d..
C. Inégalités probabilistes⚓︎
Théorème : Inégalité de Markov
Si \(X\geq 0\) alors
Démonstration
Exemple
Corollaire
Nous avons également dans le cas où la variable aléatoire \(X\) est de signe quelconque
Démonstration
Remarque
Les deux inégalités précédentes permettent d'obtenir des inégalités dîtes de concentration. Elles fournissent des bornes sur la probabilité qu'une variable aléatoire dévie d'une certaine valeur.
Corollaire
Nous avons également pour tout \(p\in [1, +\infty[\),
Démonstration
Théorème : Inégalité de Bienaymé-Tchebychev
Nous avons
Démonstration
Exemple
On considère une fonction \(f : [0,1] \longrightarrow \mathbb{R}\) continue, \(n \in \mathbb{N}^*\) et le \(n\)-ième polynôme de Bernstein
Alors on peut montrer grâce à l'inégalité de Bienaymé-Tchebychev que
En effet si l'on considère \(X_1, ..., X_n\) i.i.d. \(\mathcal{B}(n,x)\) pour \(x\in [0,1]\), et \(S_n = X_1 + ... + X_n\), alors par théorème de transfert \(B_n(f)(x) = \mathbb{E}\left( f\left( \dfrac{S_n}{n} \right) \right)\). Puis on considère \(\varepsilon \in \mathbb{R}_+^*\) et on sépare \(\mathbb{E}\left( f\left( \dfrac{S_n}{n} \right) \right) - f(x)\) en deux termes dont l'un fait apparaître \(\mathbb{P}(|S_n - \mathbb{E}(S_n)| > n\delta)\) pour un certain \(\delta \in \mathbb{R}_+^*\) issu du théorème de Heine.
Remarque
L'inégalité précédente sert à montrer que la moyenne d'un grand nombre de variables aléatoires i.i.d. converge vers leur espérance en un certain sens, et également d'avoir la vitesse de convergence.
Théorème : Loi faible des grands nombres
On considère \((X_n)_{n\in \mathbb{N}^*}\) une suite de variables aléatoires i.i.d et \(S_n = \sum_{k=1}^n X_k\) pour tout \(n\in \mathbb{N}^*\). Alors pour tout \(\varepsilon \in \mathbb{R}_+^*\),
Démonstration
Exemple
(méthode de Monte-Carlo pour converger vers \(\mathbb{P}(k\leq X \leq k')\))