Probabilités

Soit (Ω,F,P)\displaystyle (\Omega,\mathcal F,P) un espace probabilisé. La tribu F\displaystyle \mathcal F représente une collection d’événements et P\displaystyle P va donner leurs poids respectifs. On a P()=0\displaystyle P(\emptyset)=0 et P(Ω)=1\displaystyle P(\Omega)=1.

Événements

Ne pas confondre événements disjoints et indépendants :

  1. A\displaystyle A et B\displaystyle B sont disjoints si AB=\displaystyle A\cap B=\emptyset, et donc P(AB)=P(A)+P(B)\displaystyle P(A\cup B)=P(A)+P(B) ;
  2. A\displaystyle A et B\displaystyle B sont indépendants si P(AB)=P(A)P(B)\displaystyle P(A\cap B)=P(A)P(B), i.e. P(AB)=P(A)\displaystyle P(A|B)=P(A) avec P(B)\displaystyle P(B) différent de 0\displaystyle 0.

En fait deux événements disjoints de proba non nulles ne sont jamais indépendants !

Soit (An)\displaystyle (A_n) une suite d’ événements. On note lim supnAn=n0knAk\displaystyle \limsup_{n\to\infty} A_n =\bigcap_{n\ge0}\bigcup_{k\ge n}A_k.
Lemme de Borel-Cantelli

  1. Si n0P(An)<\displaystyle \sum_{n\ge0}P(A_n)<\infty, alors P(lim supAn)=0\displaystyle P(\limsup A_n)=0.
  2. Si (An)\displaystyle (A_n) une famille d’événements indépendants tels que n0P(An)=\displaystyle \sum_{n\ge0}P(A_n)=\infty, alors P(lim supAn)=1\displaystyle P(\limsup A_n)=1.
  1. Pour tout N0\displaystyle N\ge0, P(n0knAk)P(kNAk)kNP(Ak)N0\displaystyle P\left(\bigcap_{n\ge0}\bigcup_{k\ge n}A_k\right)\le P\left(\bigcup_{k\ge N}A_k\right)\le \sum_{k\ge N}P(A_k) \xrightarrow[]{N\to\infty}0. Donc P(lim supAn)=0\displaystyle P(\limsup A_n)=0.
  2. En passant au complémentaire, on veut montrer que P(n0knAkc)=0\displaystyle P\left(\bigcup_{n\ge0}\bigcap_{k\ge n}A_k^c\right)=0. Il suffit de vérifier que pour tout n0\displaystyle n\ge0, P(knAkc)=0\displaystyle P\left(\bigcap_{k\ge n}A_k^c\right)=0. En utilisant l’indépendance des (Akc)\displaystyle (A_k^c), on a pour tout Nn\displaystyle N\ge n,
    P(knAkc)P(k=nNAkc)=k=nNP(Akc)=k=nN(1P(Ak))k=nNexp(P(Ak))exp(k=nNP(Ak))N0.\begin{aligned} P\left(\bigcap_{k\ge n}A_k^c\right)& \le P\left(\bigcap_{k= n}^NA_k^c\right) \\ & \quad =\prod_{k= n}^N P\left(A_k^c\right) \\ & \quad =\prod_{k= n}^N (1-P\left(A_k\right)) \\ & \le \prod_{k= n}^N \exp(-P\left(A_k\right)) \\ & \le \exp\left(-\sum_{k= n}^N P\left(A_k\right)\right)\xrightarrow[N\to\infty]{}0. \\ \end{aligned}

Inrerprétons le point 1) du lemme. Par passage au complémentaire, on peut réécrire la conclusion du lemme 1) : P(n0knAkc)=1\displaystyle P\left(\bigcup_{n\ge0}\bigcap_{k\ge n}A_k^c\right)=1.
On a la traduction ensembliste-quantificateurs suivante : \displaystyle \cup\to\exists, \displaystyle \cap\to\forall.
Le lemme 1) conclut donc que presque sûrement il existe un n\displaystyle n (aléatoire) tel que pour tout kn\displaystyle k\ge n, les Akc\displaystyle A_k^c sont réalisés.
Voir aussi la page wikipedia.

Variables aléatoires

Couples ou n-uplets

Attention — Si on a la loi d’un couple (X,Y)\displaystyle (X,Y), on en déduit la loi de X\displaystyle X et de Y\displaystyle Y (qui peut le plus peut le moins). Par contre, à partir de la loi de X\displaystyle X et de Y\displaystyle Y, on ne peut rien dire de la loi du couple, i.e. on ne sait pas comment X\displaystyle X et Y\displaystyle Y interagissent entre elles. Si on dit qu’elles sont indépendantes, alors on sait quelle est la loi du couple, c’est ce qu’on appelle la loi produit.

Exemple — Le couple (X,Y)\displaystyle (X,Y) modélise 2 pièces et (X,Y)\displaystyle (X',Y') en représente deux autres. On donne les lois des deux couples par les tableaux ci-dessous :

Y=PY=FX=P1/21/3X=F1/60\displaystyle \begin{array}{|c||c|c|}\hline & Y=P & Y=F \\ \hline \hline X=P& 1/2 & 1/3\\ \hline X=F & 1/6 & 0\\ \hline \end{array} \displaystyle \qquad Y=PY=FX=P5/95/18X=F1/91/18\displaystyle \begin{array}{|c||c|c|}\hline & Y'=P & Y'=F \\ \hline \hline X'=P& 5/9 & 5/18\\ \hline X'=F & 1/9 & 1/18\\ \hline \end{array}

Remarquons que :P(Y=P)=1/2+1/6=2/3=5/9+1/9=P(Y=P)P(Y=P)=1/2+1/6=2/3=5/9+1/9=P(Y'=P) P(X=P)=1/2+1/3=5/6=5/9+5/18=P(X=P).P(X=P)=1/2+1/3=5/6=5/9+5/18=P(X'=P). Ainsi XX\displaystyle X\sim X' et YY\displaystyle Y\sim Y'. De plus, P(X=P,Y=P)=1/22/35/6\displaystyle P(X=P,Y=P)=1/2\neq 2/3\cdot5/6, alors que X\displaystyle X' et Y\displaystyle Y' sont indépendantes (par exemple P(X=P,Y=P)=5/9=2/35/6\displaystyle P(X'=P,Y'=P)=5/9= 2/3\cdot 5/6, etc.)

Conclusion : Les couples (X,Y)\displaystyle (X,Y) et (X,Y)\displaystyle (X',Y') ont les mêmes lois marginales, cependant (X,Y)\displaystyle (X,Y) modélise deux pièces fortement liées (Si X\displaystyle X tombe sur face, Y\displaystyle Y ne peut pas tomber sur face !), alors que (X,Y)\displaystyle (X',Y') est un couple de pièces indépendantes.

Suites de v.a.

Soit (Zn)\displaystyle (Z_n) une suite de v.a. discrètes. A n\displaystyle n fixé, ωZn(ω)\displaystyle \omega\mapsto Z_n(\omega) est une v.a., et à ω\displaystyle \omega fixé, nZn(ω)\displaystyle n\mapsto Z_n(\omega) s’appelle une trajectoire.
Lorsqu’on dispose d’une suite, on s’intéresse souvent à sa convergence, et pour les v.a. il y a plusieurs notions de convergence :

  • la convergence en loi, i.e. on regarde une possible limite de la suite nP(Zn=k)\displaystyle n\mapsto P(Z_n=k) pour tout k\displaystyle k fixé (dans le cas d’une v.a. discrète) ;
  • des notions de convergences trajectorielles, i.e. on regarde si nZn(ω)\displaystyle n\mapsto Z_n(\omega) converge en un certain sens par rapport à ω\displaystyle \omega.

On peut considérer des suites (Xi)\displaystyle (X_i) de v.a. indépendantes identiquement distribuées (i.i.d.), i.e. les Xi\displaystyle X_i sont indépendantes et de même loi, et s’intéresser au comportement de marches aléatoires Sn=X1++Xn\displaystyle S_n=X_1+\cdots+X_n.

Exemple — Les Xi\displaystyle X_i sont à valeurs dans {1,1}\displaystyle \{-1,1\} et la marche aléatoire Sn\displaystyle S_n se promène sur Z\displaystyle \Z.

Outils

La fonction génératrice des v.a. discrètes

GX(s)=E[sX]=k=0skP(X=k)\displaystyle G_X(s)=E[s^X]=\sum_{k=0}^\infty s^kP(X=k) caractérise la loi de X\displaystyle X (unicité du développement en série entière) et est un outil particulièrement adapté quand on a des sommes Sn=X1++Xn\displaystyle S_n=X_1+\cdots+X_n de v.a. i.i.d. En effet dans ce cas : GSn=GX1n\displaystyle G_{S_n}=G_{X_1}^n.
Application avec les lois de Poisson — Soit XP(μ)\displaystyle X\sim\mathcal P(\mu). Alors GX(s)=eμk=0skμkk!=eμ(s1)\displaystyle G_X(s)=e^{-\mu}\sum_{k=0}^\infty s^k\frac{\mu^k}{k!}=e^{\mu(s-1)}. Si les Xi\displaystyle X_i sont i.i.d. P(μ)\displaystyle \sim\mathcal P(\mu) alors GSn(s)=eμn(s1)\displaystyle G_{S_n}(s)=e^{\mu n(s-1)} et on peut en déduire que SnP(μn)\displaystyle S_n\sim\mathcal P(\mu n).

Inégalités

Inégalité de Markov : P(Xt)E[X]t\displaystyle P(X\ge t) \le \frac{E[X]}{t}X\displaystyle X est une v.a. positive d’espérance finie et t>0\displaystyle t>0.
Inégalité de Tchebychev : Si X\displaystyle X a une variance finie, on peut en déduire avec t>0\displaystyle t>0, P(XE[X]t)Var[X]t2.P(|X-E[X]|\ge t) \le \frac{Var[X]}{t^2}.

On peut en fait utiliser n’importe quelle fonction >0\displaystyle >0 croissante : P(f(X)f(t))E[f(X)]f(t)\displaystyle P(f(X)\ge f(t)) \le \frac{E[f(X)]}{f(t)} si E[f(X)]<\displaystyle E[|f(X)|]<\infty.

Application — Soit λ>0\displaystyle \lambda>0, alors P(Xt)=P(eλXeλt)E[eλX]eλt=eλtGX(eλ)\displaystyle P(X\ge t)=P(e^{\lambda X}\ge e^{\lambda t}) \le \frac{E[e^{\lambda X}]}{e^{\lambda t}}=e^{-\lambda t}G_X(e^{\lambda}), et on peut optimiser en λ\displaystyle \lambda. On voit aussi l’intérêt si on a des sommes Sn=X1++Xn\displaystyle S_n=X_1+\cdots+X_n de v.a. i.i.d.

Théorèmes limite

Loi Faible des Grands Nombres — Soit X1,,Xn\displaystyle X_1,\cdots,X_n des v.a. i.i.d. de variance finie σ2\displaystyle \sigma^2. Comme les Xi\displaystyle X_i sont indépendantes, on a Var(Sn)=nσ2\displaystyle Var(S_n)=n\sigma^2. Alors, d’après l’inégalité de Tchebychev P(SnnE[X1]ε)σ2nε2n0\displaystyle P\left(\left|\frac{S_n}{n}-E[X_1]\right|\ge \epsilon\right) \le \frac{\sigma^2}{n\epsilon^2}\xrightarrow[n\to\infty]{} 0, avec ε>0\displaystyle \epsilon>0.
On dit que la moyenne arithmétique des Xi\displaystyle X_i, i.e. Sn/n\displaystyle S_n/n, converge en probabilité vers la moyenne théorique E[X1]\displaystyle E[X_1].

Loi Forte des Grands Nombres — Soit X1,,Xn\displaystyle X_1,\cdots,X_n des v.a. i.i.d. d’espérance finie. Alors la moyenne arithmétique des Xi\displaystyle X_i, i.e. Sn/n\displaystyle S_n/n, converge presque sûrement vers la moyenne théorique E[X1]\displaystyle E[X_1].

On voit généralement ce résultat en L3-M1, il est beaucoup plus difficile à démontrer. La loi forte affaiblit les hypothèses de la loi faible et renforce la conclusion (la convergence presque sûre impliquant la convergence en probabilité).

Théorème Central limite (TCL) — Soit X1,,Xn\displaystyle X_1,\cdots,X_n des v.a. i.i.d. de variance finie σ2\displaystyle \sigma^2. Alors nσ(SnnE[X1])\displaystyle \frac{\sqrt{n}}{\sigma}\left(\frac{S_n}{n}-E[X_1]\right) converge en loi vers une gaussienne N(0,1)\displaystyle \mathcal N(0,1).