Soit (Ω,F,P) un espace probabilisé. La tribu F représente une collection d’événements et P va donner leurs poids respectifs. On a P(∅)=0 et P(Ω)=1.
Événements
Ne pas confondre événements disjoints et indépendants :
A et B sont disjoints si A∩B=∅, et donc P(A∪B)=P(A)+P(B) ;
A et B sont indépendants si P(A∩B)=P(A)P(B), i.e. P(A∣B)=P(A) avec P(B) différent de 0.
En fait deux événements disjoints de proba non nulles ne sont jamais indépendants !
Soit (An) une suite d’ événements. On note n→∞limsupAn=n≥0⋂k≥n⋃Ak. Lemme de Borel-Cantelli —
Si n≥0∑P(An)<∞, alors P(limsupAn)=0.
Si (An) une famille d’événements indépendants tels que n≥0∑P(An)=∞, alors P(limsupAn)=1.
Preuve
Pour tout N≥0, P(n≥0⋂k≥n⋃Ak)≤P(k≥N⋃Ak)≤k≥N∑P(Ak)N→∞0. Donc P(limsupAn)=0.
En passant au complémentaire, on veut montrer que P(n≥0⋃k≥n⋂Akc)=0. Il suffit de vérifier que pour tout n≥0, P(k≥n⋂Akc)=0. En utilisant l’indépendance des (Akc), on a pour tout N≥n, P(k≥n⋂Akc)≤P(k=n⋂NAkc)=k=n∏NP(Akc)=k=n∏N(1−P(Ak))≤k=n∏Nexp(−P(Ak))≤exp(−k=n∑NP(Ak))N→∞0.
Inrerprétons le point 1) du lemme. Par passage au complémentaire, on peut réécrire la conclusion du lemme 1) : P(n≥0⋃k≥n⋂Akc)=1.
On a la traduction ensembliste-quantificateurs suivante : ∪→∃, ∩→∀.
Le lemme 1) conclut donc que presque sûrement il existe un n (aléatoire) tel que pour tout k≥n, les Akc sont réalisés.
Voir aussi la page wikipedia.
Variables aléatoires
Couples ou n-uplets
Attention — Si on a la loi d’un couple (X,Y), on en déduit la loi de X et de Y (qui peut le plus peut le moins). Par contre, à partir de la loi de X et de Y, on ne peut rien dire de la loi du couple, i.e. on ne sait pas comment X et Y interagissent entre elles. Si on dit qu’elles sont indépendantes, alors on sait quelle est la loi du couple, c’est ce qu’on appelle la loi produit.
Exemple — Le couple (X,Y) modélise 2 pièces et (X′,Y′) en représente deux autres. On donne les lois des deux couples par les tableaux ci-dessous :
Remarquons que :P(Y=P)=1/2+1/6=2/3=5/9+1/9=P(Y′=P)P(X=P)=1/2+1/3=5/6=5/9+5/18=P(X′=P). Ainsi X∼X′ et Y∼Y′. De plus, P(X=P,Y=P)=1/2=2/3⋅5/6, alors que X′ et Y′ sont indépendantes (par exemple P(X′=P,Y′=P)=5/9=2/3⋅5/6, etc.)
Conclusion : Les couples (X,Y) et (X′,Y′) ont les mêmes lois marginales, cependant (X,Y) modélise deux pièces fortement liées (Si X tombe sur face, Y ne peut pas tomber sur face !), alors que (X′,Y′) est un couple de pièces indépendantes.
Suites de v.a.
Soit (Zn) une suite de v.a. discrètes. A n fixé, ω↦Zn(ω) est une v.a., et à ω fixé, n↦Zn(ω) s’appelle une trajectoire.
Lorsqu’on dispose d’une suite, on s’intéresse souvent à sa convergence, et pour les v.a. il y a plusieurs notions de convergence :
la convergence en loi, i.e. on regarde une possible limite de la suite n↦P(Zn=k) pour tout k fixé (dans le cas d’une v.a. discrète) ;
des notions de convergences trajectorielles, i.e. on regarde si n↦Zn(ω) converge en un certain sens par rapport à ω.
On peut considérer des suites (Xi) de v.a. indépendantes identiquement distribuées (i.i.d.), i.e. les Xi sont indépendantes et de même loi, et s’intéresser au comportement de marches aléatoires Sn=X1+⋯+Xn.
Exemple — Les Xi sont à valeurs dans {−1,1} et la marche aléatoire Sn se promène sur Z.
Outils
La fonction génératrice des v.a. discrètes
GX(s)=E[sX]=k=0∑∞skP(X=k) caractérise la loi de X (unicité du développement en série entière) et est un outil particulièrement adapté quand on a des sommes Sn=X1+⋯+Xn de v.a. i.i.d. En effet dans ce cas : GSn=GX1n. Application avec les lois de Poisson — Soit X∼P(μ). Alors GX(s)=e−μk=0∑∞skk!μk=eμ(s−1). Si les Xi sont i.i.d. ∼P(μ) alors GSn(s)=eμn(s−1) et on peut en déduire que Sn∼P(μn).
Inégalités
Inégalité de Markov : P(X≥t)≤tE[X] où X est une v.a. positive d’espérance finie et t>0. Inégalité de Tchebychev : Si X a une variance finie, on peut en déduire avec t>0, P(∣X−E[X]∣≥t)≤t2Var[X].
On peut en fait utiliser n’importe quelle fonction >0 croissante : P(f(X)≥f(t))≤f(t)E[f(X)] si E[∣f(X)∣]<∞.
Application — Soit λ>0, alors P(X≥t)=P(eλX≥eλt)≤eλtE[eλX]=e−λtGX(eλ), et on peut optimiser en λ. On voit aussi l’intérêt si on a des sommes Sn=X1+⋯+Xn de v.a. i.i.d.
Théorèmes limite
Loi Faible des Grands Nombres — Soit X1,⋯,Xn des v.a. i.i.d. de variance finie σ2. Comme les Xi sont indépendantes, on a Var(Sn)=nσ2. Alors, d’après l’inégalité de Tchebychev P(∣∣∣∣∣nSn−E[X1]∣∣∣∣∣≥ε)≤nε2σ2n→∞0, avec ε>0.
On dit que la moyenne arithmétique des Xi, i.e. Sn/n, converge en probabilité vers la moyenne théorique E[X1].
Loi Forte des Grands Nombres — Soit X1,⋯,Xn des v.a. i.i.d. d’espérance finie. Alors la moyenne arithmétique des Xi, i.e. Sn/n, converge presque sûrement vers la moyenne théorique E[X1].
On voit généralement ce résultat en L3-M1, il est beaucoup plus difficile à démontrer. La loi forte affaiblit les hypothèses de la loi faible et renforce la conclusion (la convergence presque sûre impliquant la convergence en probabilité).
Théorème Central limite (TCL) — Soit X1,⋯,Xn des v.a. i.i.d. de variance finie σ2. Alors σn(nSn−E[X1]) converge en loi vers une gaussienne N(0,1).