Suites de variables aléatoires

Exercice 76 ⭐️ CV p.s. et Borel-Cantelli, L3/Classique

Soit (Xn)n0\displaystyle (X_n)_{n\ge0} une suite de v.a. indépendantes qui converge presque sûrement vers 0\displaystyle 0.
Montrer que pour tout a>0\displaystyle a>0, n0P(Xn>a)<+\displaystyle \sum_{n\ge0} P(|X_n|>a)<+\infty.

On voit n0P(Xn>a)\displaystyle \sum_{n\ge0} P(|X_n|>a) 👉 Borel-Cantelli !

Soit a>0\displaystyle a>0. Comme on pense à Borel-Cantelli, on va essayer d’étudier lim supAk\displaystyle \limsup A_k en posant Ak={Xk>a}\displaystyle A_k=\{|X_k|>a\}. On a par définition de la lim sup\displaystyle \limsup ensembliste : lim supAk=n0knAk.\limsup A_k=\bigcap_{n\ge0}\bigcup_{k\ge n}A_k. On traduit maintenant que (Xn)n0\displaystyle (X_n)_{n\ge0} converge presque sûrement vers 0\displaystyle 0 : Pour presque tout ωΩ\displaystyle \omega\in \Omega, il existe n0\displaystyle n\ge0 tel que pour tout kn\displaystyle k\ge n, Xka\displaystyle |X_k|\le a, i.e. P(n0knAkc)=1.P\left(\bigcup_{n\ge0}\bigcap_{k\ge n}A_k^c\right)=1. Par passage au complémentaire, il vient P(lim supAk)=0\displaystyle P(\limsup A_k)=0. En utilisant la contraposée du lemme de Borel-Cantelli avec les v.a. indépendantes, on obtient : k0P(Xk>a)<+.\sum_{k\ge0} P(|X_k|>a)<+\infty.

Exercice 79 ⭐️⭐️ Loi de Poisson et TCL, ECS2/L3/Classique

  1. Calculer la fonction génératrice définie par GX(s)=E[sX]\displaystyle G_X(s)=E[s^X] quand XP(μ)\displaystyle X\sim\mathcal P(\mu) , i.e. P(X=j)=eμμjj!\displaystyle P(X=j)=e^{-\mu}\frac{\mu^j}{j!} . On admet que GX\displaystyle G_X caractérise la loi de X. En déduire la loi de la somme de n\displaystyle n v.a. Xi\displaystyle X_i de Poisson i.i.d. de paramètre μ\displaystyle \mu.
  2. Montrer que pour x0\displaystyle x\ge0, enk=0n+xnnkk!n12πxet2/2dt,e^{-n}\sum_{k=0}^{n+x\sqrt{n}}\frac{n^k}{k!} \xrightarrow[n\to \infty]{} \frac{1}{\sqrt{2\pi}}\int_{-\infty}^x e^{-t^2/2}dt, en utilisant le théorème centrale limite (TCL).
    En particulier, on a : enk=0nnkk!n12\displaystyle e^{-n}\sum_{k=0}^{n}\frac{n^k}{k!} \xrightarrow[n\to \infty]{} \frac12.
  1. On a E[sX]=j0sjeμμjj!=eμj0(sμ)jj!=eμ(s1)\displaystyle \mathbb E[s^X]=\sum_{j\ge0}s^je^{-\mu}\frac{\mu^j}{j!}=e^{-\mu}\sum_{j\ge0}\frac{(s\mu)^j}{j!}=e^{\mu(s-1)}.
    De plus, en utilisant que les Xi\displaystyle X_i sont indépendantes et de même loi, il vient E[sX1++Xn]=E[sX1]E[sXn]=(E[sX])n=enμ(s1)\displaystyle \mathbb E[s^{X_1+\cdots+X_n}]=\mathbb E[s^{X_1}]\cdots \mathbb E[s^{X_n}]=(\mathbb E[s^X])^n=e^{n\mu(s-1)}.
    On reconnait alors la fonction génératrice d’une v.a. de Poisson de paramètre nμ\displaystyle n\mu.
  2. Considérons des XiP(1)\displaystyle X_i\sim\mathcal P(1) i.i.d., donc μ=1\displaystyle \mu=1 et σ=1\displaystyle \sigma=1. Le TCL donne donc P(n(Xn1)x)n12πxet2/2dt.P\left(\sqrt{n}(\overline{X}_n-1)\le x\right) \xrightarrow[n\to \infty]{} \frac{1}{\sqrt{2\pi}}\int_{-\infty}^x e^{-t^2/2}dt. Réécrivons la probabilité :
    P(n(Xn1)x)=P(X1++Xnnnx)=P(X1++Xnn+nx).\begin{aligned} P\left(\sqrt{n}(\overline{X}_n-1)\le x\right)&=P(X_1+\cdots+X_n-n\le \sqrt{n}x) \\ &=P(X_1+\cdots+X_n\le n+\sqrt{n}x).\end{aligned} Comme d’après 1), X1++XnP(n)\displaystyle X_1+\cdots+X_n\sim\mathcal P(n), on en déduit P(n(Xn1)x)=k=0n+xnennkk!\displaystyle P\left(\sqrt{n}(\overline{X}_n-1)\le x\right)=\sum_{k=0}^{n+x\sqrt{n}}e^{-n}\frac{n^k}{k!}, d’où le résultat.

Exercice 80 ⭐️⭐️⭐️ Chaîne de Markov, Spé/L3

  1. Soit (Xn)\displaystyle (X_n) une suite de v.a. définie par Xn+1=f(Xn,En+1)\displaystyle X_{n+1}=f(X_n,E_{n+1})(En)\displaystyle (E_n) est une suite i.i.d., indépendante aussi de X0\displaystyle X_0. Montrer que (Xn)\displaystyle (X_n) est une chaîne de Markov, i.e. P(Xn+1=xn+1Xn=xn,,X0=x0)=P(Xn+1=xn+1Xn=xn).P(X_{n+1}=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0})=P(X_{n+1}=x_{n+1}| X_{n}=x_{n}). La matrice Pi,j:=P(Xn+1=jXn=i)\displaystyle P_{i,j}:=P(X_{n+1}=j|X_n=i) s’appelle la matrice de transition (on suppose que la chaîne est homogène, i.e. la dernière quantité ne dépend pas de n\displaystyle n), c’est une matrice stochastique.
  2. Donner un exemple simple de chaîne de Markov.
  3. On considère ici une chaîne à deux états {1,2}\displaystyle \{1,2\} et on pose P1,2=P(Xn+1=2Xn=1)=a]0,1[\displaystyle P_{1,2}=P(X_{n+1}=2|X_n=1)=a\in]0,1[ et P2,1=P(Xn+1=1Xn=2)=b]0,1[\displaystyle P_{2,1}=P(X_{n+1}=1|X_n=2)=b\in]0,1[. On note νn=(P(Xn=1),P(Xn=2))\displaystyle \nu_n=(P(X_n=1),P(X_n=2)) la loi de Xn\displaystyle X_n. Montrer que νn+1=νnP\displaystyle \nu_{n+1}=\nu_nP. Déterminer la loi stationnaire π=(π1,π2)\displaystyle \pi=(\pi_1,\pi_2) , i.e. résoudre l’équation π=πP\displaystyle \pi=\pi P. Calculer Pn\displaystyle P^n et limnPn\displaystyle \lim_{n\to\infty}P^n.
  1. On a P(Xn+1=xn+1Xn=xn,,X0=x0)=P(f(Xn,En+1)=xn+1Xn=xn,,X0=x0)=P(f(xn,En+1)=xn+1Xn=xn,,X0=x0)\displaystyle P(X_{n+1}=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0})=P(f(X_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0})=P(f(x_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0}). Or En+1\displaystyle E_{n+1} est indépendante de (X0,,Xn)\displaystyle (X_0,\cdots,X_n) (par récurrence), et donc P(f(xn,En+1)=xn+1Xn=xn,,X0=x0)=P(f(xn,En+1)=xn+1)=P(f(xn,En+1)=xn+1Xn=xn)=P(f(Xn,En+1)=xn+1Xn=xn)=P(Xn+1=xn+1Xn=xn)\displaystyle P(f(x_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0})=P(f(x_{n},E_{n+1})=x_{n+1})=P(f(x_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n})=P(f(X_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n})=P(X_{n+1}=x_{n+1}| X_{n}=x_{n}), ce qu’on voulait.
  2. Cette structure Xn+1=f(Xn,En+1)\displaystyle X_{n+1}=f(X_n,E_{n+1}) est le prototype de chaîne de Markov, et un exemple simple est une marche aléatoire
    Xn=E0++En=Xn1+En\displaystyle X_n=E_0+\cdots+E_n=X_{n-1}+E_n(En)\displaystyle (E_n) est une suite de v.a. i.i.d. à valeurs par exemple dans {1,1}\displaystyle \{-1,1\}. La fonction f\displaystyle f est ici f(x,y)=x+y\displaystyle f(x,y)=x+y.
  3. Pour établir νn+1=νnP\displaystyle \nu_{n+1}=\nu_nP, il suffit d’écrire la formule des probabilités totales avec les événements {Xn=1}\displaystyle \{X_n=1\} et {Xn=2}\displaystyle \{X_n=2\}.
    L’équation π=πP\displaystyle \pi=\pi P donne π1=(1a)π1+bπ2\displaystyle \pi_1=(1-a)\pi_1+b\pi_2 et π2=aπ1+(1b)π2\displaystyle \pi_2=a\pi_1+(1-b)\pi_2. Donc π1=ba+b\displaystyle \pi_1=\frac{b}{a+b} et π2=aa+b\displaystyle \pi_2=\frac{a}{a+b}.
    Pour calculer Pn\displaystyle P^n, plusieurs méthodes dont utiliser Cayley-Hamilton qui dit que χP(P)=0\displaystyle \chi_P(P)=0. On fait donc la division euclidienne de Xn\displaystyle X^n par χ\displaystyle \chi. Comme P\displaystyle P est une matrice stochastique, on a λ1=1\displaystyle \lambda_1=1 comme valeur propre. On a aussi tr(P)=2ab=λ1+λ2\displaystyle tr(P)=2-a-b=\lambda_1+\lambda_2, d’où λ2=1ab\displaystyle \lambda_2=1-a-b. Donc χ(X)=(X1)(X1+a+b)\displaystyle \chi(X)=(X-1)(X-1+a+b) et on écrit Xn=χ(X)Q(X)+a1X+a0\displaystyle X^n=\chi(X)Q(X)+a_1X+a_0. En évaluant en X=1\displaystyle X=1 et X=1ab\displaystyle X=1-a-b, on obtient :
    a1=1(1ab)na+b\displaystyle a_1=\frac{1-(1-a-b)^n}{a+b} et a0=1a1\displaystyle a_0=1-a_1. Ainsi, avec χP(P)=0\displaystyle \chi_P(P)=0, on a Pn=a1P+a0I2\displaystyle P^n=a_1P+a_0I_2. Comme 1<1ab<1\displaystyle -1<1-a-b<1, on en déduit
    limnPn=1a+b(1aab1b)+(11a+b)(1001)=1a+b(baba)\displaystyle \lim_{n\to\infty}P^n=\frac{1}{a+b}\begin{pmatrix} 1-a & a\\ b & 1-b\\ \end{pmatrix}+(1-\frac{1}{a+b})\begin{pmatrix} 1 & 0\\ 0 & 1\\ \end{pmatrix}=\frac{1}{a+b}\begin{pmatrix} b & a\\ b & a\\ \end{pmatrix}.

Exercice 193 ⭐️⭐️⭐️ X PC 2017

Soit X\displaystyle X une variable aléatoire à valeurs dans Z\displaystyle \Z. Soit (Xn)n1\displaystyle (X_n)_{n \ge 1} une suite de variables aléatoires indépendantes identiquement distribuées suivant la loi de X\displaystyle X. On pose S0=0\displaystyle S_0=0 et, pour nN\displaystyle n \in \N^*, Sn=X1++Xn\displaystyle S_n=X_1+\cdots+X_n et Nn=Card{Sk,k{0,,n}}\displaystyle N_n = {\rm Card}\left\{S_k, k \in \{0,\ldots,n\}\right\}, puis enfin A=j1(Sj0)\displaystyle A= \bigcap_{j \ge 1} (S_j \neq 0).

  1. Soit nN\displaystyle n \in \N. Montrer que P(Sn+1{S0,,Sn})=P(S10,,Sn+10).\mathbb{P}\left(S_{n+1} \notin \{S_0,\ldots,S_n\}\right) = \mathbb{P}\left(S_1\neq 0,\ldots,S_{n+1} \neq 0\right).
  2. Montrer que E(Nnn)nP(A)\displaystyle \mathbb{E}\left( \frac{N_n}{n}\right) \xrightarrow[n \to \infty]{} \mathbb{P}(A).

Bientôt !

Exercice 357 ⭐️⭐️ Convergence en loi, L3

Soit (Un)n1\displaystyle (U_n)_{n\geq 1} une suite de v.a.r. indépendantes, toutes de loi uniforme sur [0;1]\displaystyle [0;1]. On note
Yn=min(U1,,Un).Y_n=\min(U_1,\dots, U_n).

  1. Montrer que Yn\displaystyle Y_n converge presque sûrement vers 0\displaystyle 0.
  2. Montrer que (n Yn)n1\displaystyle (n~Y_n)_{n\geq 1} converge en loi et préciser la loi limite.
  1. Convergence presque sûre de Yn\displaystyle Y_n vers Y\displaystyle Y 👉 Convergence de la série P(YnY>ε)\displaystyle \sum \mathbb P(|Y_n-Y|>\varepsilon).
  2. Convergence en loi 👉 Convergence ponctuelle des fonctions de répartition (en tout point de continuité de la fonction de répartition limite).
  1. Soit ε]0;1]\displaystyle \varepsilon\in]0;1]. On a P(Yn>ε)=P(U1>ε,,Un>ε)=k=1nP(Uk>ε)=(1ε)n\displaystyle \mathbb P(|Y_n|>\varepsilon)=\mathbb P(U_1>\varepsilon,\dots,U_n>\varepsilon)=\prod_{k=1}^n\mathbb P(U_k>\varepsilon)=(1-\varepsilon)^n, car les Uk\displaystyle U_k sont indépendantes.
    Comme 1ε[0;1[\displaystyle 1-\varepsilon\in[0;1[, la série P(Yn>ε)\displaystyle \sum \mathbb P(|Y_n|>\varepsilon) est convergente, donc Yn0\displaystyle Y_n\to 0 presque sûrement.
  2. Soit y>0\displaystyle y>0. En remplaçant ε\displaystyle \varepsilon par y/n\displaystyle y/n dans le calcul précédent, on obtient (dès que n>y\displaystyle n>y donc à partir d’un certain rang) : P(n Yn>y)=(1yn)n=exp(n ln(1yn))=exp(y+o(1))ey,\mathbb P(n~Y_n>y)=\left(1-\frac{y}{n}\right)^n=\exp\left(n~\ln\left(1-\frac{y}{n}\right)\right)=\exp\left(-y +o(1)\right)\to e^{-y}, et pour y0\displaystyle y\leq 0, cette probabilité vaut évidemment 1\displaystyle 1. On reconnaît l’expression de P(X>y)\displaystyle \mathbb P(X>y) pour une v.a. X\displaystyle X de loi E(1)\displaystyle \mathcal E(1). Ainsi (n Yn)n1\displaystyle (n~Y_n)_{n\geq 1} converge en loi vers une v.a. de loi E(1)\displaystyle \mathcal E(1).

Exercice 402 ⭐️⭐️⭐️⭐️ Pile ou face, Ulm 2019, Spé/L3

Deux joueurs jouent à pile ou face jusqu’à ce que le nombre de piles obtenus soit égal au double du nombre de face. Quelle est la probabilité pour que la partie s’arrête ?

Notons Fn\displaystyle F_n (respectivement Pn\displaystyle P_n) le nombre de piles (respectivement faces) obtenus après n\displaystyle n lancers.
Posons Xn=2FnPn\displaystyle X_n=2F_n-P_n, notons Pi\displaystyle \mathbb P_i la probabilité pour une partie qui commencerait à X0=i\displaystyle X_0=i, et pi=Pi(n1 : Xn=0),qi=Pi(n0 : Xn=0).p_i =\mathbb P_i(\exists n\geq 1~:~X_n=0),\qquad q_i =\mathbb P_i(\exists n\geq 0~:~X_n=0). Évidemment, pi=qi\displaystyle p_i=q_i pour i0\displaystyle i\neq 0.
Le but est de calculer p0\displaystyle p_0, qui d’après la formule des probabilités totales, vaut 12(q2+q1)\displaystyle \frac12\left(q_2+q_{-1}\right). Nous allons alors calculer qi\displaystyle q_i pour iZ\displaystyle i\in\Z.
Toujours d’après la formule des probabilités totales, la suite (qi)i0\displaystyle (q_i)_{i\geq 0} vérifie : {q0=1,i1, qi=12(qi1+qi+2).\begin{cases}q_0=1,\\\forall i\geq 1,~q_i=\frac 12\left(q_{i-1}+q_{i+2}\right).\end{cases}
Le polynôme 12(X32X+1)=12(X1)(X2+X1)\displaystyle \frac 12\left(X^3-2X+1\right)=\frac 12(X-1)(X^2+X-1) a trois racines :
1,r=1+52]0;1[s=152<1.\displaystyle 1,\quad r=\frac{-1+\sqrt 5}{2}\in]0;1[ \qquad s=\frac{-1-\sqrt 5}{2}<-1.
Ainsi il existe des réels α,β,γ\displaystyle \alpha,\beta,\gamma tels que : i0,qi=α+β ri+γ si.\forall i\geq 0,\quad q_i=\alpha +\beta~r^i +\gamma~s^i. On détermine ensuite les constantes :

  • (qi)i0\displaystyle (q_i)_{i\geq 0} étant bornée, on a γ=0\displaystyle \gamma=0.
  • i=0\displaystyle i=0 donne α+β=1\displaystyle \alpha+\beta=1.
  • Pour i1, qi=Pi(n1:Xn0)=P0(n1:Xni)iP0((Xn) non minoreˊe)=0\displaystyle i\geq 1,~q_i = \mathbb P_i(\exists n\geq 1: X_n\leq 0)=\mathbb P_0(\exists n\geq 1: X_n\leq -i)\underset{i\to\infty}\to \mathbb P_0((X_n)\text{ non minorée})=0,
    car d’après la loi des grands nombres, P0(Xn+)=1\displaystyle \mathbb P_0(X_n\to+\infty)=1. Ainsi α=0\displaystyle \alpha=0.

Nous venons donc de montrer que : i1\displaystyle \forall i\geq 1, pi=ri\displaystyle p_i=r^i (soit la moitié du travail).
Pour les entiers négatifs, on part des égalités : {q1=r,q0=1,i1, qi=12(qi1+qi+2).\begin{cases}q_1=r,\\ q_0=1,\\\forall i\leq -1,~q_i=\frac 12\left(q_{i-1}+q_{i+2}\right).\end{cases} Il existe des réels α,β,γ\displaystyle \alpha,\beta,\gamma tels que : i1,qi=α+β ri+γ si.\forall i\leq 1,\quad q_i=\alpha +\beta~r^i +\gamma~s^i. On détermine les constantes :

  • (qi)i0\displaystyle (q_i)_{i\leq 0} étant bornée, on a β=0\displaystyle \beta=0.
  • i=0\displaystyle i=0 donne α+γ=1\displaystyle \alpha+\gamma=1.
  • i=1\displaystyle i=1 donne α+γs=r\displaystyle \alpha+\gamma s=r, d’où α=rs1s\displaystyle \alpha=\frac{r-s}{1-s} et γ=1r1s\displaystyle \gamma=\frac{1-r}{1-s}.

Conclusion — On a finalement p0=12(q2+q1)=12(r2+rs1s+1r1s1s).p_0=\frac12\left(q_2+q_{-1}\right)=\frac 12\left(r^2+\frac{r-s}{1-s}+\frac{1-r}{1-s}\cdot \frac 1s\right).
Comme X2+X1=(Xr)(Xs)\displaystyle X^2+X-1=(X-r)(X-s), on a que r2=1r\displaystyle r^2=1-r, rs=1\displaystyle rs=-1, r+s=1,\displaystyle r+s=-1, et (1r)(1s)=1\displaystyle (1-r)(1-s)=1.
On obtient alors, après simplifications : p0=32(1r)=34(35)0, ⁣57.p_0=\frac{3}{2}(1-r)=\frac{3}{4} \left( 3 - \sqrt{5} \right)\approx 0,\!57.