Variables aléatoires continues

Exercice 82 ⭐️⭐️ Loi du χ2\displaystyle \chi_2, ECS2/L3

Soit X1,,Xn\displaystyle X_1,\cdots,X_n des v.a. i.i.d. de loi N(0,1)\displaystyle \mathcal N(0,1).

  1. Montrer que X122\displaystyle \frac{X_1^2}{2} suit une loi connue, que l’on précisera.
  2. En déduire la loi de Sn=k=1nXk2\displaystyle S_n=\sum_{k=1}^nX_k^2.
  1. Densité d’une fonction de X1\displaystyle X_1 👉 Changement de variable.
  2. Propriété du cours à reconnaître sur la loi γ(ν)\displaystyle \gamma(\nu).
  1. La v.a. Y1=X122\displaystyle Y_1=\frac{X_1^2}{2} est à valeurs positives. Il suffit donc de calculer P(Y1[0;t])\displaystyle \mathbb P\left(Y_1\in[0;t]\right) pour t>0\displaystyle t> 0. On a P(Y1[0;t])=P(X12t)=202t12πex2/2dx(par symeˊtrie).\mathbb P\left(Y_1\in[0;t]\right) =\mathbb P\left(|X_1|\le\sqrt{2t}\right) = 2\int_0^{\sqrt{2t}}\frac{1}{\sqrt{2\pi}}e^{-x^2/2}dx\qquad\text{(par symétrie)}. En posant x=2u\displaystyle x=\sqrt{2u} on obtient : P(Y1[0;t])=20t12πeu 222u du=0t1πu1/2eu du.\mathbb P\left(Y_1\in[0;t]\right) =2\int_0^{t}\frac{1}{\sqrt{2\pi}}e^{-u}~\frac{2}{2\sqrt {2u}}~du = \int_0^{t}\frac{1}{\sqrt{\pi}}u^{-1/2}e^{-u}~du. Ainsi Y1\displaystyle Y_1 suit la loi γ(1/2)\displaystyle \gamma(1/2).
  2. Les v.a. Xk22\displaystyle \frac{X_k^2}{2} sont indépendantes car les v.a. Xk\displaystyle X_k sont indépendantes.
    D’après la propriété de cours sur les v.a. indépendantes de loi γ(ν)\displaystyle \gamma(\nu), la v.a. Sn2=k=1nXk22\displaystyle \frac{S_n}{2}=\sum_{k=1}^n\frac{X_k^2}{2} suit la loi γ(n/2)\displaystyle \gamma(n/2), de densité 1Γ(n/2)tn/21et1R+(t)\displaystyle \frac{1}{\Gamma(n/2)}t^{n/2-1}e^{-t}\mathbb 1_{\R_+}(t). La loi de Sn\displaystyle S_n s’en déduit aisément : pour t0\displaystyle t\geq 0, P(Sn[0;t])=P(Sn2[0;t/2])=0t/21Γ(n/2)xn/21exdx=(u=2x)0t12n/2Γ(n/2)un/21eu/2du.\begin{aligned}\mathbb P\left(S_n\in[0;t]\right) & = \mathbb P\left(\frac{S_n}{2}\in[0;t/2]\right) \\ & = \int_0^{t/2}\frac{1}{\Gamma(n/2)}x^{n/2-1}e^{-x}dx \\ & \underset{(u=2x)}=\int_0^{t}\frac{1}{2^{n/2}\Gamma(n/2)}u^{n/2-1}e^{-u/2}du\end{aligned}. Sn\displaystyle S_n a donc pour densité 12n/2Γ(n/2)tn/21et/21R+(t)\displaystyle \frac{1}{2^{n/2}\Gamma(n/2)}t^{n/2-1}e^{-t/2}\mathbb 1_{\R_+}(t).

Exercice 83 ⭐️⭐️ Loi de Weibull, ECS2/L3

On suppose que la durée X\displaystyle X de fonctionnement d’un composant électronique est une v.a. réelle suivant
une loi de Weibull de paramètres a>0\displaystyle a>0 et λ>0\displaystyle \lambda>0, de densité f(x)=aλxa1exp(λxa)\displaystyle f(x)=a\lambda x^{a-1}\exp(-\lambda x^a) si x>0\displaystyle x> 0, et 0\displaystyle 0 sinon.
On appelle fiabilité du composant à l’instant t\displaystyle t la probabilité que le composant fonctionne jusqu’à l’instant t\displaystyle t : R(t)=P(X>t)\displaystyle R(t)=P(X>t) .

  1. Déterminer la fiabilité du composant électronique à t\displaystyle t .
  2. Calculer le temps moyen de bon fonctionnement du composant en fonction de la fonction Γ\displaystyle \Gamma.
  3. Montrer que, pour tout a1\displaystyle a\leq 1 , et s\displaystyle s, t0\displaystyle t\geq 0, P(X>t+sX>t)P(X>s)\displaystyle P(X>t+s\mid X>t) \geq P(X>s), avec égalité quand a=1\displaystyle a=1 .
  1. R(t)=P(X>t)=t+aλxa1exp(λxa)dx=[exp(λxa)]t+=exp(λta)\displaystyle R(t)=P(X>t)=\int_t^{+\infty}a\lambda x^{a-1}\exp(-\lambda x^a)dx= \Big[\exp\Big(-\lambda x^a\Big)\Big]_t^{+\infty} = \exp(-\lambda t^a) si t>0\displaystyle t>0 , et 0\displaystyle 0 sinon.
  2. On a E(X)=+xf(x)dx=0+aλxaexp(λxa)dx\displaystyle E(X)=\int_{-\infty}^{+\infty}xf(x)dx=\int_0^{+\infty}a\lambda x^a\exp(-\lambda x^a)dx . En effectuant le changement de
    variable y=λxa\displaystyle y=\lambda x^a, dx=y1/a1aλ1/ady\displaystyle dx=\frac{y^{1/a-1}}{a\lambda^{1/a}}dy , on obtient E(X)=0+(yλ)1/aeydy=Γ(1+1a)λ1a\displaystyle E(X)=\int_0^{+\infty} \left(\frac y\lambda\right)^{1/a}e^{-y}dy=\frac{\Gamma\left(1+\frac1a\right)}{\lambda^{\frac1a}}.
  3. On calcule pour a>0\displaystyle a>0, P(X>t+sX>t)=P({X>t+s}{X>t})P(X>t)=P(X>t+s)P(X>t)=exp(λ(t+s)a)exp(λta)\displaystyle P(X>t+s\mid X>t) = \frac{P(\{X>t+s\} \cap\{X>t\})}{P(X>t)}=\frac{P(X>t+s)}{P(X>t)}= \exp(-\lambda(t+s)^a)\cdot\exp(-\lambda t^a).
    Mais on a, pour tout a1\displaystyle a\leq 1 , s,t0\displaystyle s,t\geq 0 , (t+s)ata+sa\displaystyle (t+s)^a\leq t^a+s^a avec égalité si a=1\displaystyle a=1 (on peut étudier la fonction g(x)=1+xa(1+x)a\displaystyle g(x)=1+x^a-(1+x)^a).
    Il vient que P(X>t+sX>t)P(X>s)\displaystyle P(X>t+s\mid X>t)\geq P(X>s) avec égalité si a=1\displaystyle a=1 .

Exercice 189 ⭐️⭐️⭐️ X PC 2017

Soient X,Y\displaystyle X,Y deux variables aléatoires strictement positives indépendantes et de même loi. Montrer que E(X/Y)1\displaystyle \mathbb{E}(X/Y) \ge 1.

Comme X\displaystyle X et Y\displaystyle Y sont indépendantes, on a E(XY)=E(X)E(1Y)\displaystyle \mathbb{E}\left(\frac{X}{Y}\right) = \mathbb{E}(X) \mathbb{E}\left(\frac{1}{Y}\right), et comme X\displaystyle X et Y\displaystyle Y ont la même loi, on a : E(XY)=E(X)E(1X)\displaystyle \mathbb{E}\left(\frac{X}{Y}\right) = \mathbb{E}(X) \mathbb{E}\left(\frac{1}{X}\right). Le réflexe maintenant est, comme souvent, de penser à Cauchy-Schwarz. On peut le redémontrer rapidement dans ce cas particulier. On remarque tout d’abord, que pour tout tR\displaystyle t \in \mathbb{R}, la quantité P(t)=E((X+tX)2)\displaystyle P(t) = \mathbb{E}\left(\left(\sqrt{X}+\frac{t}{\sqrt{X}}\right)^2 \right) est 0\displaystyle \ge 0. Or, par linéarité, on remarque que P(t)=E(X+2t+t2X)=E(X)+2t+E(1X)t2.P(t) = \mathbb{E}\left(X+2t+\frac{t^2}{X}\right) = \mathbb{E}(X)+2t+\mathbb{E}\left(\frac{1}{X}\right) t^2. La fonction tP(t)\displaystyle t \mapsto P(t) est donc une fonction polynomiale de degré 2\displaystyle 2 et 0\displaystyle \ge 0 sur R\displaystyle \mathbb{R}. On sait alors que son discriminant est négatif, ce qui s’écrit 44E(X)E(1X)0\displaystyle 4-4\mathbb{E}(X) \mathbb{E}\left(\frac{1}{X}\right) \le 0, et on obtient immédiatement le résultat.

Exercice 192 ⭐️⭐️ X PC 2017

Soient (m,n)N2\displaystyle (m,n) \in \N^2 avec 1mn\displaystyle 1 \le m \le n, X1,,Xn\displaystyle X_1,\ldots,X_n des variables aléatoires indépendantes, identiquement distribuées, à valeurs dans R+\displaystyle \R^{+*}. Calculer E(X1++XmX1++Xn)\displaystyle \mathbb{E}\left(\frac{X_1+\cdots+X_m}{X_1+\cdots+X_n}\right).

C’est typiquement le genre d’exercice pour lequel l’étude explicite de cas particuliers (m,n\displaystyle m,n petits) s’avère à la fois simple et instructive pour le cas général !

Voici une preuve pour m=2\displaystyle m=2 et n=3\displaystyle n=3 qui permet de comprendre le mécanisme à l’oeuvre derrière la preuve générale : le vecteur aléatoire (X1,X2,X3)\displaystyle (X_1,X_2,X_3) est indépendant, on en déduit que les trois vecteurs aléatoires suivants ont tous la même loi : Z1=(X1,X2,X3) , Z2=(X2,X3,X1) , Z3=(X3,X1,X2).Z_1 = (X_1,X_2,X_3) \ , \ Z_2=(X_2,X_3,X_1) \ , \ Z_3 = (X_3,X_1,X_2). De plus, l’application ϕ:(R+)3R\displaystyle \phi : (\R^{+*})^3 \rightarrow \R définie par ϕ(u,v,w)=u+vu+v+w\displaystyle \phi(u,v,w) = \frac{u+v}{u+v+w}, est continue. On en déduit que la valeur de E[ϕ(Zi)]\displaystyle \mathbb{E}[\phi(Z_i)] ne dépend pas de i\displaystyle i : plus rigoureusement, si elle vaut +\displaystyle +\infty (resp. μ<\displaystyle \mu < \infty) pour un certain i0 in{1,,3}\displaystyle i_0 \ in\{1,\ldots,3\}, alors elle vaut +\displaystyle +\infty (resp. μ\displaystyle \mu) pour tout i{1,,3}\displaystyle i \in \{1,\ldots,3\}. On peut donc écrire :
E[ϕ(Z1)]=13i=13E[ϕ(Zi)]=E[13i=13ϕ(Zi)]=E[13(X1+X2)+(X2+X3)+(X3+X1)X1+X2+X3]=E[132X1+2X2+2X3X1+X2+X3]=E[23]=23.\displaystyle \begin{aligned}\mathbb{E}[\phi(Z_1)] &= \frac{1}{3} \sum_{i=1}^3 \mathbb{E}[\phi(Z_i)] \\ &= \mathbb{E}\left[\frac{1}{3} \sum_{i=1}^3 \phi(Z_i)\right] \\ &= \mathbb{E}\left[\frac{1}{3} \frac{(X_1+X_2)+(X_2+X_3)+(X_3+X_1)}{X_1+X_2+X_3}\right] \\ &= \mathbb{E}\left[\frac{1}{3} \frac{2X_1+2X_2+2X_3}{X_1+X_2+X_3} \right] \\ &= \mathbb{E}\left[\frac{2}{3}\right] \\ &= \frac{2}{3}.\end{aligned}

La preuve générale suit les mêmes lignes : pour i{1,,n}\displaystyle i \in \{1,\ldots,n\}, on considère le vecteur aléatoire Zi=(Xi+k)0kn1,Z_i=(X_{i+k}) _ {0 \le k \le n-1,} où les indices i+k\displaystyle i+k sont pris modulo n\displaystyle n. L’indépendance des Xi\displaystyle X_i implique que les vecteurs aléatoires Zi\displaystyle Z_i ont tous la même loi. On considère l’application ϕ:(R+)nR\displaystyle \phi : (\R^{+*})^n \rightarrow \R définie par ϕ(u1,,un)=u1++umu1++un\displaystyle \phi(u_1,\ldots,u_n) = \frac{u_1+\cdots+u_m}{u_1+\cdots+u_n}. On a en particulier ϕ(Zi)=k=0m1Xi+kk=0n1Xi+k=k=0m1Xi+kk=1nXk.\phi(Z_i) = \frac{\sum_{k=0}^{m-1} X_{i+k}}{\sum_{k=0}^{n-1} X_{i+k}} = \frac{\sum_{k=0}^{m-1} X_{i+k}}{\sum_{k=1}^n X_k}. Comme les variables aléatoires ϕ(Zi)\displaystyle \phi(Z_i) ont toutes la même loi, elles ont la même espérance (si elle existe), on peut donc écrire :
E[ϕ(Z1)]=E[1ni=1nϕ(Zi)]=E[1ni=1nk=ii+m1Xkk=1nXk]=E[1ni=1nk=0m1Xi+kX1++Xn].\displaystyle \begin{aligned} \mathbb{E}[\phi(Z_1)] &= \mathbb{E}\left[\frac{1}{n} \sum_{i=1}^n \phi(Z_i)\right] \\ &= \mathbb{E}\left[\frac{1}{n} \sum_{i=1}^n \frac{\sum_{k=i}^{i+m-1} X_k}{\sum_{k=1}^n X_k} \right] \\ &= \mathbb{E}\left[\frac{1}{n} \frac{\sum_{i=1}^n \sum_{k=0}^{m-1} X_{i+k}}{X_1+\cdots+X_n} \right]. \end{aligned}
Or, pour j{1,,n}\displaystyle j \in \{1,\ldots,n\} fixé il existe exactement m\displaystyle m couples d’indices (i,k)({1,,n}×{0,,m1})\displaystyle (i,k) \in (\{1,\ldots,n\} \times \{0,\ldots,m-1\}) tels que i+k=j\displaystyle i+k=j modulo n\displaystyle n : ce sont les couples de la forme (jk,k)\displaystyle (j-k,k), avec k{0,,m1}\displaystyle k \in \{0,\ldots,m-1\}. Ainsi on a i=1nk=0m1Xi+k=j=1nmXj\sum_{i=1}^n \sum_{k=0}^{m-1} X_{i+k} = \sum_{j=1}^n m X_j et on en déduit : E[ϕ(Z1)]=E[mn]=mn.\mathbb{E}[\phi(Z_1)] = \mathbb{E}\left[ \frac{m}{n}\right] = \frac{m}{n}.

Exercice 356 ⭐️⭐️⭐️ Processus de Poisson, L3/M1

Soient (Xn)n1\displaystyle (X_n)_{n\geq 1} une suite de v.a. définies sur (Ω,F,P)\displaystyle (\Omega,\mathcal F,\mathbb P), indépendantes et de même loi E(1)\displaystyle \mathcal E(1). On pose T0=0\displaystyle T_0=0 et :
n1, Tn=X1++Xn\forall n\geq 1,~T_n=X_1+\dots+X_n
On définit, pour t0\displaystyle t\geq 0 :
Nt=max{n0:Tnt}N_t=\max\{n\geq 0 : T_n\leq t\}

  1. Soit n1\displaystyle n\geq 1. Vérifier que la loi du n\displaystyle n-uplet (T1,,Tn)\displaystyle (T_1,\dots,T_n) est à densité par rapport à la mesure de Lebesgue, et déterminer cette densité.
    Donner au passage la loi de Tn\displaystyle T_n.
  2. En déduire la loi de Nt\displaystyle N_t pour t0\displaystyle t\geq 0.
  1. Loi d’un n\displaystyle n-uplet 👉 Exprimer E(f(T1,,Tn))\displaystyle \mathbb E(f(T_1,\dots,T_n)), faire un changement de varialbe pour pouvoir utiliser la loi de (X1,,Xn)\displaystyle (X_1,\dots,X_n).
  2. Exprimer {Nt=n}\displaystyle \{N_t=n\} à l’aide des variables Tn\displaystyle T_n. Utiliser alors la loi conjointe des Tn\displaystyle T_n, déterminée en 1.
  1. Soit f:RnR\displaystyle f:\R^n\to\R mesurable et positive. Le n\displaystyle n-uplet(X1,,Xn)\displaystyle (X_1,\dots,X_n) a pour densité e(x1++xn)\displaystyle e^{-(x_1+\dots+x_n)} par rapport à la mesure de Lebesgue sur R+n\displaystyle \R_+^n. On a
    E(f(T1,,Tn))=E(f(X1,,X1++Xn))=R+nf(x1,x1+x2,,x1++xn)e(x1++xn)dx1dxn\begin{aligned} \mathbb E(f(T_1,\dots,T_n))&=\mathbb E(f(X_1,\dots,X_1+\dots+X_n)) \\ &=\int_{\R_+^n}f(x_1,x_1+x_2,\dots,x_1+\dots+x_n)e^{-(x_1+\dots+x_n)}dx_1\dots dx_n \\ \end{aligned}
    L’application ϕ:(x1,,xn)(x1,,x1++xn)\displaystyle \phi:(x_1,\dots,x_n)\mapsto (x_1,\dots,x_1+\dots+x_n) est linéaire (donc C1\displaystyle \mathcal C^1), de déterminant 1\displaystyle 1, et réalise une bijection de R+n\displaystyle \R_+^n vers l’ensemble Δn={(y1,,yn)R+n : y1yn}.\displaystyle \Delta_n=\{(y_1,\dots,y_n)\in\R_+^n~:~y_1\leq\dots\leq y_n\}. D’après la formule de changement de variable on a donc E(f(T1,,Tn))=Δnf(y1,,yn)eyndy1dyn. \mathbb E(f(T_1,\dots,T_n))=\int_{\Delta_n} f(y_1,\dots,y_n)e^{-y_n}dy_1\dots dy_n.
    Le n\displaystyle n-uplet(T1,,Tn)\displaystyle (T_1,\dots,T_n) a donc pour densité eyn1{y1yn}\displaystyle e^{-y_n}\mathbb{1}_{\{y_1\leq\dots\leq y_n\}} par rapport à la mesure de Lebesgue sur R+n\displaystyle \R_+^n.
    En particulier pour u:RR\displaystyle u:\R\to\R mesurable et positive,
    E(u(Tn))=Δnu(yn)eyndy1dyn. \mathbb E(u(T_n))=\int_{\Delta_n} u(y_n)e^{-y_n}dy_1\dots dy_n.
    Avec le théorème de Tonelli, on peut intégrer successivement par rapport à y1,,yn\displaystyle y_1,\dots,y_n :
    E(u(Tn))=0+(0yn( ⁣0y2u(yn)eyndy1)dyn1)dyn. \mathbb E(u(T_n))=\int_0^{+\infty}\left(\int_0^{y_n}\left(\dots\int_0^{y_2}u(y_n)e^{-y_n}dy_1\right)\dots dy_{n-1}\right)dy_n. Or on peut calculer :
    0yn(0y21.dy1)dyn1=0yn(0y3y2 dy2)dyn1=0yn(0y4y322 dy3)dyn1=()=0yn(yn1)n2(n2)! dyn1=(yn)n1(n1)!.\begin{aligned} \int_0^{y_n}\dots\left(\int_0^{y_2}1.dy_1\right)\dots dy_{n-1}&= \int_0^{y_n}\dots\left(\int_0^{y_3}y_2~dy_2\right)\dots dy_{n-1}\\ &= \int_0^{y_n}\dots\left(\int_0^{y_4}\frac{y_3^2}{2}~dy_3\right)\dots dy_{n-1} \\ &=(\dots)\\ & = \int_0^{y_n}\frac{(y_{n-1})^{n-2}}{(n-2)!}~dy_{n-1}\\ & = \frac{(y_{n})^{n-1}}{(n-1)!}. \end{aligned}
    Finalement, E(u(Tn))=0+(yn)n1(n1)!u(yn)eyndyn\displaystyle \mathbb E(u(T_n)) = \int_0^{+\infty}\frac{(y_{n})^{n-1}}{(n-1)!}u(y_n)e^{-y_n}dy_n.
    Donc la loi de Tn\displaystyle T_n a pour densité tn1(n1)!et\displaystyle \frac{t^{n-1}}{(n-1)!}e^{-t} par rapport à la mesure de Lebsesgue sur R+\displaystyle \R_+.
    Note. Cette loi porte le nom de loi Gamma de paramètre n\displaystyle n. On comprendra aisément cette dénomination si on connaît la fonction Gamma.
  2. Soit n1\displaystyle n\geq 1. La suite (Tn)\displaystyle (T_n) est croissante presque sûrement, donc :
    P(Nt=n)=P(Tnt,Tn+1>t) =(R+)n+1etn+11{t1tn+1}1{tn+1>t}1{tnt}dt1dtn+1=(R+)n1{t1tnt}(R+etn+11{tn+1t}dtn+1)=etdt1dtn=et(R+)n1{t1tnt}dt1dtn.\begin{aligned} \mathbb P(N_t=n)&= \mathbb P(T_n\leq t,T_{n+1}>t) \ \\ & = \int_{(\R_+)^{n+1}}e^{-t_{n+1}}\mathbb 1_{\{t_1\leq\dots\leq t_{n+1}\}}\mathbb 1_{\{t_{n+1}>t\}}\mathbb 1_{\{t_n\leq t\}}dt_1\dots dt_{n+1}\\ &= \int_{(\R_+)^{n}}\mathbb 1_{\{t_1\leq\dots\leq t_{n}\leq t\}}\underbrace{\left(\int_{\R_+} e^{-t_{n+1}}\mathbb 1_{\{t_{n+1}\geq t\}}dt_{n+1}\right)}_{=e^{-t}}dt_1\dots dt_n\\ &= e^{-t}\int_{(\R_+)^{n}}\mathbb 1_{\{t_1\leq\dots\leq t_{n}\leq t\}}dt_1\dots dt_n. \end{aligned}
    Le même calcul qu’à la question 1. donne ainsi P(Nt=n)=tnn!et\displaystyle \mathbb P(N_t=n)=\frac{t^n}{n!}e^{-t}.
    Pour n=0\displaystyle n=0 on vérifie aisément que cette égalité a encore lieu : P(Nt=0)=P(X1>t)=et\displaystyle \mathbb P(N_t=0)=\mathbb P(X_1>t)=e^{-t}.
    Conclusion. Nt\displaystyle N_t suit la loi de Poisson de paramètre t\displaystyle t.

Exercice 357 ⭐️⭐️ Convergence en loi, L3

Soit (Un)n1\displaystyle (U_n)_{n\geq 1} une suite de v.a.r. indépendantes, toutes de loi uniforme sur [0;1]\displaystyle [0;1]. On note
Yn=min(U1,,Un).Y_n=\min(U_1,\dots, U_n).

  1. Montrer que Yn\displaystyle Y_n converge presque sûrement vers 0\displaystyle 0.
  2. Montrer que (n Yn)n1\displaystyle (n~Y_n)_{n\geq 1} converge en loi et préciser la loi limite.
  1. Convergence presque sûre de Yn\displaystyle Y_n vers Y\displaystyle Y 👉 Convergence de la série P(YnY>ε)\displaystyle \sum \mathbb P(|Y_n-Y|>\varepsilon).
  2. Convergence en loi 👉 Convergence ponctuelle des fonctions de répartition (en tout point de continuité de la fonction de répartition limite).
  1. Soit ε]0;1]\displaystyle \varepsilon\in]0;1]. On a P(Yn>ε)=P(U1>ε,,Un>ε)=k=1nP(Uk>ε)=(1ε)n\displaystyle \mathbb P(|Y_n|>\varepsilon)=\mathbb P(U_1>\varepsilon,\dots,U_n>\varepsilon)=\prod_{k=1}^n\mathbb P(U_k>\varepsilon)=(1-\varepsilon)^n, car les Uk\displaystyle U_k sont indépendantes.
    Comme 1ε[0;1[\displaystyle 1-\varepsilon\in[0;1[, la série P(Yn>ε)\displaystyle \sum \mathbb P(|Y_n|>\varepsilon) est convergente, donc Yn0\displaystyle Y_n\to 0 presque sûrement.
  2. Soit y>0\displaystyle y>0. En remplaçant ε\displaystyle \varepsilon par y/n\displaystyle y/n dans le calcul précédent, on obtient (dès que n>y\displaystyle n>y donc à partir d’un certain rang) : P(n Yn>y)=(1yn)n=exp(n ln(1yn))=exp(y+o(1))ey,\mathbb P(n~Y_n>y)=\left(1-\frac{y}{n}\right)^n=\exp\left(n~\ln\left(1-\frac{y}{n}\right)\right)=\exp\left(-y +o(1)\right)\to e^{-y}, et pour y0\displaystyle y\leq 0, cette probabilité vaut évidemment 1\displaystyle 1. On reconnaît l’expression de P(X>y)\displaystyle \mathbb P(X>y) pour une v.a. X\displaystyle X de loi E(1)\displaystyle \mathcal E(1). Ainsi (n Yn)n1\displaystyle (n~Y_n)_{n\geq 1} converge en loi vers une v.a. de loi E(1)\displaystyle \mathcal E(1).

Exercice 395 ⭐️ Espérance exponentielle de gaussienne, ECS2/L3

Soit XN(0,σ2)\displaystyle X\sim \mathcal N(0,\sigma^2). Montrer que  E[eX]=eσ2/2.\displaystyle \ \mathbb E[e^X]=e^{\sigma^2/2}.

Formule de transfert !

On a E[eX]=12π σexex2/(2σ2)dx\displaystyle \mathbb E[e^X]=\frac{1}{\sqrt{2\pi}\ \sigma}\int_{-\infty}^\infty e^x e^{-x^2/(2\sigma^2)}dx. De plus xx22σ2=12σ2(x22σ2x)=12σ2((xσ2)2σ4).\begin{aligned} x-\frac{x^2}{2\sigma^2}&=-\frac{1}{2\sigma^2}(x^2-2\sigma^2 x) \\ &=-\frac{1}{2\sigma^2}((x-\sigma^2 )^2-\sigma^4).\end{aligned} Ainsi E[eX]=eσ2/22π σe(xσ2)2/(2σ2)dx=eσ2/2\displaystyle \mathbb E[e^X]=\frac{e^{\sigma^2/2}}{\sqrt{2\pi}\ \sigma}\int_{-\infty}^\infty e^{-(x-\sigma^2)^2/(2\sigma^2)}dx=e^{\sigma^2/2}, en faisant le changement de variable y=xσ2\displaystyle y=x-\sigma^2.

Exercice 413 ⭐️ Loi Gamma et loi exponentielle, ECS2/L3

Soit X1,,Xn\displaystyle X_1,\cdots,X_n des v.a. i.i.d. de loi E(λ)\displaystyle \mathcal E(\lambda). Déterminer la loi de Sn=k=1nXk\displaystyle S_n=\sum_{k=1}^nX_k.

Loi d’une somme de v.a. à densité 👉 Formule pour la densité fX+Y(t)=RfX(s)fY(ts)ds\displaystyle f_{X+Y}(t)=\int_\R f_X(s)f_Y(t-s) ds

Notons f1:tλeλt1R+(t)\displaystyle f_1:t\mapsto \lambda e^{-\lambda t}\mathbb{1}_{\R_+}(t), la densité de E(λ)\displaystyle \mathcal E(\lambda), et fn\displaystyle f_n la densité de Sn\displaystyle S_n. Comme Sn\displaystyle S_n est à valeurs positives, précisons tout de suite que fn\displaystyle f_n est nulle sur ];0[\displaystyle ]-\infty;0[.
\displaystyle \bullet Cas n=2\displaystyle n=2.
S2\displaystyle S_2 a pour densité la fonction f2\displaystyle f_2 donnée par t0,  f2(t)=0tλeλsλeλ(ts)ds=λ2teλt.\forall t\geq 0,~~f_2(t)=\int_{0}^t\lambda e^{-\lambda s}\lambda e^{-\lambda(t-s)}ds = \lambda^2 te^{-\lambda t}. \displaystyle \bullet Cas n=3\displaystyle n=3.
S3=S2+X3\displaystyle S_3=S_2+X_3 a pour densité la fonction f3\displaystyle f_3 donnée par t0,  f3(t)=0tf2(s)f1(ts)ds=0tλ2seλsλeλ(ts)ds=λ3eλt0ts ds=λ32t2eλt.\forall t\geq 0,~~f_3(t)=\int_{0}^tf_2(s)f_1(t-s)ds = \int_{0}^t\lambda^2 s e^{-\lambda s}\lambda e^{-\lambda(t-s)}ds = \lambda^3 e^{-\lambda t} \int_0^t s~ds= \frac{\lambda^3}{2}t^2 e^{-\lambda t}.
\displaystyle \bullet Montrons par récurrence que pour n1\displaystyle n\geq 1, Sn\displaystyle S_n a pour densité fn\displaystyle f_n donnée par : t0,  fn(t)=λn(n1)!tn1eλt.\forall t\geq 0,~~f_n(t)= \frac{\lambda^n}{(n-1)!}t^{n-1} e^{-\lambda t}. Il reste à vérifier l’hérédité. Si on suppose cette propriété vérifiée par Sn\displaystyle S_n, alors Sn+1\displaystyle S_{n+1} a pour densité fn+1\displaystyle f_{n+1} donnée par
t0,  fn+1(t)=0tfn(s)f1(ts)ds=0tλn(n1)!sn1eλsλeλ(ts)ds=λn+1(n1)!eλt0tsn1ds.\forall t\geq 0,~~f_{n+1}(t)=\int_{0}^tf_n(s)f_1(t-s)ds = \int_{0}^t \frac{\lambda^n}{(n-1)!}s^{n-1}e^{-\lambda s}\lambda e^{-\lambda(t-s)}ds = \frac{\lambda^{n+1}}{(n-1)!} e^{-\lambda t} \int_0^t s^{n-1}ds. Or 0tsn1ds=tnn\displaystyle \int_0^t s^{n-1}ds=\frac{t^n}{n} donc finalement t0, fn+1(t)=λn+1n!tneλt\displaystyle \forall t\geq 0,~f_{n+1}(t) = \frac{\lambda^{n+1}}{n!} t^ne^{-\lambda t}.

Exercice 414 ⭐️⭐️⭐️ Produit de loi uniforme i.i.d., ECS2/L3

Soit X1,,Xn\displaystyle X_1,\cdots,X_n des v.a. i.i.d. de loi U([0,1])\displaystyle \mathcal U([0,1]). Déterminer la loi de Zn=(k=1nXk)1/n\displaystyle Z_n=\left(\prod_{k=1}^nX_k\right)^{1/n}, son espérance et sa variance.

Produit 👉 Passer au log.
Identifier la loi de ln(Xk)\displaystyle -\ln(X_k) comme une loi connue. La loi d’une somme de v.a. exponentielles indépendantes est encore une loi connue !

\displaystyle \bullet Notons Pn=k=1nXk\displaystyle P_n=\prod_{k=1}^nX_k. On peut remarquer que les v.a. Yk=ln(Xk)\displaystyle Y_k=-\ln(X_k) suivent la loi E(1)\displaystyle \mathcal E(1) car : t0,  P(Ykt)=P(Xket)=et.\forall t\geq 0,~~\mathbb P(Y_k\geq t) = \mathbb P(X_k\leq e^{-t})=e^{-t}. Les Yk\displaystyle Y_k étant de plus indépendantes, Y1++Yn\displaystyle Y_1+\dots+Y_n suit la loi γ(n)\displaystyle \gamma(n), de densité tn1(n1)!et\displaystyle \frac{t^{n-1}}{(n-1)!}e^{-t} sur R+\displaystyle \R_+.
(En ECS2 c’est du cours, sinon c’est l’objet de l’exo 413).
\displaystyle \bullet Pour t[0;1]\displaystyle t\in[0;1], P(Znt)=P(Pntn)=P(Y1++Ynnln(t))=nln(t)+sn1(n1)!esds\displaystyle \mathbb P(Z_n\leq t)=\mathbb P(P_n\leq t^n) = \mathbb P(Y_1+\dots+Y_n\geq -n\ln(t))=\int_{-n\ln(t)}^{+\infty}\frac{s^{n-1}}{(n-1)!}e^{-s}ds.
Signalons que Zn\displaystyle Z_n appartient à [0;1]\displaystyle [0;1] avec probabilité 1\displaystyle 1. En dérivant, on trouve la densité fn\displaystyle f_n de Zn\displaystyle Z_n sur [0;1]\displaystyle [0;1] : fn(t)=(nt)(nln(t))n1(n1)!enln(t)=nn(n1)!tn1(lnt)n1.f_n(t)=-\left(\frac{-n}t\right)\frac{(-n\ln(t))^{n-1}}{(n-1)!}e^{n\ln(t)}=\frac{n^n}{(n-1)!}t^{n-1}(-\ln t)^{n-1}. \displaystyle \bullet Une succession de n\displaystyle n intégrations par parties (non détaillée ici) donne, pour p,nN\displaystyle p,n\in\N : 01tn(lnt)pdt=(1)pp!(n+1)p+1.\int_0^1t^n(\ln t)^pdt=\frac{(-1)^p p!}{(n+1)^{p+1}}. Ainsi E(Zn)=nn(n1)!(1)n101tn(lnt)n1dt=nn(n1)!(1)n1(1)n1(n1)!(n+1)n=(nn+1)n\displaystyle \mathbb E(Z_n) = \frac{n^n}{(n-1)!}(-1)^{n-1}\int_0^1 t^n(\ln t)^{n-1}dt = \frac{n^n}{(n-1)!}(-1)^{n-1} \frac{(-1)^{n-1}(n-1)!}{(n+1)^n}=\left(\frac{n}{n+1}\right)^n.
Un calcul similaire donne E(Zn2)=(nn+2)n\displaystyle \mathbb E(Z_n^2) =\left(\frac{n}{n+2}\right)^n. Ainsi V(Zn)=(nn+2)n(nn+1)2n\displaystyle \mathbb V(Z_n)=\left(\frac{n}{n+2}\right)^n-\left(\frac{n}{n+1}\right)^{2n}