Variables aléatoires discrètes

Exercice 73 ⭐️⭐️ Loi de Poisson, Spé/L2

Soit XP(λ)\displaystyle X\sim \mathcal P(\lambda) et YP(μ)\displaystyle Y\sim \mathcal P(\mu) indépendantes.

  1. Déterminer la loi de X+Y\displaystyle X+Y directement ou grâce aux fonctions génératrices.
  2. Déterminer la loi conditionnelle de X\displaystyle X sachant {X+Y=n}\displaystyle \{X + Y = n\}.
  3. Etudier l’existence et calculer E[XY]\displaystyle \mathbb E[X^Y].
  1. On a P(X+Y=k)=j=0kP(X=j,Y=kj)=j=0kP(X=j)P(Y=kj)\displaystyle P(X+Y=k)=\sum_{j=0}^kP(X=j,Y=k-j)=\sum_{j=0}^kP(X=j)P(Y=k-j), la dernière égalité venant de l’indépendance de X\displaystyle X et Y\displaystyle Y.
    Donc P(X+Y=k)=eλeμj=0kλjj!μkj(kj)!=eλμ(λ+μ)kk!\displaystyle P(X+Y=k)=e^{-\lambda}e^{-\mu}\sum_{j=0}^k\frac{\lambda^j}{j!}\frac{\mu^{k-j}}{(k-j)!}=e^{-\lambda-\mu}\frac{(\lambda+\mu)^k}{k!}, d’après la formule du binôme. Ainsi X+YP(λ+μ)\displaystyle X+Y\sim \mathcal P(\lambda+\mu).
  2. On doit calculer P(X=kX+Y=n)=P(X=k,X+Y=n)P(X+Y=n)=P(X=k,Y=nk)P(X+Y=n)=P(X=k)P(Y=nk)P(X+Y=n)\displaystyle P(X=k|X+Y=n)=\frac{P(X=k,X+Y=n)}{P(X+Y=n)}=\frac{P(X=k,Y=n-k)}{P(X+Y=n)}=\frac{P(X=k)P(Y=n-k)}{P(X+Y=n)}, la dernière égalité venant de l’indépendance de X\displaystyle X et Y\displaystyle Y.
    Donc P(X=kX+Y=n)=eλλkk!eμμnk(nk)!eλ+μn!(λ+μ)n\displaystyle P(X=k|X+Y=n)=e^{-\lambda}\frac{\lambda^k}{k!}e^{-\mu}\frac{\mu^{n-k}}{(n-k)!}e^{\lambda+\mu}\frac{n!}{(\lambda+\mu)^n}, d’où P(X=kX+Y=n)=(nk)λkμnk(λ+μ)n=(nk)(λλ+μ)k(μλ+μ)nk.P(X=k|X+Y=n)={n\choose k}\frac{\lambda^k\mu^{n-k}}{(\lambda+\mu)^n} = {n\choose k}\left(\frac{\lambda}{\lambda+\mu}\right)^k\left(\frac{\mu}{\lambda+\mu}\right)^{n-k}. On reconnait la loi binomiale B(n,λ/(λ+μ))\displaystyle \mathcal B(n,\lambda/(\lambda+\mu)).
  3. Par le théorème de transfert, l’espérance si elle existe vaut :
    E[XY]=k,jNkjP(X=k,Y=j)=k,jNkjeλλkk!eμμjj!\displaystyle \mathbb E[X^Y]=\sum_{k,j\in\N}k^jP(X=k,Y=j)=\sum_{k,j\in\N}k^je^{-\lambda}\frac{\lambda^k}{k!}e^{-\mu}\frac{\mu^{j}}{j!}.
    Or jN(kμ)jj!=ekμ\displaystyle \sum_{j\in\N}\frac{(k\mu)^{j}}{j!}=e^{k\mu} et kN(eμλ)kk!=eλeμ\displaystyle \sum_{k\in\N}\frac{(e^\mu\lambda)^{k}}{k!}=e^{\lambda e^{\mu}}, donc par le théorème de Fubini, EXY<\displaystyle \mathbb E|X^Y|<\infty et E[XY]=eλeμλμ\displaystyle \mathbb E[X^Y]=e^{\lambda e^{\mu}-\lambda-\mu}.

Exercice 74 ⭐️ Loi de couple, Spé/L2

  1. Montrer que la famille (pi,j)i0,j0\displaystyle (p_{i,j})_{i\ge0, j\ge0} avec pi,j=e1(i+j+1)!\displaystyle p_{i,j}=\frac{e^{-1}}{(i + j + 1)!} définit la loi de probabilité d’un couple (X,Y)\displaystyle (X, Y) à valeurs dans N2\displaystyle \N^2.
  2. Déterminer la loi de X+Y\displaystyle X + Y.
  3. Déterminer la loi conditionnelle de X\displaystyle X sachant {X+Y=n}\displaystyle \left\{X +Y = n\right\}.
  1. Réels positifs dont la somme vaut 1\displaystyle 1.
  2. Probas totales
  3. Appliquer la définition de probabilité conditionnelle.
  1. Clairement les réels pi,j\displaystyle p_{i,j} sont positifs. Il reste à vérifier que pour tout i0\displaystyle i\ge 0, j0pi,j\displaystyle \sum_{j\ge 0} p_{i,j} est convergente, et que i=0+j=0+pi,j=1\displaystyle \sum_{i=0}^{+\infty}\sum_{j=0}^{+\infty} p_{i,j}=1.
    On a
    i=0+j=0+e1(i+j+1)!=1ei=0+j=i+1+1j!=1ej=1+i=0j11j!=1ej=1+jj!=1ej=1+1(j1)!=1.\begin{aligned} \sum_{i=0}^{+\infty}\sum_{j=0}^{+\infty} \frac{e^{-1}}{(i + j + 1)!} & =\frac 1e\sum_{i=0}^{+\infty}\sum_{j=i+1}^{+\infty} \frac{1}{j!}\\ &=\frac 1e\sum_{j=1}^{+\infty}\sum_{i=0}^{j-1} \frac{1}{j!}\\ &=\frac 1e\sum_{j=1}^{+\infty} \frac{j}{j!}\\ &=\frac 1e\sum_{j=1}^{+\infty} \frac{1}{(j-1)!} =1. \end{aligned}
  2. X+Y\displaystyle X+Y est à valeurs dans N\displaystyle \N, et pour kN\displaystyle k\in\N,
    P(X+Y=k)=i=0kP(X=i,Y=ki)=1ei=0k1(k+1)!=1e(k+1)(k+1)!=1e k!.\begin{aligned} \mathbb P(X+Y=k) & =\sum_{i=0}^{k}\mathbb P(X=i,Y=k-i)\\ &=\frac 1e\sum_{i=0}^{k}\frac{1}{(k+ 1)!}\\ &=\frac 1e\frac{(k+1)}{(k+ 1)!}=\frac{1}{e~k!}. \end{aligned} On reconnaît la loi de Poisson de paramètre 1\displaystyle 1.
  3. Soit nN\displaystyle n\in\N et k[ ⁣[0;n] ⁣]\displaystyle k\in[\![0;n]\!]. On a
    P(X=kX+Y=n)=P(X=k,X+Y=n)P(X+Y=n)=P(X=k,Y=nk)P(X+Y=n)=e1(n+1)!n!e1=1n+1.\begin{aligned} \mathbb P(X=k|X+Y=n) & = \frac{\mathbb P(X=k,X+Y=n)}{\mathbb P(X+Y=n)}\\ &=\frac{\mathbb P(X=k,Y=n-k)}{\mathbb P(X+Y=n)}\\ &=\frac{e^{-1}}{(n + 1)!}\frac{n!}{e^{-1}} = \frac{1}{n+1}. \end{aligned} On reconnaît la loi uniforme sur [ ⁣[0;n] ⁣]\displaystyle [\![0;n]\!].

Exercice 75 ⭐️ Espérance Variance Binomiale, Sup/L1

Soit X\displaystyle X une v.a. binomiale B(n,p)\displaystyle \mathcal B(n,p). Calculer sa fonction génératrice g:sE[sX]\displaystyle g:s\mapsto \mathbb E[s^X].
Retrouver alors les valeurs de E[X]\displaystyle E[X] et Var(X)\displaystyle {\rm Var}(X).

On a g(s)=E[sX]=k=0nsk(nk)pk(1p)nk=k=0n(nk)(sp)k(1p)nk=(sp+1p)n\displaystyle g(s)=\mathbb E[s^X]=\sum_{k=0}^n s^{k}{n\choose k}p^k(1-p)^{n-k}=\sum_{k=0}^n {n\choose k}(sp)^k(1-p)^{n-k}=(sp+1-p)^n. De plus, en dérivant par rapport à s\displaystyle s la somme finie, on obtient g(1)=E[X]\displaystyle g'(1)=E[X] et g(1)=k=1nk(k1)P(X=k)=E[X2]E[X]\displaystyle g''(1)=\sum_{k=1}^n k(k-1)P(X=k)=E[X^2]-E[X]. De g(s)=np(sp+1p)n1\displaystyle g'(s)=np(sp+1-p)^{n-1} et g(s)=n(n1)p2(sp+1p)n2\displaystyle g''(s)=n(n-1)p^2(sp+1-p)^{n-2}, on déduit E[X]=np\displaystyle E[X]=np et n(n1)p2=E[X2]np\displaystyle n(n-1)p^2=E[X^2]-np. Ainsi Var(X)=E[X2]E[X]2=n(n1)p2+npn2p2=npnp2=np(1p)\displaystyle Var(X)=E[X^2]-E[X]^2=n(n-1)p^2+np-n^2p^2=np-np^2=np(1-p), et on reconnaît bien l’espérance et la variance d’une binomiale.

Exercice 77 ⭐️⭐️ Marche aléatoire, Spé/L3

Soit (Xn)\displaystyle (X_n) une suite de v.a. de Bernoulli symétriques i.i.d. telles que P(Xn=1)=p\displaystyle P(X_n=1)=p et P(Xn=1)=1p\displaystyle P(X_n=-1)=1-p avec p]0,1[\displaystyle p\in]0,1[ et p1/2\displaystyle p\neq 1/2. On pose S0=0\displaystyle S_0=0 et Sn=X1++Xn\displaystyle S_n=X_1+\cdots +X_n. On définit l’événement "retour en 0\displaystyle 0 au temps n\displaystyle n": An={Sn=0}\displaystyle A_n=\{S_n=0\}.

  1. Décrire l’événement lim supnAn=n0knAk\displaystyle \limsup_{n\to \infty}A_n=\bigcap_{n\ge0}\bigcup_{k\ge n}A_k ;
  2. Montrer que P(lim supnAn)=0\displaystyle P\left(\limsup_{n\to \infty} A_n\right)=0.
  1. L’événement lim An\displaystyle \overline{\lim}\ A_n est l’ensemble des ωΩ\displaystyle \omega\in\Omega tels que la trajectoire (Xn(ω))n\displaystyle (X_n(\omega))_n repasse une infinité de fois par 0\displaystyle 0.
  2. On remarque que si n\displaystyle n est impair P(An)=0\displaystyle P(A_n)=0. De plus P(A2n)=C2nnpn(1p)n\displaystyle P(A_{2n})=C_{2n}^n p^n(1-p)^n (proba binomiale) et donc
    P(A2n+2)P(A2n)=(2n+1)(2n+2)(n+1)2p(1p)n4p(1p)<1, \frac{P(A_{2n+2})}{P(A_{2n})}=\frac{(2n+1)(2n+2)}{(n+1)^2}p(1-p) \xrightarrow[n\to\infty]{} 4p(1-p)<1, où la dernière inégalité est obtenue par une rapide étude de fonction (et p1/2\displaystyle p\neq 1/2).
    Par le critère de d’Alembert, on en déduit que n1P(A2n)<+\displaystyle \sum_{n\ge 1}P(A_{2n})<+\infty, et on conclut par le lemme de Borel-Cantelli.

Exercice 78 ⭐️⭐️⭐️ Grandes déviations, Sup/Spé/L2

Soit X\displaystyle X une v.a. finie. La transformée de Laplace de X\displaystyle X est définie par :
tR,  LX(t)=E(etX).\forall t\in\R,~~L_X(t)=\mathbb E \left(e^{tX}\right).

  1. Montrer que pour tout nN\displaystyle n\in\N, E(Xn)=LX(n)(0)\displaystyle \mathbb E(X^n)=L_X^{(n)}(0).
  2. Montrer que la fonction ΛX:tlnLX(t)\displaystyle \Lambda_X : t\mapsto \ln L_X(t) est convexe.
  3. Soit Y\displaystyle Y une v.a. finie telle que LY=LX\displaystyle L_Y=L_X. Montrer que X\displaystyle X et Y\displaystyle Y ont même loi.
  4. Dans la suite on fixe r>E(X)\displaystyle r>\mathbb E(X).
    Montrer que αr=supt>0(trΛX(t))\displaystyle \alpha_r=\sup_{t>0} (tr-\Lambda_X(t)) est dans R+\displaystyle \R_+^* ou vaut \displaystyle \infty.
  5. Soit (Xn)n1\displaystyle (X_n)_{n\ge 1} une suite de v.a. indépendantes, de même loi que X\displaystyle X, et Sn=X1++Xn\displaystyle S_n=X_1+\cdots+ X_n.
    Montrer que pour tout n1\displaystyle n\ge 1, P(Sn>nr)enαr\displaystyle \mathbb P\left(S_n > nr\right) \le e^{-n\alpha_r} (avec la convention e=0\displaystyle e^{-\infty}=0).
  1. Espérance d’une fonction de X\displaystyle X 👉 Transfert !
  2. Signe de la dérivée seconde.
  3. Commencer par écrire l’égalité pour tout t\displaystyle t. Ensuite, analyser la situation.
  4. Que sait-on des valeurs de trΛX(t)\displaystyle tr-\Lambda_X(t) ? Par exemple pour t>0\displaystyle t>0 petit ?
  5. Majorer une proba 👉 Inégalité de Markov, d’une façon ou d’une autre.
  1. Notons X(Ω)={x1,,xp}\displaystyle X(\Omega)=\{x_1,\dots, x_p\} avec x1<<xp\displaystyle x_1<\dots<x_p. Par théorème de transfert, tR, LX(t)=k=1petxkP(X=xk).\forall t\in\R,~L_X(t)=\sum_{k=1}^pe^{tx_k}\mathbb P(X=x_k). Ainsi LX(n)(t)=k=1pxkn  etxkP(X=xk)\displaystyle L_X^{(n)}(t)=\sum_{k=1}^p x_k^n~~e^{tx_k}\mathbb P(X=x_k), donc LX(n)(0)=k=1pxkn P(X=xk)=E(Xn)\displaystyle L_X^{(n)}(0)=\sum_{k=1}^p x_k^n~\mathbb P(X=x_k) = \mathbb E(X^n).
  2. ΛX\displaystyle \Lambda_X est de classe C2\displaystyle \mathscr C^2 sur R\displaystyle \R (ln\displaystyle \ln est de classe C2\displaystyle \mathscr C^2, et LX\displaystyle L_X aussi, et LX\displaystyle L_X est bien à valeurs dans ]0;+[\displaystyle ]0;+\infty[). Les calculs donnent : tR,  ΛX(t)=LX(t)LX(t)LX(t)2LX(t)2.\forall t\in\R,~~\Lambda_X''(t)=\frac{L_X''(t)L_X(t)-L_X'(t)^2}{L_X(t)^2}.
    Or avec Cauchy-Schwarz : LX(t)2=(k=1pxk etxkP(X=xk))2=(k=1pxk etxkP(X=xk)×etxkP(X=xk))2(k=1pxk2 etxkP(X=xk))(k=1p etxkP(X=xk))=LX(t)LX(t).\begin{aligned} L_X'(t)^2 & = \left(\sum_{k=1}^p x_k~e^{tx_k}\mathbb P(X=x_k)\right)^2\\ &=\left(\sum_{k=1}^p x_k~\sqrt{e^{tx_k}\mathbb P(X=x_k)}\times \sqrt{e^{tx_k}\mathbb P(X=x_k)}\right)^2\\ &\le\left(\sum_{k=1}^p x_k^2~e^{tx_k}\mathbb P(X=x_k)\right)\left(\sum_{k=1}^p ~e^{tx_k}\mathbb P(X=x_k)\right)\\ & = L_X''(t)L_X(t). \end{aligned}
    Ceci montre que ΛX\displaystyle \Lambda_X'' est positive sur R\displaystyle \R, donc que ΛX\displaystyle \Lambda_X est convexe.
  3. Quitte à considérer X(Ω)Y(Ω)\displaystyle X(\Omega)\cup Y(\Omega), avec P(X=x)=0\displaystyle \mathbb P(X=x)=0 pour xY(Ω)X(Ω)\displaystyle x\in Y(\Omega)\setminus X(\Omega) et vice versa, on peut supposer que Y(Ω)=X(Ω)\displaystyle Y(\Omega)=X(\Omega).
    Notons pk=P(X=xk)\displaystyle p_k=\mathbb P(X=x_k) et qk=P(Y=xk)\displaystyle q_k=\mathbb P(Y=x_k), pour alléger. Par hypothèse,tR,  k=1petxkpk=k=1petxkqk.\forall t\in\R,~~\sum_{k=1}^p e^{tx_k}p_k = \sum_{k=1}^p e^{tx_k} q_k. Raisonnons par l’absurde : on suppose (p1,,pp)(q1,,qp)\displaystyle (p_1,\dots,p_p)\neq(q_1,\dots,q_p). Soit i\displaystyle i le plus petit indice tel que piqi\displaystyle p_i\ne q_i. Alors tR,  k=ipetxkpk=k=ipetxkqk.\forall t\in\R,~~\sum_{k=i}^p e^{tx_k}p_k = \sum_{k=i}^p e^{tx_k}q_k. tR,  pi+k=i+1pet(xkxi)pk=qi+k=i+1pet(xkxi)qk.\forall t\in\R,~~p_i+\sum_{k=i+1}^p e^{t(x_k-x_i)}p_k = q_i+\sum_{k=i+1}^p e^{t(x_k-x_i)}q_k. En faisant tendtre t\displaystyle t\to-\infty, on obtient pi=qi\displaystyle p_i=q_i : Contradiction !
    Donc (p1,,pp)=(q1,,qp)\displaystyle (p_1,\dots,p_p)=(q_1,\dots,q_p).
    Remarque — Nous venons de montrer, et c’est un exercice classique, que les fonctions tetxk\displaystyle t\mapsto e^{tx_k} forment une famille libre.
  4. Posons ϕ:ttrΛX(t)\displaystyle \phi : t\mapsto tr-\Lambda_X(t). On a ϕ(0)=rLX(0)LX(0)=rE(X)>0\displaystyle \phi'(0)=r-\frac{L'_X(0)}{L_X(0)}=r-\mathbb E(X)>0.
    De plus ϕ(0)=0\displaystyle \phi(0)=0, donc ϕ(t)t0+(rE(X))t\displaystyle \phi(t)\underset{t\to 0^+}\sim\left(r-\mathbb E(X)\right)t, et donc pour t>0\displaystyle t>0 suffisamment petit on a ϕ(t)>0\displaystyle \phi(t)>0. Par conséquent supt>0ϕ(t)\displaystyle \sup_{t>0}\phi(t) est strictement positif.
  5. Soit t>0\displaystyle t>0 fixé. Comme xetx\displaystyle x\mapsto e^{tx} est strictement croissante, on a :
    P(Sn>nr)=P(etSn>enrt)enrtE(etSn)(ineˊg. de Markov)\begin{aligned} \mathbb P(S_n>nr) & = \mathbb P(e^{t S_n}>e^{nrt}) \\ & \le e^{-nrt}\mathbb E(e^{t S_n})\qquad\qquad\text{(inég. de Markov)}\\ \end{aligned} Or par indépendance, E(etSn)=E(etX1)E(etXn)=LX(t)n\displaystyle \mathbb E(e^{t S_n})=\mathbb E(e^{t X_1})\dots \mathbb E(e^{t X_n})=L_X(t)^n. Ainsi
    P(Sn>nr)(ertLX(t))n=(e(rtΛX(t)))n.\mathbb P(S_n>nr) \le \left(e^{-rt}L_X(t)\right)^n=\left(e^{-(rt-\Lambda_X(t))}\right)^n. Ceci étant vrai pour tout t0\displaystyle t\ge 0, on a donc P(Sn>nr)inft>0(e(rtΛX(t)))n=enαr.\mathbb P(S_n>nr) \le \inf_{t>0}\left(e^{-(rt-\Lambda_X(t))}\right)^n = e^{-n\alpha_r}.

Exercice 79 ⭐️⭐️ Loi de Poisson et TCL, ECS2/L3/Classique

  1. Calculer la fonction génératrice définie par GX(s)=E[sX]\displaystyle G_X(s)=E[s^X] quand XP(μ)\displaystyle X\sim\mathcal P(\mu) , i.e. P(X=j)=eμμjj!\displaystyle P(X=j)=e^{-\mu}\frac{\mu^j}{j!} . On admet que GX\displaystyle G_X caractérise la loi de X. En déduire la loi de la somme de n\displaystyle n v.a. Xi\displaystyle X_i de Poisson i.i.d. de paramètre μ\displaystyle \mu.
  2. Montrer que pour x0\displaystyle x\ge0, enk=0n+xnnkk!n12πxet2/2dt,e^{-n}\sum_{k=0}^{n+x\sqrt{n}}\frac{n^k}{k!} \xrightarrow[n\to \infty]{} \frac{1}{\sqrt{2\pi}}\int_{-\infty}^x e^{-t^2/2}dt, en utilisant le théorème centrale limite (TCL).
    En particulier, on a : enk=0nnkk!n12\displaystyle e^{-n}\sum_{k=0}^{n}\frac{n^k}{k!} \xrightarrow[n\to \infty]{} \frac12.
  1. On a E[sX]=j0sjeμμjj!=eμj0(sμ)jj!=eμ(s1)\displaystyle \mathbb E[s^X]=\sum_{j\ge0}s^je^{-\mu}\frac{\mu^j}{j!}=e^{-\mu}\sum_{j\ge0}\frac{(s\mu)^j}{j!}=e^{\mu(s-1)}.
    De plus, en utilisant que les Xi\displaystyle X_i sont indépendantes et de même loi, il vient E[sX1++Xn]=E[sX1]E[sXn]=(E[sX])n=enμ(s1)\displaystyle \mathbb E[s^{X_1+\cdots+X_n}]=\mathbb E[s^{X_1}]\cdots \mathbb E[s^{X_n}]=(\mathbb E[s^X])^n=e^{n\mu(s-1)}.
    On reconnait alors la fonction génératrice d’une v.a. de Poisson de paramètre nμ\displaystyle n\mu.
  2. Considérons des XiP(1)\displaystyle X_i\sim\mathcal P(1) i.i.d., donc μ=1\displaystyle \mu=1 et σ=1\displaystyle \sigma=1. Le TCL donne donc P(n(Xn1)x)n12πxet2/2dt.P\left(\sqrt{n}(\overline{X}_n-1)\le x\right) \xrightarrow[n\to \infty]{} \frac{1}{\sqrt{2\pi}}\int_{-\infty}^x e^{-t^2/2}dt. Réécrivons la probabilité :
    P(n(Xn1)x)=P(X1++Xnnnx)=P(X1++Xnn+nx).\begin{aligned} P\left(\sqrt{n}(\overline{X}_n-1)\le x\right)&=P(X_1+\cdots+X_n-n\le \sqrt{n}x) \\ &=P(X_1+\cdots+X_n\le n+\sqrt{n}x).\end{aligned} Comme d’après 1), X1++XnP(n)\displaystyle X_1+\cdots+X_n\sim\mathcal P(n), on en déduit P(n(Xn1)x)=k=0n+xnennkk!\displaystyle P\left(\sqrt{n}(\overline{X}_n-1)\le x\right)=\sum_{k=0}^{n+x\sqrt{n}}e^{-n}\frac{n^k}{k!}, d’où le résultat.

Exercice 80 ⭐️⭐️⭐️ Chaîne de Markov, Spé/L3

  1. Soit (Xn)\displaystyle (X_n) une suite de v.a. définie par Xn+1=f(Xn,En+1)\displaystyle X_{n+1}=f(X_n,E_{n+1})(En)\displaystyle (E_n) est une suite i.i.d., indépendante aussi de X0\displaystyle X_0. Montrer que (Xn)\displaystyle (X_n) est une chaîne de Markov, i.e. P(Xn+1=xn+1Xn=xn,,X0=x0)=P(Xn+1=xn+1Xn=xn).P(X_{n+1}=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0})=P(X_{n+1}=x_{n+1}| X_{n}=x_{n}). La matrice Pi,j:=P(Xn+1=jXn=i)\displaystyle P_{i,j}:=P(X_{n+1}=j|X_n=i) s’appelle la matrice de transition (on suppose que la chaîne est homogène, i.e. la dernière quantité ne dépend pas de n\displaystyle n), c’est une matrice stochastique.
  2. Donner un exemple simple de chaîne de Markov.
  3. On considère ici une chaîne à deux états {1,2}\displaystyle \{1,2\} et on pose P1,2=P(Xn+1=2Xn=1)=a]0,1[\displaystyle P_{1,2}=P(X_{n+1}=2|X_n=1)=a\in]0,1[ et P2,1=P(Xn+1=1Xn=2)=b]0,1[\displaystyle P_{2,1}=P(X_{n+1}=1|X_n=2)=b\in]0,1[. On note νn=(P(Xn=1),P(Xn=2))\displaystyle \nu_n=(P(X_n=1),P(X_n=2)) la loi de Xn\displaystyle X_n. Montrer que νn+1=νnP\displaystyle \nu_{n+1}=\nu_nP. Déterminer la loi stationnaire π=(π1,π2)\displaystyle \pi=(\pi_1,\pi_2) , i.e. résoudre l’équation π=πP\displaystyle \pi=\pi P. Calculer Pn\displaystyle P^n et limnPn\displaystyle \lim_{n\to\infty}P^n.
  1. On a P(Xn+1=xn+1Xn=xn,,X0=x0)=P(f(Xn,En+1)=xn+1Xn=xn,,X0=x0)=P(f(xn,En+1)=xn+1Xn=xn,,X0=x0)\displaystyle P(X_{n+1}=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0})=P(f(X_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0})=P(f(x_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0}). Or En+1\displaystyle E_{n+1} est indépendante de (X0,,Xn)\displaystyle (X_0,\cdots,X_n) (par récurrence), et donc P(f(xn,En+1)=xn+1Xn=xn,,X0=x0)=P(f(xn,En+1)=xn+1)=P(f(xn,En+1)=xn+1Xn=xn)=P(f(Xn,En+1)=xn+1Xn=xn)=P(Xn+1=xn+1Xn=xn)\displaystyle P(f(x_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n},\cdots,X_{0}=x_{0})=P(f(x_{n},E_{n+1})=x_{n+1})=P(f(x_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n})=P(f(X_{n},E_{n+1})=x_{n+1}| X_{n}=x_{n})=P(X_{n+1}=x_{n+1}| X_{n}=x_{n}), ce qu’on voulait.
  2. Cette structure Xn+1=f(Xn,En+1)\displaystyle X_{n+1}=f(X_n,E_{n+1}) est le prototype de chaîne de Markov, et un exemple simple est une marche aléatoire
    Xn=E0++En=Xn1+En\displaystyle X_n=E_0+\cdots+E_n=X_{n-1}+E_n(En)\displaystyle (E_n) est une suite de v.a. i.i.d. à valeurs par exemple dans {1,1}\displaystyle \{-1,1\}. La fonction f\displaystyle f est ici f(x,y)=x+y\displaystyle f(x,y)=x+y.
  3. Pour établir νn+1=νnP\displaystyle \nu_{n+1}=\nu_nP, il suffit d’écrire la formule des probabilités totales avec les événements {Xn=1}\displaystyle \{X_n=1\} et {Xn=2}\displaystyle \{X_n=2\}.
    L’équation π=πP\displaystyle \pi=\pi P donne π1=(1a)π1+bπ2\displaystyle \pi_1=(1-a)\pi_1+b\pi_2 et π2=aπ1+(1b)π2\displaystyle \pi_2=a\pi_1+(1-b)\pi_2. Donc π1=ba+b\displaystyle \pi_1=\frac{b}{a+b} et π2=aa+b\displaystyle \pi_2=\frac{a}{a+b}.
    Pour calculer Pn\displaystyle P^n, plusieurs méthodes dont utiliser Cayley-Hamilton qui dit que χP(P)=0\displaystyle \chi_P(P)=0. On fait donc la division euclidienne de Xn\displaystyle X^n par χ\displaystyle \chi. Comme P\displaystyle P est une matrice stochastique, on a λ1=1\displaystyle \lambda_1=1 comme valeur propre. On a aussi tr(P)=2ab=λ1+λ2\displaystyle tr(P)=2-a-b=\lambda_1+\lambda_2, d’où λ2=1ab\displaystyle \lambda_2=1-a-b. Donc χ(X)=(X1)(X1+a+b)\displaystyle \chi(X)=(X-1)(X-1+a+b) et on écrit Xn=χ(X)Q(X)+a1X+a0\displaystyle X^n=\chi(X)Q(X)+a_1X+a_0. En évaluant en X=1\displaystyle X=1 et X=1ab\displaystyle X=1-a-b, on obtient :
    a1=1(1ab)na+b\displaystyle a_1=\frac{1-(1-a-b)^n}{a+b} et a0=1a1\displaystyle a_0=1-a_1. Ainsi, avec χP(P)=0\displaystyle \chi_P(P)=0, on a Pn=a1P+a0I2\displaystyle P^n=a_1P+a_0I_2. Comme 1<1ab<1\displaystyle -1<1-a-b<1, on en déduit
    limnPn=1a+b(1aab1b)+(11a+b)(1001)=1a+b(baba)\displaystyle \lim_{n\to\infty}P^n=\frac{1}{a+b}\begin{pmatrix} 1-a & a\\ b & 1-b\\ \end{pmatrix}+(1-\frac{1}{a+b})\begin{pmatrix} 1 & 0\\ 0 & 1\\ \end{pmatrix}=\frac{1}{a+b}\begin{pmatrix} b & a\\ b & a\\ \end{pmatrix}.

Exercice 81 ⭐️⭐️⭐️⭐️ ENS Ulm 2017, Spé/L3

Soit (Xn)\displaystyle (X_n) une suite de variables aléatoires i.i.d. à valeurs dans N\displaystyle \mathbb{N}.
On note Rn=card{X1,,Xn}\displaystyle R_n = {\rm card}\{X_1,\ldots,X_n\}. On suppose que les Xi\displaystyle X_i admettent une espérance.
Montrer que E(Rn)=o(n).\displaystyle \mathbb{E}(R_n) = o(\sqrt{n}).

Soit X\displaystyle X l’un des Xi\displaystyle X_i. Comme X\displaystyle X est à valeurs dans N\displaystyle \mathbb{N}, on a la formule E[X]=k=0P(X>k).\mathbb{E}[X] = \sum_{k=0}^\infty \mathbb{P}(X>k). Comme l’espérance est supposée finie, la série est convergente. De plus, comme le terme général est décroissant et positif, on sait que
P(X>k)=o(1k).\mathbb{P}(X>k) = o\left(\frac{1}{k}\right). On en déduit qu’il existe une suite (an)\displaystyle (a_n), à valeurs dans N\displaystyle \mathbb{N}, telle que :

  • limnnP(X>an)=0\displaystyle \lim_{n \rightarrow \infty}\sqrt{n} \mathbb{P}(X>a_n) = 0,
  • limnann=0\displaystyle \lim_{n \rightarrow \infty} \frac{a_n}{\sqrt{n}} = 0.
    Pour n1\displaystyle n \ge 1, on considère la v.a. Rn\displaystyle R_n' définie par
    Rn=card{{X1,,Xn}{kN:k>an}}.R_n' = {\rm card}\left\{\{X_1,\ldots, X_n\} \cap \{k \in \mathbb{N} : k>a_n\}\right\}. On a alors Rnan+Rn\displaystyle R_n \le a_n+R_n'. Il y a égalité si chacune des valeurs dans {1,an}\displaystyle \{1,\ldots a_n\} est prise par au moins l’une des variables Xi\displaystyle X_i.
    On introduit maintenant la v.a. Rn\displaystyle R_n'' définie par
    Rn=card{i{1,,n}:Xi>an}.R_n'' = {\rm card}\left\{i \in \{1,\ldots, n\} : X_i > a_n \right\}. On a l’égalité RnRn\displaystyle R_n' \le R_n'', avec égalité si et seulement si chaque valeur supérieure à an\displaystyle a_n est prise par au plus une variable Xi\displaystyle X_i.
    On remarque, par l’indépendance des Xi\displaystyle X_i, que Rn\displaystyle R_n'' suit la loi binomiale de de paramètres n\displaystyle n et p=P(X>an)\displaystyle p=\mathbb{P}(X>a_n).

Au final, on a l’inégalité
E(Rn)an+E(Rn)=an+nP(X>an).\mathbb{E}(R_n) \leq a_n + \mathbb{E}(R_n'') = a_n+n \mathbb{P}(X>a_n). Mais par construction de (an)\displaystyle (a_n), on a :
E(Rn)nann+nP(X>an)n0,\frac{\mathbb{E}(R_n)}{\sqrt{n}} \leq \frac{a_n}{\sqrt{n}}+\sqrt{n} \mathbb{P}(X>a_n) \xrightarrow[n \rightarrow \infty]{}0, ce qu’il fallait démontrer.

Exercice 185 ⭐️⭐️ Dés truqués, Sup/L1

On considère un dé rouge truqué qui donne 6\displaystyle 6 avec la probabilité p]0,1[\displaystyle p \in ]0,1[, les autres issues étant équiprobables, et un dé blanc non truqué. On lance simultanément les deux dés, un pour chaque joueur. En cas d’égalité, c’est le dé blanc qui l’emporte. Quel dé faut-il choisir ?

Soit X\displaystyle X le résultat donné par le dé rouge, et Y\displaystyle Y le résultat donné par le dé blanc. Les hypothèses de l’énoncé, les variables aléatoires X\displaystyle X et Y\displaystyle Y sont indépendantes. La probabilité que le rouge l’emporte est P(X>Y)=1k<l6P(X=k,Y=l)=1k<l6P(X=k)P(Y=l).\mathbb{P}(X>Y) = \sum_{1 \le k < l \le 6} \mathbb{P}(X=k,Y=l) = \sum_{1 \le k < l \le 6} \mathbb{P}(X=k) \mathbb{P}(Y=l). On a utilisé l’indépendance de X\displaystyle X et Y\displaystyle Y pour la dernière égalité. Les lois de X\displaystyle X et Y\displaystyle Y sont données dans l’énoncé : on a P(X=6)=p\displaystyle \mathbb{P}(X=6)=p et P(X=k)=1p5\displaystyle \mathbb{P}(X=k)=\frac{1-p}{5} pour 1k5\displaystyle 1 \le k \le 5. De plus, comme le dé blanc est supposé équilibré, on a P(Y=l)=1/6\displaystyle \mathbb{P}(Y=l)=1/6 pour tout 1l6\displaystyle 1 \le l \le 6. Ainsi : P(X>Y)=1k<l61p516+1l5p16.\mathbb{P}(X>Y) = \sum_{1 \le k < l \le 6} \frac{1-p}{5}\frac{1}{6} + \sum_{1 \le l \le 5} p \frac{1}{6}. L’ensemble des indices (k,l)\displaystyle (k,l) tels que 1k<l5\displaystyle 1 \le k < l \le 5 est de cardinal 5(51)/2=10\displaystyle 5(5-1)/2 = 10, donc : P(X>Y)=101p30+5p6=2+3p6.\mathbb{P}(X>Y) = 10 \frac{1-p}{30} + 5 \frac{p}{6} = \frac{2+3p}{6}. On en déduit que si p<1/3\displaystyle p < 1/3 alors P(X<Y)<1/2\displaystyle \mathbb{P}(X<Y)<1/2, il vaut mieux donc jouer le dé blanc. Si p>1/3\displaystyle p>1/3, il vaut mieux jouer le dé rouge. Si p=1/3\displaystyle p=1/3, le jeu est équilibré.

Exercice 186 ⭐️⭐️ X PC 2017

Soit N\displaystyle N une variable aléatoire suivant une loi de Poisson de paramètre 5\displaystyle 5. On ramasse N\displaystyle N champignons. Chaque champignon a la probabilité 2/3\displaystyle 2/3 d’être comestible.

  1. Déterminer la probabilité que N\displaystyle N soit égal à 2\displaystyle 2 et qu’un seul champignon soit comestible. En donner une estimation numérique.
  2. Calculer la probabilité qu’aucun champignon ne soit comestible.
  1. Soit X\displaystyle X le nombre de champignons comestibles parmi ceux qui sont ramassés. D’après le modèle proposé dans l’énoncé, la loi de X\displaystyle X sachant qu’on a ramassé en tout N=n\displaystyle N=n champignons suit la loi binomiale de paramètres n\displaystyle n et p=2/3\displaystyle p=2/3. Ici on veut calculer P(X=1,N=2)=P(X=1N=2)P(N=2)=(21)23(123)e5522!=259e5.\mathbb{P}(X=1,N=2) = \mathbb{P}(X=1 | N=2) \mathbb{P}(N=2) = \binom{2}{1} \frac{2}{3} \left(1-\frac{2}{3}\right) \frac{e^{-5} 5^2}{2!} = \frac{25}{9} e^{-5}.

  2. Avec les notations précédentes, on veut calculer P(X=0)\displaystyle \mathbb{P}(X=0). La famille (N=n)n0\displaystyle (N=n)_{n \ge 0} est un système complet d’événements, on a donc P(X=0)=n=0P(X=0N=n)P(X=n)=n=0(12/3)n5ne5n!=e5n=0(5/3)nn!=e5+5/3=e10/3.\mathbb{P}(X=0) = \sum_{n=0}^\infty \mathbb{P}(X=0 | N=n) \mathbb{P}(X=n) = \sum_{n=0}^\infty (1-2/3)^n \frac{5^n e^{-5}}{n!} = e^{-5} \sum_{n=0}^\infty \frac{(5/3)^n}{n!} = e^{-5+5/3} = e^{-10/3}.

Exercice 187 ⭐️⭐️⭐️ X PC 2017

Une machine produit deux types de pièces : le type A\displaystyle A avec probabilité a\displaystyle a, le type B\displaystyle B avec probabilité b=1a\displaystyle b=1-a. Chaque pièce est défectueuse avec probabilité p\displaystyle p, indépendamment du type, et indépendamment d’une pièce à l’autre. La machine s’arrête dès qu’elle a produit une pièce du type A\displaystyle A.

  1. Soit X\displaystyle X la variable aléatoire égale au nombre de pièces défectueuses au moment de l’arrêt de la machine. Déterminer E[X]\displaystyle \mathbb{E}[X] sans déterminer complètement la loi de X\displaystyle X. Commenter.

  2. Déterminer la loi de X\displaystyle X et retrouver le résultat précédent.

  1. Soit N\displaystyle N la variable aléatoire du nombre de pièces fabriquées. Dans le modèle décrit dans l’énoncé, on sait que N\displaystyle N suit la loi géométrique de paramètre a\displaystyle a, et que la loi de X\displaystyle X sachant N\displaystyle N est la loi binomiale de paramètres N\displaystyle N et p\displaystyle p. D’après une formule du cours, on a alors E[X]=E[E[XN]]=E[Np]=pE[N]=pa.\mathbb{E}[X] = \mathbb{E}[\mathbb{E}[X|N]] = \mathbb{E}[Np] = p \mathbb{E}[N] = \frac{p}{a}.

  2. Pas facile !

Exercice 188 ⭐️⭐️ Extrémités de cordes, X PC 2017

Un sac contient N\displaystyle N cordes. A la première étape on choisit au hasard deux extrémités de cordes et on les noue. On dit qu’on a une boucle si on a noué les extrémités de la même corde.

  1. Déterminer l’espérance du nombre X\displaystyle X de boucles après la première étape.
  2. On réitère N\displaystyle N fois l’opération en nouant à chaque fois deux extrémités libres. On note Y\displaystyle Y le nombre de boucles. Déterminer l’espérance de Y\displaystyle Y.
  1. Il peut se produire deux choses : soit les deux extrémités choisies appartiennent à la même corde, ce qui sera appelé événement A\displaystyle A, soit les deux extrémités appartiennent à deux cordes distinctes, ce qui correspond à l’événement Ac\displaystyle A^c. On a donc X=1\displaystyle X=1 avec probabilité p=P(A)\displaystyle p=\mathbb{P}(A), et X=0\displaystyle X=0 avec probabilité 1p\displaystyle 1-p, en d’autre termes X\displaystyle X suit la loi de Bernoulli de paramètre p\displaystyle p. Il reste à calculer p\displaystyle p. Le nombre de choix possibles pour un couple d’extrémités est (2N2)=2N(2N1)2=N(2N1)2\displaystyle \binom{2N}{2} = \frac{2N(2N-1)}{2} = \frac{N(2N-1)}{2} (l’ordre dans lequel on choisit les extrémités n’a pas d’importance). Parmi tous ces choix, il y en a exactement N\displaystyle N qui correspondent à l’événement A\displaystyle A (un couple d’extrémités pour chaque corde). Ainsi on a P(X=1)=N(2N2)=12N1\displaystyle \mathbb{P}(X=1) = \frac{N}{\binom{2N}{2}} = \frac{1}{2N-1}.

  2. Une remarque importante : quel que soit le résultat de la première étape, à l’issue de celle-ci il y aura exactement N1\displaystyle N-1 cordes non bouclées : soit N1\displaystyle N-1 petites cordes et une boucle mises de côté (événement A\displaystyle A), soit N2\displaystyle N-2 petites cordes, et une deux fois plus longues (événement Ac\displaystyle A^c). Après k\displaystyle k étapes, il y aura donc exactement Nk\displaystyle N-k cordes non bouclées, de diverses longueurs.
    Soit Xk\displaystyle X_k la variable aléatoire du nombre de boucles créées à la k\displaystyle k-ème étape. D’après le raisonnement de la question précédente, Xk\displaystyle X_k suit la loi de Bernoulli de paramètre pk=12(Nk)+1\displaystyle p_k = \frac{1}{2(N-k)+1}. On rappelle que l’on a E[Xk]=pk\displaystyle \mathbb{E}[X_k]=p_k De plus, on a Y=X1++XN\displaystyle Y=X_1+\ldots+X_N. On peut aussi remarquer que les variables aléatoires Xk\displaystyle X_k sont indépendantes, mais on n’utilisera pas cette propriété. On a, par linéarité de l’espérance : E[Y]=k=1NE[Xk]=k=1N12(Nk)+1=l=0N111+2l.\mathbb{E}[Y] = \sum_{k=1}^N \mathbb{E}[X_k] = \sum_{k=1}^N \frac{1}{2(N-k)+1} = \sum_{l=0}^{N-1} \frac{1}{1+2 l}. Remarque : on a l’équivalent E[Y]ln(N)2\displaystyle \mathbb{E}[Y] \sim \frac{\ln(N)}{2}. Question subsidiaire : calculer P(Y=1)\displaystyle \mathbb{P}(Y=1) (probabilité d’avoir une seule boucle à la fin) et trouver un équivalent lorsque N\displaystyle N \to \infty.

Exercice 189 ⭐️⭐️⭐️ X PC 2017

Soient X,Y\displaystyle X,Y deux variables aléatoires strictement positives indépendantes et de même loi. Montrer que E(X/Y)1\displaystyle \mathbb{E}(X/Y) \ge 1.

Comme X\displaystyle X et Y\displaystyle Y sont indépendantes, on a E(XY)=E(X)E(1Y)\displaystyle \mathbb{E}\left(\frac{X}{Y}\right) = \mathbb{E}(X) \mathbb{E}\left(\frac{1}{Y}\right), et comme X\displaystyle X et Y\displaystyle Y ont la même loi, on a : E(XY)=E(X)E(1X)\displaystyle \mathbb{E}\left(\frac{X}{Y}\right) = \mathbb{E}(X) \mathbb{E}\left(\frac{1}{X}\right). Le réflexe maintenant est, comme souvent, de penser à Cauchy-Schwarz. On peut le redémontrer rapidement dans ce cas particulier. On remarque tout d’abord, que pour tout tR\displaystyle t \in \mathbb{R}, la quantité P(t)=E((X+tX)2)\displaystyle P(t) = \mathbb{E}\left(\left(\sqrt{X}+\frac{t}{\sqrt{X}}\right)^2 \right) est 0\displaystyle \ge 0. Or, par linéarité, on remarque que P(t)=E(X+2t+t2X)=E(X)+2t+E(1X)t2.P(t) = \mathbb{E}\left(X+2t+\frac{t^2}{X}\right) = \mathbb{E}(X)+2t+\mathbb{E}\left(\frac{1}{X}\right) t^2. La fonction tP(t)\displaystyle t \mapsto P(t) est donc une fonction polynomiale de degré 2\displaystyle 2 et 0\displaystyle \ge 0 sur R\displaystyle \mathbb{R}. On sait alors que son discriminant est négatif, ce qui s’écrit 44E(X)E(1X)0\displaystyle 4-4\mathbb{E}(X) \mathbb{E}\left(\frac{1}{X}\right) \le 0, et on obtient immédiatement le résultat.

Exercice 191 ⭐️⭐️⭐️⭐️ Deux faces consécutifs, X PC 2017

Soit X\displaystyle X la variable aléatoire égale au nombre de tirages nécessaires à l’obtention de deux faces consécutifs dans un jeu de pile ou face, dans lequel la probabilité d’obtenir pile est 1/2\displaystyle 1/2. Déterminer la loi de X\displaystyle X puis calculer son espérance.

Si on n’a pas d’intuition sur la loi de X\displaystyle X, on cherche à calculer P(X=n)\displaystyle \mathbb{P}(X=n) pour des petites valeurs de n\displaystyle n, et on voit si une structure connue apparaît…

On va utiliser une notation simplifiée et intuitive en notant “pile” par 1 et “face” par 0\displaystyle 0. On écrira une succession de n\displaystyle n tirages consécutifs (vue comme un événement) comme un mot de lettres n\displaystyle n formé des lettres 0\displaystyle 0 et 1\displaystyle 1. Par exemple le mot 100\displaystyle 100 désigne l’événement “le premier tirage donne pile, les deux suivants donnent face”. L’hypothèse d’indépendance des lancers permet d’associer à chaque événement de longueur n\displaystyle n la probabilité 12n\displaystyle \frac{1}{2^n}.

Faute d’idée, on va calculer P(X=n)\displaystyle \mathbb{P}(X=n) pour des petites valeurs de n\displaystyle n. On a nécessairement X2\displaystyle X \ge 2. L’événement X=2\displaystyle X=2 est associé au seul mot 00\displaystyle 00, donc P(X=2)=14\displaystyle \mathbb{P}(X=2) = \frac{1}{4}. Pour X=3\displaystyle X=3, on a nécessairement le tirage 100\displaystyle 100, donc P(X=3)=123\displaystyle \mathbb{P}(X=3)=\frac{1}{2^3}. L’événement X=4\displaystyle X=4 est décrit par deux tirages : 0100\displaystyle 0100 et 1100\displaystyle 1100, l’événement X=5\displaystyle X=5 par trois tirages 01100\displaystyle 01100, 10100\displaystyle 10100, 11100\displaystyle 11100, l’événement X=6\displaystyle X=6 par cinq tirages 111100\displaystyle 111100, 110100\displaystyle 110100, 101100\displaystyle 101100, 011100\displaystyle 011100, 010100\displaystyle 010100, etc. Avec un peu de culture, on reconnaît dans la suite 1,1,2,3,5,\displaystyle 1,1,2,3,5,\ldots la célèbre suite de Fibonacci donnée par F0=1\displaystyle F_0=1, F1=1\displaystyle F_1=1 et Fn+2=Fn+1+Fn\displaystyle F_{n+2}=F_{n+1}+F_n. On peut donc conjecturer que P(X=n)=Fn22n\displaystyle \mathbb{P}(X=n) = \frac{F_{n-2}}{2^n}.

Notons An\displaystyle A_n l’ensemble des mots à n\displaystyle n lettres formés des lettres 0\displaystyle 0 et 1\displaystyle 1 tels que la lettre 0\displaystyle 0 ne soit pas présente en deux positions consécutives et an=Card(An)\displaystyle a_n = {\rm Card}(A_n), avec a0=1\displaystyle a_0=1. Pour n3\displaystyle n \ge 3, les tirages décrivant l’évément X=n\displaystyle X=n sont exactement la concaténation d’un mot de An3\displaystyle A_{n-3} et du mot 100\displaystyle 100, donc P(X=n)=an32n\displaystyle \mathbb{P}(X=n) = \frac{a_{n-3}}{2^n}. Il s’agit donc de prouver que an=Fn+1\displaystyle a_n=F_{n+1}. Comme on a a0=1=F1\displaystyle a_0=1=F_1 et a1=2=F3\displaystyle a_1=2=F_3, il reste à montrer que an+2=an+1+an\displaystyle a_{n+2}=a_{n+1}+a_n.

On partitionne l’ensemble An+2\displaystyle A_{n+2} en deux ensembles disjoints : ceux dont la dernière lettre est 0\displaystyle 0, et ceux dont la dernière lettre est 1\displaystyle 1. Les mots de An+2\displaystyle A_{n+2} dont la dernière lettre est 1\displaystyle 1 sont exactement l’ensemble des mots de An+1\displaystyle A_{n+1} auxquels on rajoute la lettre 1\displaystyle 1 : ce sous-ensemble de An+2\displaystyle A_{n+2} est donc de cardinal an+1\displaystyle a_{n+1}. Si la dernière lettre d’un mot de An+2\displaystyle A_{n+2} est 0\displaystyle 0, alors son avant-dernière lettre est nécessairement 1\displaystyle 1. On peut donc décrire ce sous-ensemble de An+2\displaystyle A_{n+2} comme l’ensemble des mots de An\displaystyle A_n auxquels on rajoute les lettres 10\displaystyle 10, et son cardinal est donc an\displaystyle a_n. On a bien montré que an+2=an+1+an\displaystyle a_{n+2}=a_{n+1}+a_n, et on en déduit que P(X=n)=Fn22n\displaystyle \mathbb{P}(X=n) = \frac{F_{n-2}}{2^n}.

Remarque intéressante, qui peut avoir son utilité : on a montré au passage que n=2Fn22n=1.\displaystyle \sum_{n=2}^\infty \frac{F_{n-2}}{2^n} = 1.

On peut donner une expression plus explicite en étudiant la suite de Fibonacci, c’est assez classique, largement accessible avec le programme de sup/spé, mais un peu long à développer dans un exercice de probabilité : on peut se renseigner ici.

La seule véritable propriété de la suite de Fibonacci qui peut nous être utile est la borne Fn=O(ωn)\displaystyle F_n = O(\omega^n), avec ω=1+52<2\displaystyle \omega = \frac{1+\sqrt{5}}{2} < 2, ce qui assure la convergence absolue de la série n2nFn22n\displaystyle \sum_{n \ge 2} n \frac{F_{n-2}}{2^n}. Le théorème de transfert assure justement que la valeur de E[X]\displaystyle \mathbb{E}[X] est donnée par la somme de cette série.

Jouons un peu :
E[X]=n=2n2n(FnFn1)=n=4Fn2(n22n2n12n1)F12=2n=4n2nFn26n=4Fn22n12=2(E[X]22213231)6(11418)12=2E[X]3,\displaystyle \begin{aligned}\mathbb{E}[X] &= \sum_{n=2}^\infty \frac{n}{2^n} (F_n-F_{n-1}) \\ &= \sum_{n=4}^\infty F_{n-2} \left(\frac{n-2}{2^{n-2}}-\frac{n-1}{2^{n-1}} \right)-\frac{F_1}{2} \\ &=2 \sum_{n=4}^\infty \frac{n}{2^n} F_{n-2} -6 \sum_{n=4}^\infty \frac{F_{n-2}}{2^n}- \frac{1}{2} \\&= 2 \left(\mathbb{E}[X]-\frac{2}{2^2}1-\frac{3}{2^3}1\right)-6\left(1-\frac{1}{4}-\frac{1}{8}\right)-\frac{1}{2} \\ &= 2 \mathbb{E}[X]-3,\end{aligned}
donc E[X]=3\displaystyle \mathbb{E}[X]=3.

Exercice 192 ⭐️⭐️ X PC 2017

Soient (m,n)N2\displaystyle (m,n) \in \N^2 avec 1mn\displaystyle 1 \le m \le n, X1,,Xn\displaystyle X_1,\ldots,X_n des variables aléatoires indépendantes, identiquement distribuées, à valeurs dans R+\displaystyle \R^{+*}. Calculer E(X1++XmX1++Xn)\displaystyle \mathbb{E}\left(\frac{X_1+\cdots+X_m}{X_1+\cdots+X_n}\right).

C’est typiquement le genre d’exercice pour lequel l’étude explicite de cas particuliers (m,n\displaystyle m,n petits) s’avère à la fois simple et instructive pour le cas général !

Voici une preuve pour m=2\displaystyle m=2 et n=3\displaystyle n=3 qui permet de comprendre le mécanisme à l’oeuvre derrière la preuve générale : le vecteur aléatoire (X1,X2,X3)\displaystyle (X_1,X_2,X_3) est indépendant, on en déduit que les trois vecteurs aléatoires suivants ont tous la même loi : Z1=(X1,X2,X3) , Z2=(X2,X3,X1) , Z3=(X3,X1,X2).Z_1 = (X_1,X_2,X_3) \ , \ Z_2=(X_2,X_3,X_1) \ , \ Z_3 = (X_3,X_1,X_2). De plus, l’application ϕ:(R+)3R\displaystyle \phi : (\R^{+*})^3 \rightarrow \R définie par ϕ(u,v,w)=u+vu+v+w\displaystyle \phi(u,v,w) = \frac{u+v}{u+v+w}, est continue. On en déduit que la valeur de E[ϕ(Zi)]\displaystyle \mathbb{E}[\phi(Z_i)] ne dépend pas de i\displaystyle i : plus rigoureusement, si elle vaut +\displaystyle +\infty (resp. μ<\displaystyle \mu < \infty) pour un certain i0 in{1,,3}\displaystyle i_0 \ in\{1,\ldots,3\}, alors elle vaut +\displaystyle +\infty (resp. μ\displaystyle \mu) pour tout i{1,,3}\displaystyle i \in \{1,\ldots,3\}. On peut donc écrire :
E[ϕ(Z1)]=13i=13E[ϕ(Zi)]=E[13i=13ϕ(Zi)]=E[13(X1+X2)+(X2+X3)+(X3+X1)X1+X2+X3]=E[132X1+2X2+2X3X1+X2+X3]=E[23]=23.\displaystyle \begin{aligned}\mathbb{E}[\phi(Z_1)] &= \frac{1}{3} \sum_{i=1}^3 \mathbb{E}[\phi(Z_i)] \\ &= \mathbb{E}\left[\frac{1}{3} \sum_{i=1}^3 \phi(Z_i)\right] \\ &= \mathbb{E}\left[\frac{1}{3} \frac{(X_1+X_2)+(X_2+X_3)+(X_3+X_1)}{X_1+X_2+X_3}\right] \\ &= \mathbb{E}\left[\frac{1}{3} \frac{2X_1+2X_2+2X_3}{X_1+X_2+X_3} \right] \\ &= \mathbb{E}\left[\frac{2}{3}\right] \\ &= \frac{2}{3}.\end{aligned}

La preuve générale suit les mêmes lignes : pour i{1,,n}\displaystyle i \in \{1,\ldots,n\}, on considère le vecteur aléatoire Zi=(Xi+k)0kn1,Z_i=(X_{i+k}) _ {0 \le k \le n-1,} où les indices i+k\displaystyle i+k sont pris modulo n\displaystyle n. L’indépendance des Xi\displaystyle X_i implique que les vecteurs aléatoires Zi\displaystyle Z_i ont tous la même loi. On considère l’application ϕ:(R+)nR\displaystyle \phi : (\R^{+*})^n \rightarrow \R définie par ϕ(u1,,un)=u1++umu1++un\displaystyle \phi(u_1,\ldots,u_n) = \frac{u_1+\cdots+u_m}{u_1+\cdots+u_n}. On a en particulier ϕ(Zi)=k=0m1Xi+kk=0n1Xi+k=k=0m1Xi+kk=1nXk.\phi(Z_i) = \frac{\sum_{k=0}^{m-1} X_{i+k}}{\sum_{k=0}^{n-1} X_{i+k}} = \frac{\sum_{k=0}^{m-1} X_{i+k}}{\sum_{k=1}^n X_k}. Comme les variables aléatoires ϕ(Zi)\displaystyle \phi(Z_i) ont toutes la même loi, elles ont la même espérance (si elle existe), on peut donc écrire :
E[ϕ(Z1)]=E[1ni=1nϕ(Zi)]=E[1ni=1nk=ii+m1Xkk=1nXk]=E[1ni=1nk=0m1Xi+kX1++Xn].\displaystyle \begin{aligned} \mathbb{E}[\phi(Z_1)] &= \mathbb{E}\left[\frac{1}{n} \sum_{i=1}^n \phi(Z_i)\right] \\ &= \mathbb{E}\left[\frac{1}{n} \sum_{i=1}^n \frac{\sum_{k=i}^{i+m-1} X_k}{\sum_{k=1}^n X_k} \right] \\ &= \mathbb{E}\left[\frac{1}{n} \frac{\sum_{i=1}^n \sum_{k=0}^{m-1} X_{i+k}}{X_1+\cdots+X_n} \right]. \end{aligned}
Or, pour j{1,,n}\displaystyle j \in \{1,\ldots,n\} fixé il existe exactement m\displaystyle m couples d’indices (i,k)({1,,n}×{0,,m1})\displaystyle (i,k) \in (\{1,\ldots,n\} \times \{0,\ldots,m-1\}) tels que i+k=j\displaystyle i+k=j modulo n\displaystyle n : ce sont les couples de la forme (jk,k)\displaystyle (j-k,k), avec k{0,,m1}\displaystyle k \in \{0,\ldots,m-1\}. Ainsi on a i=1nk=0m1Xi+k=j=1nmXj\sum_{i=1}^n \sum_{k=0}^{m-1} X_{i+k} = \sum_{j=1}^n m X_j et on en déduit : E[ϕ(Z1)]=E[mn]=mn.\mathbb{E}[\phi(Z_1)] = \mathbb{E}\left[ \frac{m}{n}\right] = \frac{m}{n}.

Exercice 317 ⭐️ Dés de Sicherman, Sup/L1

  1. On lance deux dés classiques et on note X\displaystyle X la somme des scores. Donner la loi de X\displaystyle X.
  2. Les faces des dés de Sichermann sont (1,2,2,3,3,4)\displaystyle (1,2,2,3,3,4) et (1,3,4,5,6,8)\displaystyle (1,3,4,5,6,8). On lance deux dés de Sichermann et on note S\displaystyle S la somme des scores. Montrer que S\displaystyle S suit la même loi que X\displaystyle X.
  3. Est-ce que ça revient au même de jouer au Monopoly avec des dés de Sichermann ou avec des dés normaux ?
  1. Poser Ω\displaystyle \Omega, reconnaître une situation d’équiprobabilité et calculer P(X=k)\displaystyle \mathbb P(X=k) par dénombrement ;
  2. Même réflexe ;
  3. Comparer les probabilités d’obtenir un double.
  1. On modélise la situation par Ω=[ ⁣[1,6] ⁣]2\displaystyle \Omega=[\![1,6]\!]^2, P\displaystyle \mathbb P la probabilité uniforme sur Ω\displaystyle \Omega, et X\displaystyle X la variable aléatoire sur Ω\displaystyle \Omega qui à un couple (i,j)\displaystyle (i,j) associe i+j\displaystyle i+j. On a X(Ω)=[ ⁣[2,12] ⁣]\displaystyle X(\Omega)=[\![2,12]\!]. On a P(X=k)=Card({X=k})36\displaystyle \mathbb P(X=k)=\frac{\mathrm{Card}(\{X=k\})}{36}.
    On peut compter les éléments de {X=k}\displaystyle \{X=k\} pour k[ ⁣[2,12] ⁣]\displaystyle k\in[\![2,12]\!], en faisant la liste de leurs éléments : {X=2}={(1,1)},\{X=2\}=\{(1,1)\}, {X=3}={(1,2),(2,1)},\{X=3\}=\{(1,2),(2,1)\}, {X=4}={(1,3),(2,2),(3,1)},etc...\{X=4\}=\{(1,3),(2,2),(3,1)\},\qquad\text{etc...} Ce travail donne les résultats suivants :
    k23456789101112P(X=k)136236336436536636536436336236136\begin{array}{|c|c|c|c|c|c|c|c|c|c|c|c|}\hline k & 2&3 &4 &5 &6 &7 &8 &9 &10 &11 &12 \\ \hline \mathbb P(X=k) & \frac{1}{36}& \frac{2}{36}& \frac{3}{36}& \frac{4}{36}& \frac{5}{36}&\frac{6}{36} &\frac{5}{36} &\frac{4}{36} &\frac{3}{36} &\frac{2}{36} &\frac{1}{36} \\\hline \end{array}
  2. On recommence ce travail, avec cette fois (on écrit différemment les faces identiques) : Ω={1,2a,2b,3a,3b,4}×{1,3,4,5,6,8}\Omega = \{1,2a,2b,3a,3b,4\}\times\{1,3,4,5,6,8\} Le plus pratique pour faire les décomptes est de faire un tableau à double entrée où on inscrit la somme pour chaque issue de l’expérience :
    12a2b3a3b42344556345564568\begin{array}{|c||c|c|c|c|c|c|}\hline & 1& 2a&2b &3a &3b &4 \\\hline\hline 2& 3& 4& 4& 5& 5& 6\\\hline 3&4 &5 &5 &6 &\dots & \\\hline 4& & & & & & \\\hline 5& & & & & & \\\hline 6& & & & & & \\\hline 8& & & & & & \\\hline \end{array} Au final on s’aperçoit que P(S=k)=P(X=k)\displaystyle \mathbb P(S=k) =\mathbb P(X=k) pour tout k[ ⁣[2,12] ⁣]\displaystyle k\in[\![2,12]\!].
  3. Non. au Monopoly faire un double risque de vous envoyer en prison, or la probabilité de l’évènement E=\displaystyle E=“faire un double”, vaut 436\displaystyle \frac{4}{36} pour des dés de Sichermann, car E={(1,1),(3a,3),(3b,3),(4,4)}\displaystyle E=\{(1,1),(3a,3),(3b,3),(4,4)\}. Elle est donc différente de la probabilité de faire un double pour des dés normaux, qui vaut 636\displaystyle \frac{6}{36}.

Exercice 318 ⭐️⭐️ Urne de Polyá, Sup/L1

On considère une urne contenant initialement 1\displaystyle 1 boule blanche et 1\displaystyle 1 boule noire. On tire une boule au hasard puis on la replace dans l’urne, en y ajoutant une autre boule de la même couleur. L’urne contient maintenant 3\displaystyle 3 boules.
On réitère ce procédé. Soit Xn\displaystyle X_n le nombre de boules blanches dans l’urne au bout de n\displaystyle n tirages.

  1. Déterminer la loi de X1\displaystyle X_1, de X2\displaystyle X_2.
  2. Montrer par récurrence que pour tout nN\displaystyle n\in\N^*, Xn\displaystyle X_n suit la loi uniforme sur [ ⁣[1,n+1] ⁣]\displaystyle [\![1,n+1]\!].
  3. Soit Z\displaystyle Z le nombre de tirages nécessaires pour piocher une boule blanche pour la première fois.
    Déterminer la loi de Z\displaystyle Z. possède t-elle une espérance ?
  1. Préciser les valeurs possibles, et les probabilités correspondantes.
  2. On connaît la loi de Xn\displaystyle X_n (hypothèse de récurrence) et la loi de Xn+1\displaystyle X_{n+1} sachant Xn\displaystyle X_n (énoncé)
    👉 Formule des probabilités totales.
  3. Probabilités composées. La série k P(Z=k)\displaystyle \sum k~\mathbb P(Z=k) est-elle convergente ?
  1. X1(Ω)={1,2}\displaystyle X_1(\Omega) =\{1,2\} et X2(Ω)={1,2,3}\displaystyle X_2(\Omega)=\{1,2,3\}.
    Notons Bn\displaystyle B_n l’évènement “piocher blanc au n\displaystyle n-ème tirage”.
    P(X1=2)=P(B1)=1/2\displaystyle \mathbb P(X_1=2)=\mathbb P(B_1)=1/2, et par complémentaire P(X1=1)=1/2\displaystyle \mathbb P(X_1=1)=1/2.
    On a P(X2=3)=P(B1B2)=P(B1)P(B2B1)=12×23=13\displaystyle \mathbb P(X_2=3)=\mathbb P(B_1\cap B_2)=\mathbb P(B_1)\mathbb P(B_2|B_1)=\frac 12\times\frac 23=\frac 13.
    Par symétrie, P(X2=1)=13\displaystyle \mathbb P(X_2=1)=\frac 13, et par complémentaire, P(X2=2)=13\displaystyle \mathbb P(X_2=2)=\frac 13.
  2. Nous venons de vérifier que cette propriété est vérifiée au rang 1\displaystyle 1 (et 2\displaystyle 2). Supposons que pour un certain nN\displaystyle n\in\N^*, Xn\displaystyle X_n suive la loi U([ ⁣[1,n+1] ⁣])\displaystyle \mathcal U([\![1,n+1]\!]). Montrons que pour tout k[ ⁣[1,n+2] ⁣]\displaystyle k\in[\![1,n+2]\!], P(Xn+1=k)=1n+2.\displaystyle \mathbb P(X_{n+1}=k) =\frac{1}{n+2}.
    \displaystyle \bullet Par formule des probabilités totales, pour k[ ⁣[2,n+1] ⁣]\displaystyle k\in[\![2,n+1]\!], P(Xn+1=k)=P(Xn=k)P(Bn+1Xn=k)+P(Xn=k1)P(Bn+1Xn=k1)\mathbb P(X_{n+1}=k) = \mathbb P(X_n=k)\mathbb P(\overline{B_{n+1}}|X_n=k) + \mathbb P(X_n=k-1)\mathbb P(B_{n+1}|X_n=k-1) En se souvenant qu’après le n\displaystyle n-ème tirage, l’urne contient n+2\displaystyle n+2 boules, on obtient donc : P(Xn+1=k)=1n+1×n+2kn+2+1n+1×k1n+2=n+1(n+1)(n+2)=1n+2.\mathbb P(X_{n+1}=k) = \frac{1}{n+1}\times\frac{n+2-k}{n+2}+\frac{1}{n+1}\times\frac{k-1}{n+2} = \frac{n+1}{(n+1)(n+2)}=\frac{1}{n+2}.
    \displaystyle \bullet P(Xn+1=1)=P(Xn=1)P(Bn+1Xn=1)=1n+1×n+1n+2=1n+2\displaystyle \mathbb P(X_{n+1}=1) = \mathbb P(X_n=1)\mathbb P(\overline{B_{n+1}}|X_n=1) = \frac{1}{n+1}\times\frac{n+1}{n+2}= \frac{1}{n+2}.
    \displaystyle \bullet On montre de même que P(Xn+1=n+2)=1n+2\displaystyle \mathbb P(X_{n+1}=n+2) =\frac{1}{n+2}.
  3. Z(Ω)=N\displaystyle Z(\Omega)=\N^* et pour kN\displaystyle k\in\N^*, P(Z=k)=P(B1)P(B2B1)P(B3B1B2)P(Bk1B1Bk2)P(BkB1Bk1),\mathbb P(Z=k) = \mathbb P(\overline{B_{1}})\mathbb P(\overline{B_{2}}|\overline{B_{1}}) \mathbb P(\overline{B_{3}}|\overline{B_{1}}\cap \overline{B_{2}}) \dots\mathbb P(\overline{B_{k-1}}|\overline{B_{1}}\cap\dots\cap\overline{B_{k-2}})\mathbb P(B_k|\overline{B_{1}}\cap \dots\cap \overline{B_{k-1}}), ce qui donne (examiner la composition de l’urne pour exprimer chacune de ces probabilités) : P(Z=k)=12×23×k1k×1k+1=1k(k+1).\mathbb P(Z=k) =\frac 12\times\frac 23\times \frac{k-1}{k}\times\frac{1}{k+1}=\frac{1}{k(k+1)}. La série k 1k(k+1)=1k+1\displaystyle \sum k~\frac{1}{k(k+1)} = \sum\frac{1}{k+1} est divergente (par comparaison à une série de Riemann divergente), donc Z\displaystyle Z ne possède pas d’espérance.

Exercice 380 ⭐️⭐️⭐️ Loi de Poisson, Spé/L2

Pour tout entier n0\displaystyle n \ge 0, on introduit la fonction gn:R+R+\displaystyle g_n : \R_+ \rightarrow \R_+ définie par gn(u)=euunn!.g_n(u) = e^{-u} \frac{u^n}{n!}.

  1. Trouver une relation reliant les fonctions gn\displaystyle g_n', gn\displaystyle g_n et gn1\displaystyle g_{n-1}.
  2. Soit X\displaystyle X une v.a. suivant la loi de Poisson P(λ)\displaystyle \mathcal{P}(\lambda) pour un certain λ>0\displaystyle \lambda>0. Montrer : n0 , P(Xn)=λgn(u)du.\forall n\ge 0 \ , \ \mathbb{P}(X \le n) = \int_\lambda^\infty g_n(u) du.
  3. On considère une famille de v.a. (Xn)n1\displaystyle (X_n)_{n\ge 1} telle que, pour tout n1\displaystyle n \ge 1, Xn\displaystyle X_n suit la loi de Poisson P(n)\displaystyle \mathcal{P}(n). Montrer que pour tout n1\displaystyle \forall n \ge 1, P(Xnn)P(Xn+1n+1)=nn+1gn+1(u)gn+1(n)du.\mathbb{P}(X_n \le n) - \mathbb{P}(X_{n+1} \le n+1) = \int_n^{n+1} g_{n+1}(u)-g_{n+1}(n) du.
  4. En déduire que la suite (an)n1=(enk=0nnkk!)n1\displaystyle (a_n)_{n \ge 1} = \left(e^{-n}\sum_{k=0}^n \frac{n^k}{k!}\right)_{n \ge 1} est convergente.
  5. Montrer que an=nn!(en)n0ezn(1+zn)ndz.a_n = \frac{\sqrt{n}}{n!} \left(\frac{e}{n}\right)^n \int_0^\infty e^{-z \sqrt{n}} \left(1+\frac{z}{\sqrt{n}}\right)^n dz.
  1. En dérivant gn\displaystyle g_n, on obtient tout de suite la relation gn(u)=gn(u)+gn1(u)\displaystyle g_n'(u) = -g_n(u)+g_{n-1}(u).
  2. On raisonne par récurrence sur n0\displaystyle n \ge 0. Pour n=0\displaystyle n=0, on a P(X0)=P(X=0)=eλ\displaystyle \mathbb{P}(X \le 0) = \mathbb{P}(X=0) = e^{-\lambda} et λeudu=eλ\displaystyle \int_\lambda^\infty e^{-u}du = e^{-\lambda}, la propriété est donc bien vérifiée. Pour prouver l’hérédité, on utilise le résultat de la question précédente pour écrire
    λgn+1(u)du=λgn(u)duλgn+1(u)du=P(Xn)+gn+1(λ)=P(Xn)+P(X=n+1)=P(Xn+1).\begin{aligned}\int_\lambda^\infty g_{n+1}(u) du &= \int_\lambda^\infty g_n(u) du - \int_\lambda^\infty g_{n+1}'(u) du \\ &= \mathbb{P}(X \le n) + g_{n+1}(\lambda) \\&= \mathbb{P}(X \le n) + \mathbb{P}(X = n+1) \\&= \mathbb{P}(X\le n+1).\end{aligned}
  3. On utilise la relation obtenue à la première question pour écrire :
    ngn+1(u)du=ngn(u)du[gn+1(u)]n=P(Xnn)+gn+1(n).\displaystyle \begin{aligned} \int_n^\infty g_{n+1}(u) du &= \int_n^\infty g_n(u) du - [g_{n+1}(u)]_{n}^\infty \\&= \mathbb{P}(X_n \le n)+g_{n+1}(n).\end{aligned}
    Mais on a aussi :
    ngn+1(u)du=nn+1gn+1(u)du+n+1gn+1(u)du=nn+1gn+1(u)du+P(Xn+1n+1).\displaystyle \begin{aligned} \int_n^\infty g_{n+1}(u) du &= \int_n^{n+1} g_{n+1}(u) du + \int_{n+1}^\infty g_{n+1}(u) du \\&= \int_n^{n+1} g_{n+1}(u) du+\mathbb{P}(X_{n+1}\le n+1).\end{aligned} En combiant les deux équations, on obtient : P(Xnn)P(Xn+1n+1)=nn+1gn+1(u)dugn+1(n)=nn+1gn+1(u)gn+1(n)du.\displaystyle \begin{aligned}\mathbb{P}(X_n \le n)-\mathbb{P}(X_{n+1}\le n+1)&=\int_n^{n+1} g_{n+1}(u) du-g_{n+1}(n) \\ &= \int_n^{n+1} g_{n+1}(u) -g_{n+1}(n) du.\end{aligned}
  4. On commence par remarquer que : an=k=0nP(Xn=k)=P(Xnn).a_n = \sum_{k=0}^n \mathbb{P}(X_n=k) = \mathbb{P}(X_n \le n).On montre facilement que la fonction gn+1\displaystyle g_{n+1} est croissante sur ]0,n+1]\displaystyle ]0,n+1] et décroissante sur [n+1,+[\displaystyle [n+1,+\infty[. En particulier gn+1(u)gn+1(n)\displaystyle g_{n+1}(u) \ge g_{n+1}(n) pour tout u[n,n+1]\displaystyle u \in [n,n+1]. Ainsi, d’après le résultat de la question précédente, la suite (an)n1\displaystyle (a_n)_{n \ge 1} est décroissante. Et comme elle est minorée par 0\displaystyle 0, on en déduit qu’elle est convergente.
  5. D’après la deuxième question, on a an=1n!neuundu.a_n = \frac{1}{n!}\int_n^\infty e^{-u} u^n du. En faisant le changement de variables z=unn\displaystyle z=\frac{u-n}{\sqrt{n}}, on obtient : an=nn!0ennz(n+nz)ndz=nn!(en)n0ezn(1+zn)ndz.\begin{aligned}a_n &= \frac{\sqrt{n}}{n!}\int_0^\infty e^{-n-\sqrt{n}z} \left(n+\sqrt{n}z\right)^n dz \\&= \frac{\sqrt{n}}{n!} \left(\frac{e}{n}\right)^n \int_0^\infty e^{-z \sqrt{n}} \left(1+\frac{z}{\sqrt{n}}\right)^n dz.\end{aligned}

Remarque — En invoquant la formule de Stirling et le théorème de convergence dominée, on peut montrer à partir du résultat de la dernière question que la limite de la suite (an)n1\displaystyle (a_n)_{n \ge 1} est 1/2\displaystyle 1/2.

Exercice 387 ⭐️⭐️ Probabilité qu’une v.a. soit paire, Spé/L2

On note 2N\displaystyle 2\N l’ensemble des entiers naturels pairs.

  1. On suppose que X\displaystyle X suit la loi P(λ)\displaystyle \mathcal P(\lambda) avec λ>0\displaystyle \lambda>0. Calculer P(X2N)\displaystyle \mathbb P(X\in 2\N).
  2. Même question si X\displaystyle X suit la loi G(p)\displaystyle \mathcal G(p) avec p]0;1[\displaystyle p\in]0;1[.
  3. Même question si X\displaystyle X suit la loi B(n,p)\displaystyle \mathcal B(n,p) avec nN\displaystyle n\in\N^* et p]0;1[\displaystyle p\in]0;1[.

Pas d’astuce. Sommer les probabilités associées aux entiers pairs. C’est donc du calcul !

Dans tous les cas, pour une v.a. à valeurs dans N\displaystyle \N, P(X2N)=k=0P(X=2k)\displaystyle \mathbb P(X\in 2\N)=\sum_{k=0}^\infty\mathbb P(X=2k)

  1. P(X2N)=k=0eλλ2k(2k)!=eλch(λ)=1+e2λ2\displaystyle \mathbb P(X\in 2\N)=\sum_{k=0}^\infty e^{-\lambda}\frac{\lambda^{2k}}{(2k)!}=e^{-\lambda}\mathrm{ch}(\lambda)=\frac{1+e^{-2\lambda}}{2}.
  2. P(X2N)=k=1p(1p)2k1=p(1p)k=1(1p)2(k1)=p(1p)1(1p)2=1p2p\displaystyle \mathbb P(X\in 2\N)=\sum_{k=1}^\infty p(1-p)^{2k-1} = p(1-p)\sum_{k=1}^\infty (1-p)^{2(k-1)}=\frac{p(1-p)}{1-(1-p)^2}=\frac{1-p}{2-p}.
  3. Moins évident : calcul d’une somme du type binôme de Newton, mais avec un terme sur deux seulement.
    On peut remarquer que 1+(1)k2\displaystyle \frac{1+(-1)^k}{2} vaut 1\displaystyle 1 si k\displaystyle k est pair, 0\displaystyle 0 sinon. Ainsi
    P(X2N)=k[ ⁣[0,n] ⁣], k pairn(nk)pk(1p)nk=k=0n(nk)pk(1p)nk(1+(1)k2)=12k=0n(nk)pk(1p)nk+12k=0n(nk)(p)k(1p)nk=12(1+(12p)n)\begin{aligned}\mathbb P(X\in 2\N)&=\sum_{k\in[\![0,n]\!],~k\text{ pair}}^n \binom nk p^k(1-p)^{n-k}\\ &=\sum_{k=0}^n \binom nk p^k(1-p)^{n-k}\left(\frac{1+(-1)^k}{2}\right)\\ &= \frac 12\sum_{k=0}^n \binom nk p^k(1-p)^{n-k}+\frac 12 \sum_{k=0}^n \binom nk (-p)^k(1-p)^{n-k}\\ &=\frac 12\left(1+(1-2p)^n\right)\end{aligned}
    Remarque. Il est intéressant (pour la compréhension du schéma binomial) d’observer que cette probabilité vaut 1/2\displaystyle 1/2 si p=1/2\displaystyle p=1/2. Par ailleurs, même pour p1/2\displaystyle p\neq 1/2, elle tend vers 1/2\displaystyle 1/2 quand n\displaystyle n\to\infty.

Exercice 388 ⭐️⭐️ Couplage de binomiales, Spé/MP/L2

On dispose de deux pièces. La première donne pile avec probabilité p[0,1]\displaystyle p \in [0,1], la seconde donne pile avec probabilité r[0,1]\displaystyle r \in [0,1]. Pour chaque étape k{1,,n}\displaystyle k \in \{1,\ldots,n\}, on suit la procédure suivante : si le lancer de la première pièce donne pile, on pose Xk=Yk=1\displaystyle X_k=Y_k=1. Sinon on pose Xk=0\displaystyle X_k=0 et on lance la deuxième pièce. Si celle-ci tombe sur pile, on pose Yk=1\displaystyle Y_k=1 et sinon on pose Yk=0\displaystyle Y_k=0. On suppose que tous les lancers de pièce sont indépendants les uns des autres.

  1. Donner les lois des v.a. Xk\displaystyle X_k et Yk\displaystyle Y_k. Pour quelles valeurs de (p,r)\displaystyle (p,r) les v.a. Xk\displaystyle X_k et Yk\displaystyle Y_k sont-elles indépendantes ?
  2. On introduit les v.a. S=k=1nXk\displaystyle S=\sum_{k=1}^n X_k et S=k=1nYk\displaystyle S'=\sum_{k=1}^n Y_k. Donner les lois de S\displaystyle S et S\displaystyle S' et montrer que SS\displaystyle S' \ge S.
  3. En déduire que, pour tout 0ln\displaystyle 0 \le l \le n, la fonction ϕ:tk=ln(nk)tk(1t)nk\phi : t \mapsto \sum_{k=l}^n \binom{n}{k} t^k(1-t)^{n-k} est croissante sur [0,1]\displaystyle [0,1].
  4. Donner une preuve directe de la proposition précédente.

Si une v.a. ne prend que les valeurs 0 et 1, elle suit forcément une loi de Bernoulli ! Il ne reste plus qu’à trouver le paramètre…

  1. Pour Xk\displaystyle X_k c’est facile : cette v.a. suit la loi de Bernoulli B(p)\displaystyle \mathcal{B}(p). En ce qui concerne la v.a. Yk\displaystyle Y_k, on peut déjà remarquer qu’elle ne prend que les valeurs 0\displaystyle 0 et 1\displaystyle 1, donc elle suit une loi de Bernoulli B(q)\displaystyle \mathcal{B}(q). Le paramètre q\displaystyle q vaut P(Yk=1)\displaystyle \mathbb{P}(Y_k =1) et on a :
    P(Yk=1)=P(Yk=1Xk=0)P(Xk=0)+P(Yk=1Xk=1)P(Xk=1)=r(1p)+1p=r+(1r)p.\displaystyle \begin{aligned} \mathbb{P}(Y_k =1) &= \mathbb{P}(Y_k =1 | X_k=0)\mathbb{P}(X_k =0)+\mathbb{P}(Y_k =1|X_k=1)\mathbb{P}(X_k =1) \\ &= r(1-p)+1\cdot p \\ &= r+(1-r)p.\end{aligned} On a P(Xk=0,Yk=1)P(Xk=0)P(Yk=1)=r(1p)(1p)(r+(1r)p)=(1r)p0,\displaystyle \begin{aligned} \mathbb{P}(X_k=0,Y_k=1)-\mathbb{P}(X_k=0) \mathbb{P}(Y_k=1) &= r(1-p)-(1-p)(r+(1-r)p) \\ &=-(1-r)p \neq 0,\end{aligned} on en déduit que les v.a. Xk\displaystyle X_k et Yk\displaystyle Y_k se sont pas indépendantes, sauf si r=1\displaystyle r=1 ou p=0\displaystyle p=0.
  2. La famille (Xk)1kn\displaystyle (X_k)_{1 \le k \le n} est indépendante, et chaque Xk\displaystyle X_k suit la loi B(p)\displaystyle \mathcal{B}(p). On en déduit que S\displaystyle S suit la loi binomiale Bin(n,p)\displaystyle {\rm Bin}(n,p). Pour les mêmes raisons, S\displaystyle S' suit la loi binomiale Bin(n,q)\displaystyle {\rm Bin}(n,q). De plus, pour chaque 1kn\displaystyle 1 \le k \le n, on a XkYk\displaystyle X_k \le Y_k. En effet, l’événement (Xk=1)(Yk=0)\displaystyle (X_k=1) \cap (Y_k=0) est de probabilité nulle. On en déduit l’inégalité entre v.a. : SS\displaystyle S\le S'.
  3. On fixe l{1,,n}\displaystyle l \in \{1,\ldots,n\}. D’après la question précédente, si Sl\displaystyle S \ge l, alors Sl\displaystyle S' \ge l. Autrement dit, on a l’inclusion entre événements : (Sl)(Sl)\displaystyle (S \ge l) \subset (S' \ge l). En passant aux probabilités (propriété de croissance de la mesure de probabilité), on obtient P(Sl)P(Sl)\displaystyle \mathbb{P}(S \ge l) \leq \mathbb{P}(S' \ge l), ce qui s’écrit plus explicitement ϕ(p)=k=ln(nk)pk(1p)nkk=ln(nk)qk(1q)nk=ϕ(q).\phi(p) = \sum_{k=l}^n \binom{n}{k} p^k(1-p)^{n-k} \le \sum_{k=l}^n \binom{n}{k} q^k(1-q)^{n-k} = \phi(q). Cette inégalité est vraie pour tout couple (p,q)\displaystyle (p,q) tel que p[0,1]\displaystyle p \in [0,1] et q=r+(1r)p\displaystyle q=r+(1-r)p pour un certain r[0,1]\displaystyle r \in [0,1]. Si on se donne p[p,1]\displaystyle p' \in [p,1], on pose r=pp1p[0,1]\displaystyle r'=\frac{p'-p}{1-p} \in [0,1] et on a p=r+(1r)p\displaystyle p'=r+(1-r)p. On a donc bien ϕ(p)ϕ(p)\displaystyle \phi(p) \le \phi(p') pour tous 0pp1\displaystyle 0 \le p \le p' \le 1.
  4. Faute d’imagination, on va dériver, et croiser les doigts. Un miracle va se produire. On pose bn,k(t)=(nk)tk(1t)nk\displaystyle b_{n,k}(t) = \binom{n}{k} t^k (1-t)^{n-k} (c’est un polynôme de Bernstein). On dérive par rapport à t\displaystyle t : bn,k(t)=(nk)ktk1(1t)nk(nk)(nk)tk(1t)n1k.b_{n,k}'(t) = \binom{n}{k}kt^{k-1}(1-t)^{n-k} - \binom{n}{k}(n-k)t^k(1-t)^{n-1-k}. Or on a les formules : k(nk)=n(n1k1) , (nk)(nk)=n(n1k),k\binom{n}{k} = n \binom{n-1}{k-1} \ , \ (n-k)\binom{n}{k} = n \binom{n-1}{k}, on en déduit que (et là est le miracle) : bn,k(t)=n(bn1,k1(t)bn1,k(t)).b_{n,k}'(t) = n \left(b_{n-1,k-1}(t)-b_{n-1,k}(t)\right). Comme on a ϕ(t)=k=lnbn,k(t)\displaystyle \phi(t) = \sum_{k=l}^n b_{n,k}(t), on en déduit, par somme téléscopique, que : ϕ(t)=nbn1,l1(t)0,\phi'(t) = n b_{n-1,l-1}(t) \ge 0, donc la fonction ϕ\displaystyle \phi est bien croissante.

Exercice 390 ⭐️⭐️⭐️ Probabilités sur un cube, Spé/MP/L2

Soit n1\displaystyle n \ge 1 un entier. On considère le cube C={Z/2Z}n\displaystyle C=\{ \mathbb{Z}/2\mathbb{Z}\}^n, que l’on munit de la loi d’addition usuelle, et on introduit l’application S:CN\displaystyle S : C \rightarrow \mathbb{N} qui à tout x=(x1,,xn)C\displaystyle x=(x_1,\ldots,x_n) \in C associe le nombre d’indices i{1,,n}\displaystyle i \in \{1,\ldots,n\} tels que xi=1\displaystyle x_i = 1.
Soit X:ΩC\displaystyle X : \Omega \rightarrow C une v.a. de loi uniforme sur C\displaystyle C. On note X(ω)=(X1(ω),,Xn(ω))\displaystyle X(\omega)=(X_1(\omega),\ldots,X_n(\omega)) les coordonnées de X(ω).\displaystyle X(\omega).

  1. Quelle est la loi de Xi:ΩZ/2Z\displaystyle X_i : \Omega \rightarrow \mathbb{Z}/2\mathbb{Z} ?
  2. Montrer que la famille (X1,,Xn)\displaystyle (X_1,\ldots,X_n) est indépendante.
  3. Quelle est la loi de la v.a. S(X)\displaystyle S(X) ? Donner son espérance.
  4. Soit aC\displaystyle a \in C. Montrer que la v.a. Y=X+a\displaystyle Y=X+a suit aussi la loi uniforme sur C\displaystyle C.
  5. On suppose que a=(1,,1,0,,0)\displaystyle a=(1,\ldots,1,0,\ldots,0), avec S(a)=p\displaystyle S(a)=p. Construire deux v.a. indépendantes U,V:ΩN\displaystyle U,V : \Omega \rightarrow \mathbb{N} telles que S(X)=U+V\displaystyle S(X)=U+V et S(Y)=(pU)+V\displaystyle S(Y) = (p-U)+V.
  6. En déduire la valeur de la covariance Cov(S(X),S(Y))\displaystyle {\rm Cov}(S(X),S(Y)).
  1. Calculons P(Xi=0)\displaystyle \mathbb{P}(X_i=0). Par définition de la loi uniforme, on a : P(X=0)=Card(xC:xi=0)Card(C).\mathbb{P}(X=0) = \frac{{\rm Card}(x \in C : x_i=0)}{{\rm Card}(C)}. Or on a Card(C)=2n\displaystyle \rm{Card}(C) = 2^n, et il y a une bijection naturelle entre l’ensemble (xC:xi=0)\displaystyle (x \in C : x_i=0) et l’ensemble des n1\displaystyle n-1 uplets (x1,,xi1,xi+1,,xn)(Z/2Z)n1\displaystyle (x_1,\ldots,x_{i-1},x_{i+1},\ldots,x_n) \in (\mathbb{Z}/2\mathbb{Z})^{n-1}, ainsi P(Xi=0)=2n12n=12.\mathbb{P}(X_i=0) = \frac{2^{n-1}}{2^n} = \frac{1}{2}. On montre de la même façon que P(Xi=1)=12\displaystyle \mathbb{P}(X_i=1)=\frac{1}{2}.
  2. Soit xC\displaystyle x \in C donné. On a : P((X1,,Xn)=(x1,,xn))=P(X=x)=12n.\mathbb{P}\left((X_1,\ldots,X_n)=(x_1,\ldots,x_n)\right) = \mathbb{P}(X=x) = \frac{1}{2^n}. Mais on a aussi, d’après la question précédente : i=1nP(Xi=xi)=i=1n12=12n.\prod_{i=1}^n \mathbb{P}(X_i=x_i) = \prod_{i=1}^n \frac{1}{2} = \frac{1}{2^n} . On a bien, pour tout xC\displaystyle x \in C, l’égalité P(X1=x1,,Xn=xn)=P(X1=x1)P(Xn=xn),\mathbb{P}(X_1=x_1,\ldots,X_n=x_n) = \mathbb{P}(X_1=x_1) \cdots \mathbb{P}(X_n=x_n), ce qui prouve l’indépendance de la famille (Xi)1in\displaystyle (X_i)_{1 \le i \le n}.
  3. Un élément xC\displaystyle x \in C vérifie S(x)=k\displaystyle S(x)=k si et seulement si k\displaystyle k parmi ses n\displaystyle n coordonnées valent 1\displaystyle 1, les autres valant 0\displaystyle 0. Il y a exactement (nk)\displaystyle \binom{n}{k} choix possibles pour ces k\displaystyle k coordonnées, et ainsi P(X=k)=Card(xC:S(x)=k)Card(C)=12n(nk).\mathbb{P}(X=k) = \frac{{\rm Card}(x \in C : S(x)=k)}{{\rm Card}(C)} = \frac{1}{2^n} \binom{n}{k}. On reconnaît la loi binomiale binn,1/2\displaystyle {\rm bin}_{n,1/2}, et on sait alors que E[S(X)]=n2\displaystyle \mathbb{E}[S(X)] = \frac{n}{2}.
  4. La v.a. Y\displaystyle Y est aussi à valeurs dans C\displaystyle C, et on a, pour tout xC\displaystyle x \in C : P(Y=x)=P(X+a=x)=P(X=xa)=12n,\mathbb{P}(Y=x) = \mathbb{P}(X+a=x) = \mathbb{P}(X=x-a) = \frac{1}{2^n}, ce qui prouve que Y\displaystyle Y suit aussi la loi uniforme sur C\displaystyle C.
  5. On pose U=Card{i{1,,p}:Xi=1},U = {\rm Card}\{i \in \{1,\ldots,p\} : X_i=1\}, V=Card{i{p+1,,n}:Xi=1}.V = {\rm Card}\{i \in \{p+1,\ldots,n\} : X_i=1\}. Comme U\displaystyle U ne dépend que de X1,,Xp\displaystyle X_1,\ldots,X_p et V\displaystyle V ne dépend que de Xp+1,,Xn\displaystyle X_{p+1},\ldots,X_n, le lemme des coalitions permet de conclure que U\displaystyle U et V\displaystyle V sont indépendantes. De plus, le même raisonnement que la question 3 permet de conclure que U\displaystyle U suit la loi binomiale binp,1/2\displaystyle {\rm bin}_{p,1/2} et que V\displaystyle V suit la loi binomiale binnp,1/2\displaystyle {\rm bin}_{n-p,1/2}.

Il est clair qu’on a S(X)=U+V\displaystyle S(X)=U+V. De plus, la i\displaystyle i-ème coordonnée de Y\displaystyle Y vaut 1\displaystyle 1 si et seulement si Xi=0\displaystyle X_i=0 et ai=1\displaystyle a_i=1 ou Xi=1\displaystyle X_i=1 et ai=0\displaystyle a_i=0. Ainsi, pour ip\displaystyle i \le p, on a Yi=1Xi=0\displaystyle Y_i=1 \Leftrightarrow X_i=0 et pour i>p\displaystyle i>p on a Yi=1Xi=1\displaystyle Y_i=1 \Leftrightarrow X_i=1. On en déduit que S(Y)=Card{i{1,,p}:Xi=1}+V=pU+V.S(Y) = {\rm Card}\{i \in \{1,\ldots,p\} : X_i=1\}+V = p-U+V.

  1. D’après la question précédente, on a E[S(X)S(Y)]=E[(pU+V)(U+V)]=pE[U+V]E[U2]+E[V2].\displaystyle \begin{aligned}\mathbb{E}[S(X)S(Y)] &= \mathbb{E}[(p-U+V)(U+V)] \\ &=p \mathbb{E}[U+V] - \mathbb{E}[U^2]+\mathbb{E}[V^2].\end{aligned}
    Comme U\displaystyle U suit une loi binomiale, on calcule faciement : E[U2]=E[U(U1)]+E[U]=p(p1)4+p2=p(p+1)4.\mathbb{E}[U^2] = \mathbb{E}[U(U-1)] + \mathbb{E}[U] = \frac{p(p-1)}{4} + \frac{p}{2} = \frac{p(p+1)}{4}.
    De la même façon : E[V2]=(np)(np+1)4.\mathbb{E}[V^2] =\frac{(n-p)(n-p+1)}{4}. Enfin E[U+V]=E[X]=n2.\mathbb{E}[U+V] = \mathbb{E}[X] = \frac{n}{2}. Après simplifications, on obtient : E[S(X)S(Y)]=n2+n2p4.\mathbb{E}[S(X)S(Y)] = \frac{n^2+n-2p}{4}. De plus, S(X)\displaystyle S(X) et S(X)\displaystyle S(X) suivent chacune la loi binomiale binn,1/2\displaystyle {\rm bin}_{n,1/2} donc : Cov(S(X),S(Y))=n2+n2p4(n2)2=n2p4.{\rm Cov}(S(X),S(Y)) = \frac{n^2+n-2p}{4} - \left(\frac{n}{2}\right)^2 = \frac{n-2p}{4}.

Remarque : Plus généralement, pour a,bC\displaystyle a,b \in C, on a Cov(S(X+a),S(X+b))=n2S(a+b)4.{\rm Cov}(S(X+a),S(X+b)) = \frac{n-2S(a+b)}{4}.

Exercice 396 ⭐️⭐️⭐️ Un temps d’arrêt, MP/L2

Soit X\displaystyle X une v.a. à valeurs dans N\displaystyle \mathbb{N}. On suppose que P(X=k)>0\displaystyle \mathbb{P}(X=k)>0 pour tout k0\displaystyle k \ge 0. Soit (Xi)i0\displaystyle (X_i)_{i \ge 0} une suite i.i.d. de v.a. de même loi que X\displaystyle X. On note T=inf{n1:Xn>X0}.T = \inf\left\{ n \ge 1 : X_n > X_0 \right\}.

  1. Montrer que P(T>n)=k=0P(Xk)nP(X=k).\mathbb{P}(T > n) = \sum_{k=0}^\infty \mathbb{P}(X \le k)^n \mathbb{P}(X=k).
  2. Montrer que E[T]=k=0P(X=k)P(X>k).\mathbb{E}[T] = \sum_{k=0}^\infty \frac{\mathbb{P}(X=k)}{\mathbb{P}(X>k)}.
  3. En déduire que E[T]=\displaystyle \mathbb{E}[T]=\infty.
  4. Montrer que P(T>n)1n+1\displaystyle \mathbb{P}(T>n) \ge \frac{1}{n+1}.
  5. Que dire de l’espérance de T=inf{n2:Xn>min(X0,X1)}\displaystyle T' = \inf\left\{ n \ge 2 : X_n > \min(X_0,X_1) \right\} ?
  1. Par définition de T\displaystyle T, on a l’égalit’e entre les événements (T>n)=i=1n(XiX0).(T>n) = \bigcap_{i=1}^{n}(X_i \le X_0). donc : (T>n)(X0=k)=i=1n((XiX0)(X0=k))=(i=1n(Xik))(X0=k).(T>n)\cap (X_0=k) = \bigcap_{i=1}^{n}\left((X_i \le X_0)\cap(X_0=k) \right) = \left(\bigcap_{i=1}^{n}(X_i \le k) \right)\cap(X_0=k). L’indépendance de la famille (X0,,Xn)\displaystyle (X_0,\ldots,X_n) permet d’écrire : P(T>n,X0=k)=i=1nP(Xik)P(X0=k).\mathbb{P}(T>n,X_0=k) = \prod_{i=1}^n \mathbb{P}(X_i \le k) \mathbb{P}(X_0=k). Comme les Xi\displaystyle X_i ont toutes la même loi, on a : P(T>n,X0=k)=(i=1nP(Xk))P(X=k)=P(Xk)nP(X=k).\mathbb{P}(T>n,X_0=k) = \left(\prod_{i=1}^n \mathbb{P}(X \le k) \right) \mathbb{P}(X=k) = \mathbb{P}(X \le k)^n \mathbb{P}(X=k). On conclut en utilisant la formule des probabilités totales, qui s’écrit ici P(T>n)=k=0P(T>n,X0=k).\mathbb{P}(T>n) = \sum_{k=0}^\infty \mathbb{P}(T>n,X_0=k).
  2. On sait que E[T]=n=0P(T>n)\displaystyle \mathbb{E}[T] = \sum_{n =0}^\infty \mathbb{P}(T>n). Comme la famille (P(Xk)n)n0,k0\displaystyle \left(\mathbb{P}(X \le k)^n\right)_{n \ge 0, k \ge 0} est à termes positifs, on peut intervertir l’ordre de sommation, on a donc, d’après la question précédente : n=0P(T>n)=k=0(n=0P(Xk)n)P(X=k).\sum_{n =0}^\infty \mathbb{P}(T>n) = \sum_{k=0}^\infty \left(\sum_{n=0}^\infty \mathbb{P}(X \le k)^n \right) \mathbb{P}(X=k). Or à k0\displaystyle k \ge 0 fixé on a P(Xk)1P(X=k+1)<1\displaystyle \mathbb{P}(X \le k)\le 1-\mathbb{P}(X=k+1)<1, d’après une hypothèse de l’énoncé. On connaît alors la somme de la série intérieure : n=0P(Xk)n=11P(Xk)=1P(X>k).\sum_{n=0}^\infty \mathbb{P}(X \le k)^n = \frac{1}{1-\mathbb{P}(X \le k)} = \frac{1}{\mathbb{P}(X>k)}. On a donc E[T]=k=0P(X=k)P(X>k).\mathbb{E}[T] = \sum_{k=0}^\infty \frac{\mathbb{P}(X=k)}{\mathbb{P}(X>k)}.
  3. Posons ak=P(X>k)\displaystyle a_k = \mathbb{P}(X>k) (en particulier a0=1\displaystyle a_0=1). On a P(X=k)=ak1ak\displaystyle \mathbb{P}(X=k) = a_{k-1}-a_k, donc E[T]=k=0(ak1ak1).\mathbb{E}[T] = \sum_{k=0}^\infty \left(\frac{a_{k-1}}{a_k}-1\right). Pour montrer que cette série est divergente, on utilise l’inégalité élémentaire ln(x)x1\displaystyle \ln(x) \le x-1, on a alors, pour tout K1\displaystyle K \ge 1 : k=0K(ak1ak1)k=0Kln(ak1ak)=ln(k=0Kak1ak)=ln(aK).\sum_{k=0}^K \left(\frac{a_{k-1}}{a_k}-1\right) \ge \sum_{k=0}^K \ln\left(\frac{a_{k-1}}{a_k}\right) = \ln\left(\prod_{k=0}^K \frac{a_{k-1}}{a_k}\right) = -\ln(a_K). Comme on a limKaK=0\displaystyle \lim_{K \to \infty} a_K = 0, on a bien montré que E[T]=limKk=0K(ak1ak1)=+.\mathbb{E}[T] = \lim_{K \to \infty} \sum_{k=0}^K \left(\frac{a_{k-1}}{a_k}-1\right) = +\infty.
  4. On va vu en répndant à la question 1 que P(T>n)=P(X0max{Xi:1in}).\mathbb{P}(T>n) = \mathbb{P}\left( X_0 \ge \max\left\{X_i : 1\le i \le n\right\}\right). Or le vecteur aléatoire (X0,,Xn)\displaystyle (X_0,\ldots,X_n) est indépendant, en particulier sa loi est inchangée par permutation des coordonnées. On a donc, pour tout i{0,,n}\displaystyle i \in \{0,\ldots,n\} : P(T>n)=P(Ximax{Xj:1jn,ji}).\mathbb{P}(T>n) = \mathbb{P}\left( X_i \ge \max\left\{X_j : 1\le j \le n, j \neq i\right\}\right). En additionnant, puis en utilisant la sous-additivité de la mesure de probabilité : (n+1)P(T>n)=i=0nP(Ximax{Xj:1jn,ji})P(i=0n(Ximax{Xj:1jn,ji}))=P(Ω)=1.\displaystyle \begin{aligned}(n+1) \mathbb{P}(T>n) &= \sum_{i=0}^n\mathbb{P}\left( X_i \ge \max\left\{X_j : 1\le j \le n, j \neq i\right\}\right) \\ &\ge \mathbb{P}\left(\bigcup_{i=0}^n \left( X_i \ge \max\left\{X_j : 1\le j \le n, j \neq i\right\}\right)\right) \\ &=\mathbb{P}(\Omega) = 1.\end{aligned}
    On a donc bien P(T>n)=1n+1\displaystyle \mathbb{P}(T>n)= \frac{1}{n+1}, ce qui permet (par divergence de la série harmonique) de retrouver que E[T]=\displaystyle \mathbb{E}[T]= \infty.
    5.Une question pour tenter les esprits les plus curieux et aventureux ! J’imagine qu’un raisonnement similaire à celui de la question 4 permettrait de montrer que P(T>n)=O(1/n2)\displaystyle \mathbb{P}(T'>n) = O(1/n^2), ce qui montrerait que E[T]<\displaystyle \mathbb{E}[T']<\infty, mais si cela se trouve ce raisonnement n’est pas correct en toute généralité… Bref, du grain à moudre pour les longues soirées d’hiver…

Exercice 532 ⭐️ Bernoulli symétrique, Cauchy-Schwarz, Sup/L1

Soit Xi\displaystyle X_i des v.a. de Bernoulli symétriques (i.e. proba uniforme sur {1,1}\displaystyle \{-1,1\}) indépendantes. Calculer E[(X1++Xn)2]\displaystyle \mathbb E\left[(X_1+\cdots+X_n)^2\right]. Comparer à l’inégalité de Cauchy-Schwarz.

  • Carré d’une somme 👉 Développer ;
  • Indépendance 👉 EXiXj=EXiEXj\displaystyle E X_iX_j=EX_i EX_j si ij\displaystyle i\neq j.

On développe : (X1++Xn)2=i,jXiXj\displaystyle (X_1+\cdots+X_n)^2=\sum_{i,j}X_iX_j, d’où par linéarité et indépendance : E[(X1++Xn)2]=i=1nE[Xi2]+ijE[Xi]E[Xj]\displaystyle E\left[(X_1+\cdots+X_n)^2\right]=\sum_{i=1}^nE[X_i^2]+\sum_{i\neq j}E[X_i]E[X_j]. Comme les Xi\displaystyle X_i sont centrées et de même loi, on en déduit que E[(X1++Xn)2]=nE[X12].E\left[(X_1+\cdots+X_n)^2\right]=nE[X_1^2]. L’inégalité de Cauchy-Schwarz donne (X1++Xn)2niXi2\displaystyle (X_1+\cdots+X_n)^2\le n\sum_{i}X_i^2, d’où E[(X1++Xn)2]n2E[X12].E\left[(X_1+\cdots+X_n)^2\right]\le n^2E[X_1^2]. L’inégalité donne un ordre de grandeur très mauvais en n2\displaystyle n^2 contre n\displaystyle n en réalité : elle ne prend pas en considération “l’interaction” des v.a. entre elles, ici une corrélation nulle.

Exercice 564 ⭐️ une variable aléatoire, Sup/Spé/L2

On lance, pour n=1\displaystyle n=1, n=2\displaystyle n=2, n=3,\displaystyle n=3,\dots un dé à n\displaystyle n faces (il y a donc une infinité de lancers, supposés indépendants).
On s’intéresse à la variable aléatoire égale au numéro du lancer pour lequel on a obtenu 1 pour la dernière fois (en convenant que X=0\displaystyle X=0 si on obtient 1 indéfiniment).

  1. Déterminer la loi de X\displaystyle X.
  2. Montrer que X\displaystyle X possède une espérance et la calculer.
  3. Montrer que X\displaystyle X possède une variance et la calculer.
  1. {X=n}\displaystyle \{X=n\} est une succession d’évènements indépendants.
  2. C’est du calcul !
  3. C’est encore du calcul !
  1. Notons Sn\displaystyle S_n l’évènement <<le n\displaystyle n-ème lancer donne 1>>.
    L’ensemble des valeurs possibles pour X\displaystyle X est N\displaystyle \N.
    Pour nN\displaystyle n\in\N^*, par indépendance,
    P(X=n)=P(S1S2SnSn+1)=P(S1)P(S2)P(Sn)P(Sn+1)=1×12××1n×(11n+1)=n(n+1)!=1(n+1)(n1)!.\begin{aligned} \mathbb P(X=n)&=\mathbb P(S_1\cap S_2\cap\dots\cap S_n\cap\overline{S_{n+1}}) \\ & = \mathbb P(S_1)\mathbb P(S_2)\dots\mathbb P(S_n)\mathbb P(\overline{S_{n+1}})\\ &= 1\times\frac 12\times \dots\times \frac 1n\times\left(1-\frac{1}{n+1}\right)\\ &= \frac{n}{(n+1)!}=\frac{1}{(n+1)(n-1)!}. \end{aligned}Par linéarité de \displaystyle \sum sur des séries convergentes,
    n=1P(X=n)=n=1(n+1(n+1)!1(n+1)!)=n=11n!n=21n!=1.\begin{aligned} \sum_{n=1}^\infty\mathbb P(X=n)&=\sum_{n=1}^\infty\left(\frac{n+1}{(n+1)!}-\frac{1}{(n+1)!}\right)\\ &=\sum_{n=1}^\infty\frac{1}{n!}-\sum_{n=2}^\infty\frac{1}{n!} = 1. \end{aligned}Donc par complémentaire, P(X=0)=0\displaystyle \mathbb P(X=0)=0. Autrement dit il est impossible d’obtenir 1\displaystyle 1 indéfiniment.
  2. La variable aléatoire X\displaystyle X est à valeurs positives, et pour nN\displaystyle n\in\N^*,
    n P(X=n)=n(n+1)(n1)!=(n+1)1(n+1)(n1)!=1(n1)!1(n+1)(n1)!n~\mathbb P(X=n)=\frac{n}{(n+1)(n-1)!}=\frac{(n+1)-1}{(n+1)(n-1)!}=\frac{1}{(n-1)!} - \frac{1}{(n+1)(n-1)!}Or n11(n1)!\displaystyle \sum_{n\ge 1}\frac{1}{(n-1)!} et n11(n+1)(n1)!\displaystyle \sum_{n\ge 1}\frac{1}{(n+1)(n-1)!} sont deux séries convergentes, donc n1nP(X=n)\displaystyle \sum_{n\ge 1}n\mathbb P(X=n) est convergente, donc X\displaystyle X possède une espérance et :
    E(X)=n=11(n1)!n=11(n+1)(n1)!.\mathbb E(X)=\sum_{n=1}^\infty \frac{1}{(n-1)!}-\sum_{n=1}^\infty \frac{1}{(n+1)(n-1)!}.D’après la question précédente on a donc E(X)=e1\displaystyle \mathbb E(X) = e-1.
  3. Comme X\displaystyle X possède une espérance, il suffit de vérifier que X2X\displaystyle X^2-X en possède une. Pour n2\displaystyle n\ge 2,
    0n(n1)P(X=n)=n(n+1)(n2)!1(n2)!,\begin{aligned} 0\le n(n-1)\mathbb P(X=n)&=\frac{n}{(n+1)(n-2)!}\le \frac{1}{(n-2)!}, \end{aligned} donc n(n1)P(X=n)\displaystyle \sum n(n-1)\mathbb P(X=n) est une série positive convergente, donc E(X2X)\displaystyle \mathbb E(X^2-X) existe et :
    E(X2X)=n=2(n+1)1(n+1)(n2)!=n=2(1(n2)!1(n+1)(n2)!).\begin{aligned} \mathbb E(X^2-X) &=\sum_{n=2}^\infty \frac{(n+1)-1}{(n+1)(n-2)!}=\sum_{n=2}^\infty\left(\frac{1}{(n-2)!} -\frac{1}{(n+1)(n-2)!}\right). \end{aligned} On peut écrire 1(n+1)(n2)!=n(n1)(n+1)!=(n+1)n2(n+1)+2(n+1)!=1(n1)!2n!+2(n+1)!\displaystyle \frac{1}{(n+1)(n-2)!}=\frac{n(n-1)}{(n+1)!}=\frac{(n+1)n-2(n+1)+2}{(n+1)!} = \frac{1}{(n-1)!}-\frac{2}{n!}+\frac{2}{(n+1)!}.
    Ainsi E(X2X)=e((e1)2(e2)+2(e52))=2.\begin{aligned} \mathbb E(X^2-X) &=e-\left((e-1)-2(e-2)+2(e-\frac 52)\right) = 2. \end{aligned} Au final, V(X)=E(X2X)+E(X)E(X)2=2(e1)(e2)\displaystyle \mathbb V(X)=\mathbb E(X^2-X) +\mathbb E(X) - \mathbb E(X)^2 = 2-(e-1)(e-2), après simplification.

Commentaire.
Une méthode plus intéressante aurait été de passer par la fonction génératrice GX(t)=n=1P(X=n)tn\displaystyle G_X(t)=\sum_{n=1} ^\infty \mathbb P(X=n)t^n. Vous pouvez montrer que le rayon de convergence est +\displaystyle +\infty et calculer GX(t)\displaystyle G_X(t). L’espérance et la variance de X\displaystyle X s’en déduisent par calcul de GX(1)\displaystyle G'_X(1) et GX(1)\displaystyle G''_X(1).

Exercice 579 ⭐️⭐️⭐️ Egalité parfaite de moments, Spé/L2/L3

Soit σ\displaystyle \sigma une permutation aléatoire uniforme de {1,,n}\displaystyle \{1, \dots, n\}.

  1. Pour j1,,jk\displaystyle j_1, \dots, j_k distincts dans {1,,n}\displaystyle \{1,\dots, n\}, déterminer la probabilité que j1,,jk\displaystyle j_1, \dots, j_k soient des points fixes de σ\displaystyle \sigma.
  2. Si X\displaystyle X est le nombre de points fixes de σ\displaystyle \sigma et si k{1,,n}\displaystyle k \in \{1, \dots, n\}, calculer l’espérance de X(X1)(X2)(Xk+1)\displaystyle X(X-1)(X-2) \dots (X-k+1).
  3. Montrer que pour tout polynôme P\displaystyle P de degré au plus n\displaystyle n, on a E[P(X)]=E[P(N)]\displaystyle \mathbb{E}[ P(X)] = \mathbb{E}[P (N)]N\displaystyle N est une variable aléatoire ne dépendant pas de n\displaystyle n, dont on identifiera la loi.
  1. Il y a (nk)!\displaystyle (n-k)! permitations fixant k\displaystyle k éléments donnés sur n\displaystyle n, donc la probabilité est (nk)!/n!\displaystyle (n-k)!/n!.
  2. La quantité X(X1)(Xk+1)\displaystyle X(X-1) \dots (X-k+1) est égale au nombre de k\displaystyle k-uplets de points fixes distincts. En additionnant les probabilités de tous les k\displaystyle k-uplets possibles, qui sont au nombre de n!/(nk)!\displaystyle n!/(n-k)!, on obtient (nk)!/n!\displaystyle (n-k)!/n! fois n!/(nk)!\displaystyle n!/(n-k)!, et l’espérance cherchée vaut 1\displaystyle 1.
  3. Le fait que des entiers donnés soient des points fixes de σ\displaystyle \sigma correspond à des événements nombreux et rares, donc il est naturel de comparer X\displaystyle X à une variable de Poisson, de paramètre E[X]=1\displaystyle \mathbb{E} [ X] = 1. Si N\displaystyle N est une telle variable, on a pour k{1,,n}\displaystyle k \in \{1, \dots, n\}, E[N(N1)(Nk+1)]=e1j=0j(j1)(jk+1)j!.\mathbb{E} [ N(N-1) \dots (N-k+1)] = e^{-1} \sum_{j = 0}^{\infty} \frac{j(j-1)\dots (j-k+1)}{j!}. On peut commencer la somme à j=k\displaystyle j=k, ce qui donne e1j=kj!j!(jk)!=e1m=01m!=1.e^{-1} \sum_{j=k}^{\infty} \frac{j!}{j! (j-k)!} = e^{-1} \sum_{m=0}^{\infty} \frac{1}{m!} = 1. Ceci donne l’égalité cherchée pour les polynômes X(X1)(Xk+1)\displaystyle X(X-1)\dots (X-k+1) avec k{1,,n}\displaystyle k \in \{1,\dots, n\}, ce qui est suffisant car l’espace vectoriel qu’ils engendrent avec les constantes contient tous les polynômes de degré au plus n\displaystyle n.

Exercice 582 ⭐️⭐️ Pétanque, Sup/L1

Une manche de pétanque oppose deux équipes A et B. Chaque équipe lance n\displaystyle n boules.
On suppose que l’ordre des boules à la fin de la manche, de la plus proche à la moins proche du cochonnet, est distribuée selon une probabilité uniforme. On considère X\displaystyle X le nombre de points marqués à cette manche par l’équipe gagnante.

  1. Déterminer la loi de X\displaystyle X.
  2. Montrer que pour toute variable aléatoire Z\displaystyle Z à valeurs dans [ ⁣[1,n] ⁣]\displaystyle [\![1,n]\!], E(Z)=k=1nP(Zk)\displaystyle \mathbb E(Z)=\sum_{k=1}^n\mathbb P(Z\ge k).
  3. Montrer que pour n,NN\displaystyle n,N\in\N tels que Nn\displaystyle N\ge n on a p=nN(pn)=(N+1n+1)\displaystyle \sum_{p=n}^N\binom pn=\binom{N+1}{n+1}
  4. Calculer l’espérance de X\displaystyle X.
  1. Équiprobabilité 👉 Poser Ω\displaystyle \Omega, et procéder par dénombrement.
  2. Écrire P(Zk)\displaystyle \mathbb P(Z\ge k) comme une somme de probabilités.
  3. Récurrence !
  4. Il est préférable d’utiliser l’expression de E(X)\displaystyle \mathbb E(X) démontrée en 2. plutôt que celle de la définition.
  1. On considère qu’une issue de l’expérience est une partie C\displaystyle C de cardinal n\displaystyle n de l’ensemble [ ⁣[1,2n] ⁣]\displaystyle [\![1,2n]\!]. C\displaystyle C représente par exemple l’ensemble des boules de l’équipe A\displaystyle A, plus précisément iC\displaystyle i\in C si et seulement si la i\displaystyle i-ème boule la plus proche du cochonnet est à l’équipe A\displaystyle A.
    Par conséquent Ω\displaystyle \Omega l’ensemble des issues est de cardinal (2nn)\displaystyle \binom{2n}{n}.
    Soit k[ ⁣[1,n] ⁣]\displaystyle k\in[\![1,n]\!]. On s’intéresse à l’évènement {Xk}\displaystyle \{X\ge k\}, autrement dit “les k\displaystyle k boules les plus proches sont de la même équipe”.
    Une issue de l’évènement {Xk}\displaystyle \{X\ge k\} est déterminée par la donnée de l’équipe gagnante, et de la position des n\displaystyle n boules de l’équipe perdante parmi les (2nk)\displaystyle (2n-k) boules les moins proches. Ainsi P(Xk)=2(2nkn)(2nn).\mathbb P(X\ge k) = \frac{2\binom{2n-k}{n}}{\binom{2n}{n}}. On peut ainsi exprimer la loi de X\displaystyle X : P(X=k)=P(Xk)P(Xk+1)=2(2nkn)(2nn)2(2n1kn)(2nn)\mathbb P(X= k) =\mathbb P(X\ge k)-\mathbb P(X\ge k+1) = \frac{2\binom{2n-k}{n}}{\binom{2n}{n}}-\frac{2\binom{2n-1-k}{n}}{\binom{2n}{n}} Remarque. Une autre possibilité était de passer par la formule des probabilités composées !
  2. Cette identité classique s’obtient par interversion de somme :
    k=1nP(Zk)=k=1ni=knP(Z=i)=i=1nk=1iP(Z=i)=i=1ni P(Z=i)=E(Z).\begin{aligned} \sum_{k=1}^n\mathbb P(Z\ge k) & = \sum_{k=1}^n\sum_{i=k}^n\mathbb P(Z=i)\\ &=\sum_{i=1}^n\sum_{k=1}^i\mathbb P(Z=i)\\ &=\sum_{i=1}^ni~\mathbb P(Z=i) = \mathbb E(Z).\end{aligned}
  3. C’est encore une identité classique, on peut fixer n\displaystyle n et procéder par récurrence sur N\displaystyle N.
    Initialisation. Pour N=n\displaystyle N=n l’égalité est vraie (1=1\displaystyle 1=1).
    Hérédité. Supposons la propriété vraie à un rang Nn\displaystyle N\ge n donné. Alors p=nN+1(pn)=(N+1n+1)+(N+1n)=(N+2n+1).\sum_{p=n}^{N+1}\binom pn=\binom{N+1}{n+1}+\binom{N+1}{n}=\binom{N+2}{n+1}.
  4. On a d’après 2. :
    E(X)=2(2nn)k=1n(2nkn)=2(2nn)p=n2n1(pn)(chgt. d’indice)=2(2nn)(2nn+1)=2nn+1(question 3).\begin{aligned} \mathbb E(X) &= \frac{2}{\binom{2n}{n}}\sum_{k=1}^n\binom{2n-k}{n}\\ &=\frac{2}{\binom{2n}{n}}\sum_{p=n}^{2n-1}\binom{p}{n}\qquad\qquad\text{(chgt. d'indice)}\\ &=\frac{2}{\binom{2n}{n}}\binom{2n}{n+1} = \frac{2n}{n+1}\qquad\qquad\text{(question 3)}.\end{aligned}

Exercice 601 ⭐️⭐️ Urne d’Ehrenfest, Spé/L2

On a deux urnes A\displaystyle A et B\displaystyle B comportant r\displaystyle r boules pour la première et 2nr\displaystyle 2n-r pour la seconde. Un tirage consiste à choisir aléatoirement une boule et à la déplacer dans l’autre urne. On note Xk\displaystyle X_k le nombre de boules contenues dans l’urne A\displaystyle A après k\displaystyle k tirages.

  1. Donner la loi de X1\displaystyle X_1, sa fonction génératrice, et son espérance.
  2. Exprimer une relation entre les lois de Xk+1\displaystyle X_{k+1} et Xk\displaystyle X_k.
  3. On note Gk\displaystyle G_k la fonction génératrice de la variable Xk\displaystyle X_k. Prouver que
    Gk+1(t)=tGk(t)+1t22nGk(t).G_{k+1}(t)=tG_k(t)+\frac{1-t^2}{2n}G'_k(t).
  4. En déduire limkE(Xk)\displaystyle \lim_{k\to\infty}\mathbb E(X_k), et interpréter.
  1. Pas de difficulté particulière.
  2. Variables non indépendantes 👉 Formule des probabilités totales.
  3. Ecrire la définition de Gk+1\displaystyle G_{k+1}. Fort à parier qu’il faille ensuite appliquer 2. puisqu’on veut faire apparaître la fonction génératrice de Xk\displaystyle X_k.
  4. Le lien entre l’espérance et la fonction génératrice : E(Xk)=Gk(1)\displaystyle \mathbb E(X_k)=G'_k(1).
  1. Les valeurs possibles pour X1\displaystyle X_1 sont r1\displaystyle r-1 et r+1\displaystyle r+1, avec probas respectives r2n\displaystyle \frac{r}{2n} et 2nr2n\displaystyle \frac{2n-r}{2n}. Ainsi GX1(t)=r2ntr1+2nr2ntr+1.G_{X_1}(t)= \frac{r}{2n} t^{r-1} + \frac{2n-r}{2n}t^{r+1}.
    L’espérance de X1\displaystyle X_1 peut être déterminée par exemple avec la relation E(X1)=GX1(1)=1+rrn\displaystyle \mathbb E(X_1)=G'_{X_1}(1)=1+r-\frac rn, après simplification.
    Remarque. Cette relation est valable car X1\displaystyle X_1 est une v.a. finie : GX1\displaystyle G_{X_1} est polynomiale donc dérivable en 1\displaystyle 1.
  2. D’après la formule des probabilités totales, P(Xk+1=i)=P(Xk=i1)P(Xk+1=iXk=i1)+P(Xk=i+1)P(Xk+1=iXk=i+1).\mathbb{P}(X_{k+1}=i) = \mathbb{P}(X_{k}=i-1) \mathbb{P}(X_{k+1}=i|X_{k}=i-1)+\mathbb{P}(X_{k}=i+1) \mathbb{P}(X_{k+1}=i|X_{k}=i+1).
    Ainsi pour i=1,,2n1\displaystyle i=1,\dots,2n-1 on a : P(Xk+1=i)=2n(i1)2nP(Xk=i1)+i+12nP(Xk=i+1).\mathbb{P}(X_{k+1}=i) = \frac{2n-(i-1)}{2n} \mathbb{P}(X_{k}=i-1) + \frac{i+1}{2n} \mathbb{P}(X_{k}=i+1) .
    Remarque. Cette relation reste vraie pour i=0\displaystyle i=0 et i=n\displaystyle i=n.
  3. Par des changements d’indice, et en faisant attention aux termes nuls, on a :
    Gk+1(t)=i=02nP(Xk+1=i)ti=i=02n1P(Xk=i)ti+1i=12n1i2nP(Xk=i)ti+1+i=12nP(Xk=i)ti1\begin{aligned} G_{k+1}(t) & =\sum_{i=0}^{2n} \mathbb P(X_{k+1}=i)t^i\\ &=\sum_{i=0}^{2n-1} \mathbb{P}(X_{k}=i)t^{i+1} - \sum_{i=1}^{2n-1} \frac{i}{2n}\mathbb{P}(X_{k}=i)t^{i+1} + \sum_{i=1}^{2n}\mathbb{P}(X_{k}=i) t^{i-1} \end{aligned}
    Le terme i=2n\displaystyle i=2n dans la somme de gauche comme dans la somme du milieu est égal à P(Xk=2n)t2n+1\displaystyle \mathbb P(X_k=2n)t^{2n+1}, donc on peut l’inclure dans ces 2 sommes (compensation), et on reconnaît alors :
    Gk+1(t)=tGk(t)+12nGk(t)t22nGk(t).G_{k+1}(t)=tG_k(t)+\frac{1}{2n}G'_k(t) - \frac{t^2}{2n}G'_k(t).
  4. On dérive la relation obtenue :
    Gk+1(t)=Gk(t)+tGk(t)+1t22nGk(t)tnGk(t).G'_{k+1}(t)=G_k(t)+tG'_k(t)+\frac{1-t^2}{2n}G''_k(t)-\frac tn G'_k(t).
    Ainsi en prenant t=1\displaystyle t=1 on obtient :
    E(Xk+1)=1+(11n)E(Xk).\mathbb E(X_{k+1})= 1+\left(1-\frac 1n\right)\mathbb E(X_k).
    Ainsi la suite de terme général E(Xk)\displaystyle \mathbb E(X_k) est arithmético-géométrique, avec 11n<1\displaystyle |1-\frac 1n|<1, donc convergente, et sa limite est le point fixe de la fonction f:x1+(11n)x\displaystyle f:x\mapsto 1+\left(1-\frac 1n\right)x, c’est-à-dire limkE(Xk)=n\displaystyle \lim_{k\to\infty}\mathbb E(X_k)=n.
    Interprétation. Au bout d’un grand nombre d’itérations, on atteint un équilibre en moyenne (autant de boules dans chaque urne).