Déterminer la loi de X+Y directement ou grâce aux fonctions génératrices.
Déterminer la loi conditionnelle de X sachant {X+Y=n}.
Etudier l’existence et calculer E[XY].
Corrigé
On a P(X+Y=k)=j=0∑kP(X=j,Y=k−j)=j=0∑kP(X=j)P(Y=k−j), la dernière égalité venant de l’indépendance de X et Y.
Donc P(X+Y=k)=e−λe−μj=0∑kj!λj(k−j)!μk−j=e−λ−μk!(λ+μ)k, d’après la formule du binôme. Ainsi X+Y∼P(λ+μ).
On doit calculer P(X=k∣X+Y=n)=P(X+Y=n)P(X=k,X+Y=n)=P(X+Y=n)P(X=k,Y=n−k)=P(X+Y=n)P(X=k)P(Y=n−k), la dernière égalité venant de l’indépendance de X et Y.
Donc P(X=k∣X+Y=n)=e−λk!λke−μ(n−k)!μn−keλ+μ(λ+μ)nn!, d’où P(X=k∣X+Y=n)=(kn)(λ+μ)nλkμn−k=(kn)(λ+μλ)k(λ+μμ)n−k. On reconnait la loi binomiale B(n,λ/(λ+μ)).
Par le théorème de transfert, l’espérance si elle existe vaut : E[XY]=k,j∈N∑kjP(X=k,Y=j)=k,j∈N∑kje−λk!λke−μj!μj.
Or j∈N∑j!(kμ)j=ekμ et k∈N∑k!(eμλ)k=eλeμ, donc par le théorème de Fubini, E∣XY∣<∞ et E[XY]=eλeμ−λ−μ.
Exercice 74 ⭐️ Loi de couple, Spé/L2
Montrer que la famille (pi,j)i≥0,j≥0 avec pi,j=(i+j+1)!e−1 définit la loi de probabilité d’un couple (X,Y) à valeurs dans N2.
Déterminer la loi de X+Y.
Déterminer la loi conditionnelle de X sachant {X+Y=n}.
Réflexes
Réels positifs dont la somme vaut 1.
Probas totales
Appliquer la définition de probabilité conditionnelle.
Corrigé
Clairement les réels pi,j sont positifs. Il reste à vérifier que pour tout i≥0, j≥0∑pi,j est convergente, et que i=0∑+∞j=0∑+∞pi,j=1.
On a i=0∑+∞j=0∑+∞(i+j+1)!e−1=e1i=0∑+∞j=i+1∑+∞j!1=e1j=1∑+∞i=0∑j−1j!1=e1j=1∑+∞j!j=e1j=1∑+∞(j−1)!1=1.
X+Y est à valeurs dans N, et pour k∈N, P(X+Y=k)=i=0∑kP(X=i,Y=k−i)=e1i=0∑k(k+1)!1=e1(k+1)!(k+1)=ek!1. On reconnaît la loi de Poisson de paramètre 1.
Soit n∈N et k∈[[0;n]]. On a P(X=k∣X+Y=n)=P(X+Y=n)P(X=k,X+Y=n)=P(X+Y=n)P(X=k,Y=n−k)=(n+1)!e−1e−1n!=n+11. On reconnaît la loi uniforme sur [[0;n]].
Soit X une v.a. binomiale B(n,p). Calculer sa fonction génératrice g:s↦E[sX].
Retrouver alors les valeurs de E[X] et Var(X).
Corrigé
On a g(s)=E[sX]=k=0∑nsk(kn)pk(1−p)n−k=k=0∑n(kn)(sp)k(1−p)n−k=(sp+1−p)n. De plus, en dérivant par rapport à s la somme finie, on obtient g′(1)=E[X] et g′′(1)=k=1∑nk(k−1)P(X=k)=E[X2]−E[X]. De g′(s)=np(sp+1−p)n−1 et g′′(s)=n(n−1)p2(sp+1−p)n−2, on déduit E[X]=np et n(n−1)p2=E[X2]−np. Ainsi Var(X)=E[X2]−E[X]2=n(n−1)p2+np−n2p2=np−np2=np(1−p), et on reconnaît bien l’espérance et la variance d’une binomiale.
Exercice 77 ⭐️⭐️ Marche aléatoire, Spé/L3
Soit (Xn) une suite de v.a. de Bernoulli symétriques i.i.d. telles que P(Xn=1)=p et P(Xn=−1)=1−p avec p∈]0,1[ et p=1/2. On pose S0=0 et Sn=X1+⋯+Xn. On définit l’événement "retour en 0 au temps n": An={Sn=0}.
Décrire l’événement n→∞limsupAn=n≥0⋂k≥n⋃Ak ;
Montrer que P(n→∞limsupAn)=0.
Corrigé
L’événement limAn est l’ensemble des ω∈Ω tels que la trajectoire (Xn(ω))n repasse une infinité de fois par 0.
On remarque que si n est impair P(An)=0. De plus P(A2n)=C2nnpn(1−p)n (proba binomiale) et donc P(A2n)P(A2n+2)=(n+1)2(2n+1)(2n+2)p(1−p)n→∞4p(1−p)<1, où la dernière inégalité est obtenue par une rapide étude de fonction (et p=1/2).
Par le critère de d’Alembert, on en déduit que n≥1∑P(A2n)<+∞, et on conclut par le lemme de Borel-Cantelli.
Exercice 78 ⭐️⭐️⭐️ Grandes déviations, Sup/Spé/L2
Soit X une v.a. finie. La transformée de Laplace de X est définie par : ∀t∈R,LX(t)=E(etX).
Montrer que pour tout n∈N, E(Xn)=LX(n)(0).
Montrer que la fonction ΛX:t↦lnLX(t) est convexe.
Soit Y une v.a. finie telle que LY=LX. Montrer que X et Y ont même loi.
Dans la suite on fixe r>E(X).
Montrer que αr=t>0sup(tr−ΛX(t)) est dans R+∗ ou vaut ∞.
Soit (Xn)n≥1 une suite de v.a. indépendantes, de même loi que X, et Sn=X1+⋯+Xn.
Montrer que pour tout n≥1, P(Sn>nr)≤e−nαr (avec la convention e−∞=0).
Réflexes
Espérance d’une fonction de X 👉 Transfert !
Signe de la dérivée seconde.
Commencer par écrire l’égalité pour tout t. Ensuite, analyser la situation.
Que sait-on des valeurs de tr−ΛX(t) ? Par exemple pour t>0 petit ?
Majorer une proba 👉 Inégalité de Markov, d’une façon ou d’une autre.
Corrigé
Notons X(Ω)={x1,…,xp} avec x1<⋯<xp. Par théorème de transfert, ∀t∈R,LX(t)=k=1∑petxkP(X=xk). Ainsi LX(n)(t)=k=1∑pxknetxkP(X=xk), donc LX(n)(0)=k=1∑pxknP(X=xk)=E(Xn).
ΛX est de classe C2 sur R (ln est de classe C2, et LX aussi, et LX est bien à valeurs dans ]0;+∞[). Les calculs donnent : ∀t∈R,ΛX′′(t)=LX(t)2LX′′(t)LX(t)−LX′(t)2.
Or avec Cauchy-Schwarz : LX′(t)2=(k=1∑pxketxkP(X=xk))2=(k=1∑pxketxkP(X=xk)×etxkP(X=xk))2≤(k=1∑pxk2etxkP(X=xk))(k=1∑petxkP(X=xk))=LX′′(t)LX(t).
Ceci montre que ΛX′′ est positive sur R, donc que ΛX est convexe.
Quitte à considérer X(Ω)∪Y(Ω), avec P(X=x)=0 pour x∈Y(Ω)∖X(Ω) et vice versa, on peut supposer que Y(Ω)=X(Ω).
Notons pk=P(X=xk) et qk=P(Y=xk), pour alléger. Par hypothèse,∀t∈R,k=1∑petxkpk=k=1∑petxkqk. Raisonnons par l’absurde : on suppose (p1,…,pp)=(q1,…,qp). Soit i le plus petit indice tel que pi=qi. Alors ∀t∈R,k=i∑petxkpk=k=i∑petxkqk.∀t∈R,pi+k=i+1∑pet(xk−xi)pk=qi+k=i+1∑pet(xk−xi)qk. En faisant tendtre t→−∞, on obtient pi=qi : Contradiction !
Donc (p1,…,pp)=(q1,…,qp). Remarque — Nous venons de montrer, et c’est un exercice classique, que les fonctions t↦etxk forment une famille libre.
Posons ϕ:t↦tr−ΛX(t). On a ϕ′(0)=r−LX(0)LX′(0)=r−E(X)>0.
De plus ϕ(0)=0, donc ϕ(t)t→0+∼(r−E(X))t, et donc pour t>0 suffisamment petit on a ϕ(t)>0. Par conséquent t>0supϕ(t) est strictement positif.
Soit t>0 fixé. Comme x↦etx est strictement croissante, on a : P(Sn>nr)=P(etSn>enrt)≤e−nrtE(etSn)(ineˊg. de Markov) Or par indépendance, E(etSn)=E(etX1)…E(etXn)=LX(t)n. Ainsi P(Sn>nr)≤(e−rtLX(t))n=(e−(rt−ΛX(t)))n. Ceci étant vrai pour tout t≥0, on a donc P(Sn>nr)≤t>0inf(e−(rt−ΛX(t)))n=e−nαr.
Exercice 79 ⭐️⭐️ Loi de Poisson et TCL, ECS2/L3/Classique
Calculer la fonction génératrice définie par GX(s)=E[sX] quand X∼P(μ) , i.e. P(X=j)=e−μj!μj . On admet que GX caractérise la loi de X. En déduire la loi de la somme de n v.a. Xi de Poisson i.i.d. de paramètre μ.
Montrer que pour x≥0, e−nk=0∑n+xnk!nkn→∞2π1∫−∞xe−t2/2dt, en utilisant le théorème centrale limite (TCL).
En particulier, on a : e−nk=0∑nk!nkn→∞21.
Corrigé
On a E[sX]=j≥0∑sje−μj!μj=e−μj≥0∑j!(sμ)j=eμ(s−1).
De plus, en utilisant que les Xi sont indépendantes et de même loi, il vient E[sX1+⋯+Xn]=E[sX1]⋯E[sXn]=(E[sX])n=enμ(s−1).
On reconnait alors la fonction génératrice d’une v.a. de Poisson de paramètre nμ.
Considérons des Xi∼P(1) i.i.d., donc μ=1 et σ=1. Le TCL donne donc P(n(Xn−1)≤x)n→∞2π1∫−∞xe−t2/2dt. Réécrivons la probabilité : P(n(Xn−1)≤x)=P(X1+⋯+Xn−n≤nx)=P(X1+⋯+Xn≤n+nx). Comme d’après 1), X1+⋯+Xn∼P(n), on en déduit P(n(Xn−1)≤x)=k=0∑n+xne−nk!nk, d’où le résultat.
Exercice 80 ⭐️⭐️⭐️ Chaîne de Markov, Spé/L3
Soit (Xn) une suite de v.a. définie par Xn+1=f(Xn,En+1) où (En) est une suite i.i.d., indépendante aussi de X0. Montrer que (Xn) est une chaîne de Markov, i.e. P(Xn+1=xn+1∣Xn=xn,⋯,X0=x0)=P(Xn+1=xn+1∣Xn=xn). La matrice Pi,j:=P(Xn+1=j∣Xn=i) s’appelle la matrice de transition (on suppose que la chaîne est homogène, i.e. la dernière quantité ne dépend pas de n), c’est une matrice stochastique.
Donner un exemple simple de chaîne de Markov.
On considère ici une chaîne à deux états {1,2} et on pose P1,2=P(Xn+1=2∣Xn=1)=a∈]0,1[ et P2,1=P(Xn+1=1∣Xn=2)=b∈]0,1[. On note νn=(P(Xn=1),P(Xn=2)) la loi de Xn. Montrer que νn+1=νnP. Déterminer la loi stationnaire π=(π1,π2) , i.e. résoudre l’équation π=πP. Calculer Pn et n→∞limPn.
Corrigé
On a P(Xn+1=xn+1∣Xn=xn,⋯,X0=x0)=P(f(Xn,En+1)=xn+1∣Xn=xn,⋯,X0=x0)=P(f(xn,En+1)=xn+1∣Xn=xn,⋯,X0=x0). Or En+1 est indépendante de (X0,⋯,Xn) (par récurrence), et donc P(f(xn,En+1)=xn+1∣Xn=xn,⋯,X0=x0)=P(f(xn,En+1)=xn+1)=P(f(xn,En+1)=xn+1∣Xn=xn)=P(f(Xn,En+1)=xn+1∣Xn=xn)=P(Xn+1=xn+1∣Xn=xn), ce qu’on voulait.
Cette structure Xn+1=f(Xn,En+1) est le prototype de chaîne de Markov, et un exemple simple est une marche aléatoire Xn=E0+⋯+En=Xn−1+En où (En) est une suite de v.a. i.i.d. à valeurs par exemple dans {−1,1}. La fonction f est ici f(x,y)=x+y.
Pour établir νn+1=νnP, il suffit d’écrire la formule des probabilités totales avec les événements {Xn=1} et {Xn=2}.
L’équation π=πP donne π1=(1−a)π1+bπ2 et π2=aπ1+(1−b)π2. Donc π1=a+bb et π2=a+ba.
Pour calculer Pn, plusieurs méthodes dont utiliser Cayley-Hamilton qui dit que χP(P)=0. On fait donc la division euclidienne de Xn par χ. Comme P est une matrice stochastique, on a λ1=1 comme valeur propre. On a aussi tr(P)=2−a−b=λ1+λ2, d’où λ2=1−a−b. Donc χ(X)=(X−1)(X−1+a+b) et on écrit Xn=χ(X)Q(X)+a1X+a0. En évaluant en X=1 et X=1−a−b, on obtient : a1=a+b1−(1−a−b)n et a0=1−a1. Ainsi, avec χP(P)=0, on a Pn=a1P+a0I2. Comme −1<1−a−b<1, on en déduit n→∞limPn=a+b1(1−aba1−b)+(1−a+b1)(1001)=a+b1(bbaa).
Exercice 81 ⭐️⭐️⭐️⭐️ ENS Ulm 2017, Spé/L3
Soit (Xn) une suite de variables aléatoires i.i.d. à valeurs dans N.
On note Rn=card{X1,…,Xn}. On suppose que les Xi admettent une espérance.
Montrer que E(Rn)=o(n).
Corrigé
Soit X l’un des Xi. Comme X est à valeurs dans N, on a la formule E[X]=k=0∑∞P(X>k). Comme l’espérance est supposée finie, la série est convergente. De plus, comme le terme général est décroissant et positif, on sait que P(X>k)=o(k1). On en déduit qu’il existe une suite (an), à valeurs dans N, telle que :
n→∞limnP(X>an)=0,
n→∞limnan=0.
Pour n≥1, on considère la v.a. Rn′ définie par Rn′=card{{X1,…,Xn}∩{k∈N:k>an}}. On a alors Rn≤an+Rn′. Il y a égalité si chacune des valeurs dans {1,…an} est prise par au moins l’une des variables Xi.
On introduit maintenant la v.a. Rn′′ définie par Rn′′=card{i∈{1,…,n}:Xi>an}. On a l’égalité Rn′≤Rn′′, avec égalité si et seulement si chaque valeur supérieure à an est prise par au plus une variable Xi.
On remarque, par l’indépendance des Xi, que Rn′′ suit la loi binomiale de de paramètres n et p=P(X>an).
Au final, on a l’inégalité E(Rn)≤an+E(Rn′′)=an+nP(X>an). Mais par construction de (an), on a : nE(Rn)≤nan+nP(X>an)n→∞0, ce qu’il fallait démontrer.
Exercice 185 ⭐️⭐️ Dés truqués, Sup/L1
On considère un dé rouge truqué qui donne 6 avec la probabilité p∈]0,1[, les autres issues étant équiprobables, et un dé blanc non truqué. On lance simultanément les deux dés, un pour chaque joueur. En cas d’égalité, c’est le dé blanc qui l’emporte. Quel dé faut-il choisir ?
Corrigé
Soit X le résultat donné par le dé rouge, et Y le résultat donné par le dé blanc. Les hypothèses de l’énoncé, les variables aléatoires X et Y sont indépendantes. La probabilité que le rouge l’emporte est P(X>Y)=1≤k<l≤6∑P(X=k,Y=l)=1≤k<l≤6∑P(X=k)P(Y=l). On a utilisé l’indépendance de X et Y pour la dernière égalité. Les lois de X et Y sont données dans l’énoncé : on a P(X=6)=p et P(X=k)=51−p pour 1≤k≤5. De plus, comme le dé blanc est supposé équilibré, on a P(Y=l)=1/6 pour tout 1≤l≤6. Ainsi : P(X>Y)=1≤k<l≤6∑51−p61+1≤l≤5∑p61. L’ensemble des indices (k,l) tels que 1≤k<l≤5 est de cardinal 5(5−1)/2=10, donc : P(X>Y)=10301−p+56p=62+3p. On en déduit que si p<1/3 alors P(X<Y)<1/2, il vaut mieux donc jouer le dé blanc. Si p>1/3, il vaut mieux jouer le dé rouge. Si p=1/3, le jeu est équilibré.
Exercice 186 ⭐️⭐️ X PC 2017
Soit N une variable aléatoire suivant une loi de Poisson de paramètre 5. On ramasse N champignons. Chaque champignon a la probabilité 2/3 d’être comestible.
Déterminer la probabilité que N soit égal à 2 et qu’un seul champignon soit comestible. En donner une estimation numérique.
Calculer la probabilité qu’aucun champignon ne soit comestible.
Corrigé
Soit X le nombre de champignons comestibles parmi ceux qui sont ramassés. D’après le modèle proposé dans l’énoncé, la loi de X sachant qu’on a ramassé en tout N=n champignons suit la loi binomiale de paramètres n et p=2/3. Ici on veut calculer P(X=1,N=2)=P(X=1∣N=2)P(N=2)=(12)32(1−32)2!e−552=925e−5.
Avec les notations précédentes, on veut calculer P(X=0). La famille (N=n)n≥0 est un système complet d’événements, on a donc P(X=0)=n=0∑∞P(X=0∣N=n)P(X=n)=n=0∑∞(1−2/3)nn!5ne−5=e−5n=0∑∞n!(5/3)n=e−5+5/3=e−10/3.
Exercice 187 ⭐️⭐️⭐️ X PC 2017
Une machine produit deux types de pièces : le type A avec probabilité a, le type B avec probabilité b=1−a. Chaque pièce est défectueuse avec probabilité p, indépendamment du type, et indépendamment d’une pièce à l’autre. La machine s’arrête dès qu’elle a produit une pièce du type A.
Soit X la variable aléatoire égale au nombre de pièces défectueuses au moment de l’arrêt de la machine. Déterminer E[X] sans déterminer complètement la loi de X. Commenter.
Déterminer la loi de X et retrouver le résultat précédent.
Corrigé
Soit N la variable aléatoire du nombre de pièces fabriquées. Dans le modèle décrit dans l’énoncé, on sait que N suit la loi géométrique de paramètre a, et que la loi de X sachant N est la loi binomiale de paramètres N et p. D’après une formule du cours, on a alors E[X]=E[E[X∣N]]=E[Np]=pE[N]=ap.
Pas facile !
Exercice 188 ⭐️⭐️ Extrémités de cordes, X PC 2017
Un sac contient N cordes. A la première étape on choisit au hasard deux extrémités de cordes et on les noue. On dit qu’on a une boucle si on a noué les extrémités de la même corde.
Déterminer l’espérance du nombre X de boucles après la première étape.
On réitère N fois l’opération en nouant à chaque fois deux extrémités libres. On note Y le nombre de boucles. Déterminer l’espérance de Y.
Corrigé
Il peut se produire deux choses : soit les deux extrémités choisies appartiennent à la même corde, ce qui sera appelé événement A, soit les deux extrémités appartiennent à deux cordes distinctes, ce qui correspond à l’événement Ac. On a donc X=1 avec probabilité p=P(A), et X=0 avec probabilité 1−p, en d’autre termes X suit la loi de Bernoulli de paramètre p. Il reste à calculer p. Le nombre de choix possibles pour un couple d’extrémités est (22N)=22N(2N−1)=2N(2N−1) (l’ordre dans lequel on choisit les extrémités n’a pas d’importance). Parmi tous ces choix, il y en a exactement N qui correspondent à l’événement A (un couple d’extrémités pour chaque corde). Ainsi on a P(X=1)=(22N)N=2N−11.
Une remarque importante : quel que soit le résultat de la première étape, à l’issue de celle-ci il y aura exactement N−1 cordes non bouclées : soit N−1 petites cordes et une boucle mises de côté (événement A), soit N−2 petites cordes, et une deux fois plus longues (événement Ac). Après k étapes, il y aura donc exactement N−k cordes non bouclées, de diverses longueurs.
Soit Xk la variable aléatoire du nombre de boucles créées à la k-ème étape. D’après le raisonnement de la question précédente, Xk suit la loi de Bernoulli de paramètre pk=2(N−k)+11. On rappelle que l’on a E[Xk]=pk De plus, on a Y=X1+…+XN. On peut aussi remarquer que les variables aléatoires Xk sont indépendantes, mais on n’utilisera pas cette propriété. On a, par linéarité de l’espérance : E[Y]=k=1∑NE[Xk]=k=1∑N2(N−k)+11=l=0∑N−11+2l1. Remarque : on a l’équivalent E[Y]∼2ln(N). Question subsidiaire : calculer P(Y=1) (probabilité d’avoir une seule boucle à la fin) et trouver un équivalent lorsque N→∞.
Exercice 189 ⭐️⭐️⭐️ X PC 2017
Soient X,Y deux variables aléatoires strictement positives indépendantes et de même loi. Montrer que E(X/Y)≥1.
Corrigé
Comme X et Y sont indépendantes, on a E(YX)=E(X)E(Y1), et comme X et Y ont la même loi, on a : E(YX)=E(X)E(X1). Le réflexe maintenant est, comme souvent, de penser à Cauchy-Schwarz. On peut le redémontrer rapidement dans ce cas particulier. On remarque tout d’abord, que pour tout t∈R, la quantité P(t)=E((X+Xt)2) est ≥0. Or, par linéarité, on remarque que P(t)=E(X+2t+Xt2)=E(X)+2t+E(X1)t2. La fonction t↦P(t) est donc une fonction polynomiale de degré 2 et ≥0 sur R. On sait alors que son discriminant est négatif, ce qui s’écrit 4−4E(X)E(X1)≤0, et on obtient immédiatement le résultat.
Exercice 191 ⭐️⭐️⭐️⭐️ Deux faces consécutifs, X PC 2017
Soit X la variable aléatoire égale au nombre de tirages nécessaires à l’obtention de deux faces consécutifs dans un jeu de pile ou face, dans lequel la probabilité d’obtenir pile est 1/2. Déterminer la loi de X puis calculer son espérance.
Réflexes
Si on n’a pas d’intuition sur la loi de X, on cherche à calculer P(X=n) pour des petites valeurs de n, et on voit si une structure connue apparaît…
Corrigé
On va utiliser une notation simplifiée et intuitive en notant “pile” par 1 et “face” par 0. On écrira une succession de n tirages consécutifs (vue comme un événement) comme un mot de lettres n formé des lettres 0 et 1. Par exemple le mot 100 désigne l’événement “le premier tirage donne pile, les deux suivants donnent face”. L’hypothèse d’indépendance des lancers permet d’associer à chaque événement de longueur n la probabilité 2n1.
Faute d’idée, on va calculer P(X=n) pour des petites valeurs de n. On a nécessairement X≥2. L’événement X=2 est associé au seul mot 00, donc P(X=2)=41. Pour X=3, on a nécessairement le tirage 100, donc P(X=3)=231. L’événement X=4 est décrit par deux tirages : 0100 et 1100, l’événement X=5 par trois tirages 01100, 10100, 11100, l’événement X=6 par cinq tirages 111100, 110100, 101100, 011100, 010100, etc. Avec un peu de culture, on reconnaît dans la suite 1,1,2,3,5,… la célèbre suite de Fibonacci donnée par F0=1, F1=1 et Fn+2=Fn+1+Fn. On peut donc conjecturer que P(X=n)=2nFn−2.
Notons An l’ensemble des mots à n lettres formés des lettres 0 et 1 tels que la lettre 0 ne soit pas présente en deux positions consécutives et an=Card(An), avec a0=1. Pour n≥3, les tirages décrivant l’évément X=n sont exactement la concaténation d’un mot de An−3 et du mot 100, donc P(X=n)=2nan−3. Il s’agit donc de prouver que an=Fn+1. Comme on a a0=1=F1 et a1=2=F3, il reste à montrer que an+2=an+1+an.
On partitionne l’ensemble An+2 en deux ensembles disjoints : ceux dont la dernière lettre est 0, et ceux dont la dernière lettre est 1. Les mots de An+2 dont la dernière lettre est 1 sont exactement l’ensemble des mots de An+1 auxquels on rajoute la lettre 1 : ce sous-ensemble de An+2 est donc de cardinal an+1. Si la dernière lettre d’un mot de An+2 est 0, alors son avant-dernière lettre est nécessairement 1. On peut donc décrire ce sous-ensemble de An+2 comme l’ensemble des mots de An auxquels on rajoute les lettres 10, et son cardinal est donc an. On a bien montré que an+2=an+1+an, et on en déduit que P(X=n)=2nFn−2.
Remarque intéressante, qui peut avoir son utilité : on a montré au passage que n=2∑∞2nFn−2=1.
On peut donner une expression plus explicite en étudiant la suite de Fibonacci, c’est assez classique, largement accessible avec le programme de sup/spé, mais un peu long à développer dans un exercice de probabilité : on peut se renseigner ici.
La seule véritable propriété de la suite de Fibonacci qui peut nous être utile est la borne Fn=O(ωn), avec ω=21+5<2, ce qui assure la convergence absolue de la série n≥2∑n2nFn−2. Le théorème de transfert assure justement que la valeur de E[X] est donnée par la somme de cette série.
Jouons un peu : E[X]=n=2∑∞2nn(Fn−Fn−1)=n=4∑∞Fn−2(2n−2n−2−2n−1n−1)−2F1=2n=4∑∞2nnFn−2−6n=4∑∞2nFn−2−21=2(E[X]−2221−2331)−6(1−41−81)−21=2E[X]−3,
donc E[X]=3.
Exercice 192 ⭐️⭐️ X PC 2017
Soient (m,n)∈N2 avec 1≤m≤n, X1,…,Xn des variables aléatoires indépendantes, identiquement distribuées, à valeurs dans R+∗. Calculer E(X1+⋯+XnX1+⋯+Xm).
Réflexes
C’est typiquement le genre d’exercice pour lequel l’étude explicite de cas particuliers (m,n petits) s’avère à la fois simple et instructive pour le cas général !
Corrigé
Voici une preuve pour m=2 et n=3 qui permet de comprendre le mécanisme à l’oeuvre derrière la preuve générale : le vecteur aléatoire (X1,X2,X3) est indépendant, on en déduit que les trois vecteurs aléatoires suivants ont tous la même loi : Z1=(X1,X2,X3),Z2=(X2,X3,X1),Z3=(X3,X1,X2). De plus, l’application ϕ:(R+∗)3→R définie par ϕ(u,v,w)=u+v+wu+v, est continue. On en déduit que la valeur de E[ϕ(Zi)] ne dépend pas de i : plus rigoureusement, si elle vaut +∞ (resp. μ<∞) pour un certain i0in{1,…,3}, alors elle vaut +∞ (resp. μ) pour tout i∈{1,…,3}. On peut donc écrire : E[ϕ(Z1)]=31i=1∑3E[ϕ(Zi)]=E[31i=1∑3ϕ(Zi)]=E[31X1+X2+X3(X1+X2)+(X2+X3)+(X3+X1)]=E[31X1+X2+X32X1+2X2+2X3]=E[32]=32.
La preuve générale suit les mêmes lignes : pour i∈{1,…,n}, on considère le vecteur aléatoire Zi=(Xi+k)0≤k≤n−1, où les indices i+k sont pris modulo n. L’indépendance des Xi implique que les vecteurs aléatoires Zi ont tous la même loi. On considère l’application ϕ:(R+∗)n→R définie par ϕ(u1,…,un)=u1+⋯+unu1+⋯+um. On a en particulier ϕ(Zi)=∑k=0n−1Xi+k∑k=0m−1Xi+k=∑k=1nXk∑k=0m−1Xi+k. Comme les variables aléatoires ϕ(Zi) ont toutes la même loi, elles ont la même espérance (si elle existe), on peut donc écrire : E[ϕ(Z1)]=E[n1i=1∑nϕ(Zi)]=E[n1i=1∑n∑k=1nXk∑k=ii+m−1Xk]=E[n1X1+⋯+Xn∑i=1n∑k=0m−1Xi+k].
Or, pour j∈{1,…,n} fixé il existe exactement m couples d’indices (i,k)∈({1,…,n}×{0,…,m−1}) tels que i+k=j modulo n : ce sont les couples de la forme (j−k,k), avec k∈{0,…,m−1}. Ainsi on a i=1∑nk=0∑m−1Xi+k=j=1∑nmXj et on en déduit : E[ϕ(Z1)]=E[nm]=nm.
Exercice 317 ⭐️ Dés de Sicherman, Sup/L1
On lance deux dés classiques et on note X la somme des scores. Donner la loi de X.
Les faces des dés de Sichermann sont (1,2,2,3,3,4) et (1,3,4,5,6,8). On lance deux dés de Sichermann et on note S la somme des scores. Montrer que S suit la même loi que X.
Est-ce que ça revient au même de jouer au Monopoly avec des dés de Sichermann ou avec des dés normaux ?
Réflexes
Poser Ω, reconnaître une situation d’équiprobabilité et calculer P(X=k) par dénombrement ;
Même réflexe ;
Comparer les probabilités d’obtenir un double.
Corrigé
On modélise la situation par Ω=[[1,6]]2, P la probabilité uniforme sur Ω, et X la variable aléatoire sur Ω qui à un couple (i,j) associe i+j. On a X(Ω)=[[2,12]]. On a P(X=k)=36Card({X=k}).
On peut compter les éléments de {X=k} pour k∈[[2,12]], en faisant la liste de leurs éléments : {X=2}={(1,1)},{X=3}={(1,2),(2,1)},{X=4}={(1,3),(2,2),(3,1)},etc... Ce travail donne les résultats suivants : kP(X=k)23613362436353646365736683659364103631136212361
On recommence ce travail, avec cette fois (on écrit différemment les faces identiques) : Ω={1,2a,2b,3a,3b,4}×{1,3,4,5,6,8} Le plus pratique pour faire les décomptes est de faire un tableau à double entrée où on inscrit la somme pour chaque issue de l’expérience : 2345681342a452b453a563b5…46 Au final on s’aperçoit que P(S=k)=P(X=k) pour tout k∈[[2,12]].
Non. au Monopoly faire un double risque de vous envoyer en prison, or la probabilité de l’évènement E=“faire un double”, vaut 364 pour des dés de Sichermann, car E={(1,1),(3a,3),(3b,3),(4,4)}. Elle est donc différente de la probabilité de faire un double pour des dés normaux, qui vaut 366.
Exercice 318 ⭐️⭐️ Urne de Polyá, Sup/L1
On considère une urne contenant initialement 1 boule blanche et 1 boule noire. On tire une boule au hasard puis on la replace dans l’urne, en y ajoutant une autre boule de la même couleur. L’urne contient maintenant 3 boules.
On réitère ce procédé. Soit Xn le nombre de boules blanches dans l’urne au bout de n tirages.
Déterminer la loi de X1, de X2.
Montrer par récurrence que pour tout n∈N∗, Xn suit la loi uniforme sur [[1,n+1]].
Soit Z le nombre de tirages nécessaires pour piocher une boule blanche pour la première fois.
Déterminer la loi de Z. possède t-elle une espérance ?
Réflexes
Préciser les valeurs possibles, et les probabilités correspondantes.
On connaît la loi de Xn (hypothèse de récurrence) et la loi de Xn+1 sachant Xn (énoncé)
👉 Formule des probabilités totales.
Probabilités composées. La série ∑kP(Z=k) est-elle convergente ?
Corrigé
X1(Ω)={1,2} et X2(Ω)={1,2,3}.
Notons Bn l’évènement “piocher blanc au n-ème tirage”. P(X1=2)=P(B1)=1/2, et par complémentaire P(X1=1)=1/2.
On a P(X2=3)=P(B1∩B2)=P(B1)P(B2∣B1)=21×32=31.
Par symétrie, P(X2=1)=31, et par complémentaire, P(X2=2)=31.
Nous venons de vérifier que cette propriété est vérifiée au rang 1 (et 2). Supposons que pour un certain n∈N∗, Xn suive la loi U([[1,n+1]]). Montrons que pour tout k∈[[1,n+2]], P(Xn+1=k)=n+21. ∙ Par formule des probabilités totales, pour k∈[[2,n+1]], P(Xn+1=k)=P(Xn=k)P(Bn+1∣Xn=k)+P(Xn=k−1)P(Bn+1∣Xn=k−1) En se souvenant qu’après le n-ème tirage, l’urne contient n+2 boules, on obtient donc : P(Xn+1=k)=n+11×n+2n+2−k+n+11×n+2k−1=(n+1)(n+2)n+1=n+21. ∙P(Xn+1=1)=P(Xn=1)P(Bn+1∣Xn=1)=n+11×n+2n+1=n+21. ∙ On montre de même que P(Xn+1=n+2)=n+21.
Z(Ω)=N∗ et pour k∈N∗, P(Z=k)=P(B1)P(B2∣B1)P(B3∣B1∩B2)…P(Bk−1∣B1∩⋯∩Bk−2)P(Bk∣B1∩⋯∩Bk−1), ce qui donne (examiner la composition de l’urne pour exprimer chacune de ces probabilités) : P(Z=k)=21×32×kk−1×k+11=k(k+1)1. La série ∑kk(k+1)1=∑k+11 est divergente (par comparaison à une série de Riemann divergente), donc Z ne possède pas d’espérance.
Exercice 380 ⭐️⭐️⭐️ Loi de Poisson, Spé/L2
Pour tout entier n≥0, on introduit la fonction gn:R+→R+ définie par gn(u)=e−un!un.
Trouver une relation reliant les fonctions gn′, gn et gn−1.
Soit X une v.a. suivant la loi de Poisson P(λ) pour un certain λ>0. Montrer : ∀n≥0,P(X≤n)=∫λ∞gn(u)du.
On considère une famille de v.a. (Xn)n≥1 telle que, pour tout n≥1, Xn suit la loi de Poisson P(n). Montrer que pour tout ∀n≥1, P(Xn≤n)−P(Xn+1≤n+1)=∫nn+1gn+1(u)−gn+1(n)du.
En déduire que la suite (an)n≥1=(e−nk=0∑nk!nk)n≥1 est convergente.
Montrer que an=n!n(ne)n∫0∞e−zn(1+nz)ndz.
Corrigé
En dérivant gn, on obtient tout de suite la relation gn′(u)=−gn(u)+gn−1(u).
On raisonne par récurrence sur n≥0. Pour n=0, on a P(X≤0)=P(X=0)=e−λ et ∫λ∞e−udu=e−λ, la propriété est donc bien vérifiée. Pour prouver l’hérédité, on utilise le résultat de la question précédente pour écrire ∫λ∞gn+1(u)du=∫λ∞gn(u)du−∫λ∞gn+1′(u)du=P(X≤n)+gn+1(λ)=P(X≤n)+P(X=n+1)=P(X≤n+1).
On utilise la relation obtenue à la première question pour écrire : ∫n∞gn+1(u)du=∫n∞gn(u)du−[gn+1(u)]n∞=P(Xn≤n)+gn+1(n).
Mais on a aussi : ∫n∞gn+1(u)du=∫nn+1gn+1(u)du+∫n+1∞gn+1(u)du=∫nn+1gn+1(u)du+P(Xn+1≤n+1). En combiant les deux équations, on obtient : P(Xn≤n)−P(Xn+1≤n+1)=∫nn+1gn+1(u)du−gn+1(n)=∫nn+1gn+1(u)−gn+1(n)du.
On commence par remarquer que : an=k=0∑nP(Xn=k)=P(Xn≤n).On montre facilement que la fonction gn+1 est croissante sur ]0,n+1] et décroissante sur [n+1,+∞[. En particulier gn+1(u)≥gn+1(n) pour tout u∈[n,n+1]. Ainsi, d’après le résultat de la question précédente, la suite (an)n≥1 est décroissante. Et comme elle est minorée par 0, on en déduit qu’elle est convergente.
D’après la deuxième question, on a an=n!1∫n∞e−uundu. En faisant le changement de variables z=nu−n, on obtient : an=n!n∫0∞e−n−nz(n+nz)ndz=n!n(ne)n∫0∞e−zn(1+nz)ndz.
Remarque — En invoquant la formule de Stirling et le théorème de convergence dominée, on peut montrer à partir du résultat de la dernière question que la limite de la suite (an)n≥1 est 1/2.
Exercice 387 ⭐️⭐️ Probabilité qu’une v.a. soit paire, Spé/L2
On note 2N l’ensemble des entiers naturels pairs.
On suppose que X suit la loi P(λ) avec λ>0. Calculer P(X∈2N).
Même question si X suit la loi G(p) avec p∈]0;1[.
Même question si X suit la loi B(n,p) avec n∈N∗ et p∈]0;1[.
Réflexes
Pas d’astuce. Sommer les probabilités associées aux entiers pairs. C’est donc du calcul !
Corrigé
Dans tous les cas, pour une v.a. à valeurs dans N, P(X∈2N)=k=0∑∞P(X=2k)
Moins évident : calcul d’une somme du type binôme de Newton, mais avec un terme sur deux seulement.
On peut remarquer que 21+(−1)k vaut 1 si k est pair, 0 sinon. Ainsi P(X∈2N)=k∈[[0,n]],k pair∑n(kn)pk(1−p)n−k=k=0∑n(kn)pk(1−p)n−k(21+(−1)k)=21k=0∑n(kn)pk(1−p)n−k+21k=0∑n(kn)(−p)k(1−p)n−k=21(1+(1−2p)n) Remarque. Il est intéressant (pour la compréhension du schéma binomial) d’observer que cette probabilité vaut 1/2 si p=1/2. Par ailleurs, même pour p=1/2, elle tend vers 1/2 quand n→∞.
Exercice 388 ⭐️⭐️ Couplage de binomiales, Spé/MP/L2
On dispose de deux pièces. La première donne pile avec probabilité p∈[0,1], la seconde donne pile avec probabilité r∈[0,1]. Pour chaque étape k∈{1,…,n}, on suit la procédure suivante : si le lancer de la première pièce donne pile, on pose Xk=Yk=1. Sinon on pose Xk=0 et on lance la deuxième pièce. Si celle-ci tombe sur pile, on pose Yk=1 et sinon on pose Yk=0. On suppose que tous les lancers de pièce sont indépendants les uns des autres.
Donner les lois des v.a. Xk et Yk. Pour quelles valeurs de (p,r) les v.a. Xk et Yk sont-elles indépendantes ?
On introduit les v.a. S=k=1∑nXk et S′=k=1∑nYk. Donner les lois de S et S′ et montrer que S′≥S.
En déduire que, pour tout 0≤l≤n, la fonction ϕ:t↦k=l∑n(kn)tk(1−t)n−k est croissante sur [0,1].
Donner une preuve directe de la proposition précédente.
Réflexes
Si une v.a. ne prend que les valeurs 0 et 1, elle suit forcément une loi de Bernoulli ! Il ne reste plus qu’à trouver le paramètre…
Corrigé
Pour Xk c’est facile : cette v.a. suit la loi de Bernoulli B(p). En ce qui concerne la v.a. Yk, on peut déjà remarquer qu’elle ne prend que les valeurs 0 et 1, donc elle suit une loi de Bernoulli B(q). Le paramètre q vaut P(Yk=1) et on a : P(Yk=1)=P(Yk=1∣Xk=0)P(Xk=0)+P(Yk=1∣Xk=1)P(Xk=1)=r(1−p)+1⋅p=r+(1−r)p. On a P(Xk=0,Yk=1)−P(Xk=0)P(Yk=1)=r(1−p)−(1−p)(r+(1−r)p)=−(1−r)p=0, on en déduit que les v.a. Xk et Yk se sont pas indépendantes, sauf si r=1 ou p=0.
La famille (Xk)1≤k≤n est indépendante, et chaque Xk suit la loi B(p). On en déduit que S suit la loi binomiale Bin(n,p). Pour les mêmes raisons, S′ suit la loi binomiale Bin(n,q). De plus, pour chaque 1≤k≤n, on a Xk≤Yk. En effet, l’événement (Xk=1)∩(Yk=0) est de probabilité nulle. On en déduit l’inégalité entre v.a. : S≤S′.
On fixe l∈{1,…,n}. D’après la question précédente, si S≥l, alors S′≥l. Autrement dit, on a l’inclusion entre événements : (S≥l)⊂(S′≥l). En passant aux probabilités (propriété de croissance de la mesure de probabilité), on obtient P(S≥l)≤P(S′≥l), ce qui s’écrit plus explicitement ϕ(p)=k=l∑n(kn)pk(1−p)n−k≤k=l∑n(kn)qk(1−q)n−k=ϕ(q). Cette inégalité est vraie pour tout couple (p,q) tel que p∈[0,1] et q=r+(1−r)p pour un certain r∈[0,1]. Si on se donne p′∈[p,1], on pose r′=1−pp′−p∈[0,1] et on a p′=r+(1−r)p. On a donc bien ϕ(p)≤ϕ(p′) pour tous 0≤p≤p′≤1.
Faute d’imagination, on va dériver, et croiser les doigts. Un miracle va se produire. On pose bn,k(t)=(kn)tk(1−t)n−k (c’est un polynôme de Bernstein). On dérive par rapport à t : bn,k′(t)=(kn)ktk−1(1−t)n−k−(kn)(n−k)tk(1−t)n−1−k. Or on a les formules : k(kn)=n(k−1n−1),(n−k)(kn)=n(kn−1), on en déduit que (et là est le miracle) : bn,k′(t)=n(bn−1,k−1(t)−bn−1,k(t)). Comme on a ϕ(t)=k=l∑nbn,k(t), on en déduit, par somme téléscopique, que : ϕ′(t)=nbn−1,l−1(t)≥0, donc la fonction ϕ est bien croissante.
Exercice 390 ⭐️⭐️⭐️ Probabilités sur un cube, Spé/MP/L2
Soit n≥1 un entier. On considère le cube C={Z/2Z}n, que l’on munit de la loi d’addition usuelle, et on introduit l’application S:C→N qui à tout x=(x1,…,xn)∈C associe le nombre d’indices i∈{1,…,n} tels que xi=1.
Soit X:Ω→C une v.a. de loi uniforme sur C. On note X(ω)=(X1(ω),…,Xn(ω)) les coordonnées de X(ω).
Quelle est la loi de Xi:Ω→Z/2Z ?
Montrer que la famille (X1,…,Xn) est indépendante.
Quelle est la loi de la v.a. S(X) ? Donner son espérance.
Soit a∈C. Montrer que la v.a. Y=X+a suit aussi la loi uniforme sur C.
On suppose que a=(1,…,1,0,…,0), avec S(a)=p. Construire deux v.a. indépendantes U,V:Ω→N telles que S(X)=U+V et S(Y)=(p−U)+V.
En déduire la valeur de la covariance Cov(S(X),S(Y)).
Réflexes
Corrigé
Calculons P(Xi=0). Par définition de la loi uniforme, on a : P(X=0)=Card(C)Card(x∈C:xi=0). Or on a Card(C)=2n, et il y a une bijection naturelle entre l’ensemble (x∈C:xi=0) et l’ensemble des n−1 uplets (x1,…,xi−1,xi+1,…,xn)∈(Z/2Z)n−1, ainsi P(Xi=0)=2n2n−1=21. On montre de la même façon que P(Xi=1)=21.
Soit x∈C donné. On a : P((X1,…,Xn)=(x1,…,xn))=P(X=x)=2n1. Mais on a aussi, d’après la question précédente : i=1∏nP(Xi=xi)=i=1∏n21=2n1. On a bien, pour tout x∈C, l’égalité P(X1=x1,…,Xn=xn)=P(X1=x1)⋯P(Xn=xn), ce qui prouve l’indépendance de la famille (Xi)1≤i≤n.
Un élément x∈C vérifie S(x)=k si et seulement si k parmi ses n coordonnées valent 1, les autres valant 0. Il y a exactement (kn) choix possibles pour ces k coordonnées, et ainsi P(X=k)=Card(C)Card(x∈C:S(x)=k)=2n1(kn). On reconnaît la loi binomiale binn,1/2, et on sait alors que E[S(X)]=2n.
La v.a. Y est aussi à valeurs dans C, et on a, pour tout x∈C : P(Y=x)=P(X+a=x)=P(X=x−a)=2n1, ce qui prouve que Y suit aussi la loi uniforme sur C.
On pose U=Card{i∈{1,…,p}:Xi=1},V=Card{i∈{p+1,…,n}:Xi=1}. Comme U ne dépend que de X1,…,Xp et V ne dépend que de Xp+1,…,Xn, le lemme des coalitions permet de conclure que U et V sont indépendantes. De plus, le même raisonnement que la question 3 permet de conclure que U suit la loi binomiale binp,1/2 et que V suit la loi binomiale binn−p,1/2.
Il est clair qu’on a S(X)=U+V. De plus, la i-ème coordonnée de Y vaut 1 si et seulement si Xi=0 et ai=1 ou Xi=1 et ai=0. Ainsi, pour i≤p, on a Yi=1⇔Xi=0 et pour i>p on a Yi=1⇔Xi=1. On en déduit que S(Y)=Card{i∈{1,…,p}:Xi=1}+V=p−U+V.
D’après la question précédente, on a E[S(X)S(Y)]=E[(p−U+V)(U+V)]=pE[U+V]−E[U2]+E[V2].
Comme U suit une loi binomiale, on calcule faciement : E[U2]=E[U(U−1)]+E[U]=4p(p−1)+2p=4p(p+1).
De la même façon : E[V2]=4(n−p)(n−p+1). Enfin E[U+V]=E[X]=2n. Après simplifications, on obtient : E[S(X)S(Y)]=4n2+n−2p. De plus, S(X) et S(X) suivent chacune la loi binomiale binn,1/2 donc : Cov(S(X),S(Y))=4n2+n−2p−(2n)2=4n−2p.
Remarque : Plus généralement, pour a,b∈C, on a Cov(S(X+a),S(X+b))=4n−2S(a+b).
Exercice 396 ⭐️⭐️⭐️ Un temps d’arrêt, MP/L2
Soit X une v.a. à valeurs dans N. On suppose que P(X=k)>0 pour tout k≥0. Soit (Xi)i≥0 une suite i.i.d. de v.a. de même loi que X. On note T=inf{n≥1:Xn>X0}.
Montrer que P(T>n)=k=0∑∞P(X≤k)nP(X=k).
Montrer que E[T]=k=0∑∞P(X>k)P(X=k).
En déduire que E[T]=∞.
Montrer que P(T>n)≥n+11.
Que dire de l’espérance de T′=inf{n≥2:Xn>min(X0,X1)} ?
Réflexes
Corrigé
Par définition de T, on a l’égalit’e entre les événements (T>n)=i=1⋂n(Xi≤X0). donc : (T>n)∩(X0=k)=i=1⋂n((Xi≤X0)∩(X0=k))=(i=1⋂n(Xi≤k))∩(X0=k). L’indépendance de la famille (X0,…,Xn) permet d’écrire : P(T>n,X0=k)=i=1∏nP(Xi≤k)P(X0=k). Comme les Xi ont toutes la même loi, on a : P(T>n,X0=k)=(i=1∏nP(X≤k))P(X=k)=P(X≤k)nP(X=k). On conclut en utilisant la formule des probabilités totales, qui s’écrit ici P(T>n)=k=0∑∞P(T>n,X0=k).
On sait que E[T]=n=0∑∞P(T>n). Comme la famille (P(X≤k)n)n≥0,k≥0 est à termes positifs, on peut intervertir l’ordre de sommation, on a donc, d’après la question précédente : n=0∑∞P(T>n)=k=0∑∞(n=0∑∞P(X≤k)n)P(X=k). Or à k≥0 fixé on a P(X≤k)≤1−P(X=k+1)<1, d’après une hypothèse de l’énoncé. On connaît alors la somme de la série intérieure : n=0∑∞P(X≤k)n=1−P(X≤k)1=P(X>k)1. On a donc E[T]=k=0∑∞P(X>k)P(X=k).
Posons ak=P(X>k) (en particulier a0=1). On a P(X=k)=ak−1−ak, donc E[T]=k=0∑∞(akak−1−1). Pour montrer que cette série est divergente, on utilise l’inégalité élémentaire ln(x)≤x−1, on a alors, pour tout K≥1 : k=0∑K(akak−1−1)≥k=0∑Kln(akak−1)=ln(k=0∏Kakak−1)=−ln(aK). Comme on a K→∞limaK=0, on a bien montré que E[T]=K→∞limk=0∑K(akak−1−1)=+∞.
On va vu en répndant à la question 1 que P(T>n)=P(X0≥max{Xi:1≤i≤n}). Or le vecteur aléatoire (X0,…,Xn) est indépendant, en particulier sa loi est inchangée par permutation des coordonnées. On a donc, pour tout i∈{0,…,n} : P(T>n)=P(Xi≥max{Xj:1≤j≤n,j=i}). En additionnant, puis en utilisant la sous-additivité de la mesure de probabilité : (n+1)P(T>n)=i=0∑nP(Xi≥max{Xj:1≤j≤n,j=i})≥P(i=0⋃n(Xi≥max{Xj:1≤j≤n,j=i}))=P(Ω)=1.
On a donc bien P(T>n)=n+11, ce qui permet (par divergence de la série harmonique) de retrouver que E[T]=∞.
5.Une question pour tenter les esprits les plus curieux et aventureux ! J’imagine qu’un raisonnement similaire à celui de la question 4 permettrait de montrer que P(T′>n)=O(1/n2), ce qui montrerait que E[T′]<∞, mais si cela se trouve ce raisonnement n’est pas correct en toute généralité… Bref, du grain à moudre pour les longues soirées d’hiver…
Soit Xi des v.a. de Bernoulli symétriques (i.e. proba uniforme sur {−1,1}) indépendantes. Calculer E[(X1+⋯+Xn)2]. Comparer à l’inégalité de Cauchy-Schwarz.
Réflexes
Carré d’une somme 👉 Développer ;
Indépendance 👉 EXiXj=EXiEXj si i=j.
Corrigé
On développe : (X1+⋯+Xn)2=i,j∑XiXj, d’où par linéarité et indépendance : E[(X1+⋯+Xn)2]=i=1∑nE[Xi2]+i=j∑E[Xi]E[Xj]. Comme les Xi sont centrées et de même loi, on en déduit que E[(X1+⋯+Xn)2]=nE[X12]. L’inégalité de Cauchy-Schwarz donne (X1+⋯+Xn)2≤ni∑Xi2, d’où E[(X1+⋯+Xn)2]≤n2E[X12]. L’inégalité donne un ordre de grandeur très mauvais en n2 contre n en réalité : elle ne prend pas en considération “l’interaction” des v.a. entre elles, ici une corrélation nulle.
Exercice 564 ⭐️ une variable aléatoire, Sup/Spé/L2
On lance, pour n=1, n=2, n=3,… un dé à n faces (il y a donc une infinité de lancers, supposés indépendants).
On s’intéresse à la variable aléatoire égale au numéro du lancer pour lequel on a obtenu 1 pour la dernière fois (en convenant que X=0 si on obtient 1 indéfiniment).
Déterminer la loi de X.
Montrer que X possède une espérance et la calculer.
Montrer que X possède une variance et la calculer.
Réflexes
{X=n} est une succession d’évènements indépendants.
C’est du calcul !
C’est encore du calcul !
Corrigé
Notons Sn l’évènement <<le n-ème lancer donne 1>>.
L’ensemble des valeurs possibles pour X est N.
Pour n∈N∗, par indépendance, P(X=n)=P(S1∩S2∩⋯∩Sn∩Sn+1)=P(S1)P(S2)…P(Sn)P(Sn+1)=1×21×⋯×n1×(1−n+11)=(n+1)!n=(n+1)(n−1)!1.Par linéarité de ∑ sur des séries convergentes, n=1∑∞P(X=n)=n=1∑∞((n+1)!n+1−(n+1)!1)=n=1∑∞n!1−n=2∑∞n!1=1.Donc par complémentaire, P(X=0)=0. Autrement dit il est impossible d’obtenir 1 indéfiniment.
La variable aléatoire X est à valeurs positives, et pour n∈N∗, nP(X=n)=(n+1)(n−1)!n=(n+1)(n−1)!(n+1)−1=(n−1)!1−(n+1)(n−1)!1Or n≥1∑(n−1)!1 et n≥1∑(n+1)(n−1)!1 sont deux séries convergentes, donc n≥1∑nP(X=n) est convergente, donc X possède une espérance et : E(X)=n=1∑∞(n−1)!1−n=1∑∞(n+1)(n−1)!1.D’après la question précédente on a donc E(X)=e−1.
Comme X possède une espérance, il suffit de vérifier que X2−X en possède une. Pour n≥2, 0≤n(n−1)P(X=n)=(n+1)(n−2)!n≤(n−2)!1, donc ∑n(n−1)P(X=n) est une série positive convergente, donc E(X2−X) existe et : E(X2−X)=n=2∑∞(n+1)(n−2)!(n+1)−1=n=2∑∞((n−2)!1−(n+1)(n−2)!1). On peut écrire (n+1)(n−2)!1=(n+1)!n(n−1)=(n+1)!(n+1)n−2(n+1)+2=(n−1)!1−n!2+(n+1)!2.
Ainsi E(X2−X)=e−((e−1)−2(e−2)+2(e−25))=2. Au final, V(X)=E(X2−X)+E(X)−E(X)2=2−(e−1)(e−2), après simplification.
Commentaire.
Une méthode plus intéressante aurait été de passer par la fonction génératrice GX(t)=n=1∑∞P(X=n)tn. Vous pouvez montrer que le rayon de convergence est +∞ et calculer GX(t). L’espérance et la variance de X s’en déduisent par calcul de GX′(1) et GX′′(1).
Exercice 579 ⭐️⭐️⭐️ Egalité parfaite de moments, Spé/L2/L3
Soit σ une permutation aléatoire uniforme de {1,…,n}.
Pour j1,…,jk distincts dans {1,…,n}, déterminer la probabilité que j1,…,jk soient des points fixes de σ.
Si X est le nombre de points fixes de σ et si k∈{1,…,n}, calculer l’espérance de X(X−1)(X−2)…(X−k+1).
Montrer que pour tout polynôme P de degré au plus n, on a E[P(X)]=E[P(N)] où N est une variable aléatoire ne dépendant pas de n, dont on identifiera la loi.
Corrigé
Il y a (n−k)! permitations fixant k éléments donnés sur n, donc la probabilité est (n−k)!/n!.
La quantité X(X−1)…(X−k+1) est égale au nombre de k-uplets de points fixes distincts. En additionnant les probabilités de tous les k-uplets possibles, qui sont au nombre de n!/(n−k)!, on obtient (n−k)!/n! fois n!/(n−k)!, et l’espérance cherchée vaut 1.
Le fait que des entiers donnés soient des points fixes de σ correspond à des événements nombreux et rares, donc il est naturel de comparer X à une variable de Poisson, de paramètre E[X]=1. Si N est une telle variable, on a pour k∈{1,…,n}, E[N(N−1)…(N−k+1)]=e−1j=0∑∞j!j(j−1)…(j−k+1). On peut commencer la somme à j=k, ce qui donne e−1j=k∑∞j!(j−k)!j!=e−1m=0∑∞m!1=1. Ceci donne l’égalité cherchée pour les polynômes X(X−1)…(X−k+1) avec k∈{1,…,n}, ce qui est suffisant car l’espace vectoriel qu’ils engendrent avec les constantes contient tous les polynômes de degré au plus n.
Exercice 582 ⭐️⭐️ Pétanque, Sup/L1
Une manche de pétanque oppose deux équipes A et B. Chaque équipe lance n boules.
On suppose que l’ordre des boules à la fin de la manche, de la plus proche à la moins proche du cochonnet, est distribuée selon une probabilité uniforme. On considère X le nombre de points marqués à cette manche par l’équipe gagnante.
Déterminer la loi de X.
Montrer que pour toute variable aléatoire Z à valeurs dans [[1,n]], E(Z)=k=1∑nP(Z≥k).
Montrer que pour n,N∈N tels que N≥n on a p=n∑N(np)=(n+1N+1)
Calculer l’espérance de X.
Réflexes
Équiprobabilité 👉 Poser Ω, et procéder par dénombrement.
Écrire P(Z≥k) comme une somme de probabilités.
Récurrence !
Il est préférable d’utiliser l’expression de E(X) démontrée en 2. plutôt que celle de la définition.
Corrigé
On considère qu’une issue de l’expérience est une partie C de cardinal n de l’ensemble [[1,2n]]. C représente par exemple l’ensemble des boules de l’équipe A, plus précisément i∈C si et seulement si la i-ème boule la plus proche du cochonnet est à l’équipe A.
Par conséquent Ω l’ensemble des issues est de cardinal (n2n).
Soit k∈[[1,n]]. On s’intéresse à l’évènement {X≥k}, autrement dit “les k boules les plus proches sont de la même équipe”.
Une issue de l’évènement {X≥k} est déterminée par la donnée de l’équipe gagnante, et de la position des n boules de l’équipe perdante parmi les (2n−k) boules les moins proches. Ainsi P(X≥k)=(n2n)2(n2n−k). On peut ainsi exprimer la loi de X : P(X=k)=P(X≥k)−P(X≥k+1)=(n2n)2(n2n−k)−(n2n)2(n2n−1−k)Remarque. Une autre possibilité était de passer par la formule des probabilités composées !
Cette identité classique s’obtient par interversion de somme : k=1∑nP(Z≥k)=k=1∑ni=k∑nP(Z=i)=i=1∑nk=1∑iP(Z=i)=i=1∑niP(Z=i)=E(Z).
C’est encore une identité classique, on peut fixer n et procéder par récurrence sur N. Initialisation. Pour N=n l’égalité est vraie (1=1). Hérédité. Supposons la propriété vraie à un rang N≥n donné. Alors p=n∑N+1(np)=(n+1N+1)+(nN+1)=(n+1N+2).
On a d’après 2. : E(X)=(n2n)2k=1∑n(n2n−k)=(n2n)2p=n∑2n−1(np)(chgt. d’indice)=(n2n)2(n+12n)=n+12n(question 3).
Exercice 601 ⭐️⭐️ Urne d’Ehrenfest, Spé/L2
On a deux urnes A et B comportant r boules pour la première et 2n−r pour la seconde. Un tirage consiste à choisir aléatoirement une boule et à la déplacer dans l’autre urne. On note Xk le nombre de boules contenues dans l’urne A après k tirages.
Donner la loi de X1, sa fonction génératrice, et son espérance.
Exprimer une relation entre les lois de Xk+1 et Xk.
On note Gk la fonction génératrice de la variable Xk. Prouver que Gk+1(t)=tGk(t)+2n1−t2Gk′(t).
En déduire k→∞limE(Xk), et interpréter.
Réflexes
Pas de difficulté particulière.
Variables non indépendantes 👉 Formule des probabilités totales.
Ecrire la définition de Gk+1. Fort à parier qu’il faille ensuite appliquer 2. puisqu’on veut faire apparaître la fonction génératrice de Xk.
Le lien entre l’espérance et la fonction génératrice : E(Xk)=Gk′(1).
Corrigé
Les valeurs possibles pour X1 sont r−1 et r+1, avec probas respectives 2nr et 2n2n−r. Ainsi GX1(t)=2nrtr−1+2n2n−rtr+1.
L’espérance de X1 peut être déterminée par exemple avec la relation E(X1)=GX1′(1)=1+r−nr, après simplification. Remarque. Cette relation est valable car X1 est une v.a. finie : GX1 est polynomiale donc dérivable en 1.
D’après la formule des probabilités totales, P(Xk+1=i)=P(Xk=i−1)P(Xk+1=i∣Xk=i−1)+P(Xk=i+1)P(Xk+1=i∣Xk=i+1).
Ainsi pour i=1,…,2n−1 on a : P(Xk+1=i)=2n2n−(i−1)P(Xk=i−1)+2ni+1P(Xk=i+1). Remarque. Cette relation reste vraie pour i=0 et i=n.
Par des changements d’indice, et en faisant attention aux termes nuls, on a : Gk+1(t)=i=0∑2nP(Xk+1=i)ti=i=0∑2n−1P(Xk=i)ti+1−i=1∑2n−12niP(Xk=i)ti+1+i=1∑2nP(Xk=i)ti−1
Le terme i=2n dans la somme de gauche comme dans la somme du milieu est égal à P(Xk=2n)t2n+1, donc on peut l’inclure dans ces 2 sommes (compensation), et on reconnaît alors : Gk+1(t)=tGk(t)+2n1Gk′(t)−2nt2Gk′(t).
On dérive la relation obtenue : Gk+1′(t)=Gk(t)+tGk′(t)+2n1−t2Gk′′(t)−ntGk′(t).
Ainsi en prenant t=1 on obtient : E(Xk+1)=1+(1−n1)E(Xk).
Ainsi la suite de terme général E(Xk) est arithmético-géométrique, avec ∣1−n1∣<1, donc convergente, et sa limite est le point fixe de la fonction f:x↦1+(1−n1)x, c’est-à-dire k→∞limE(Xk)=n. Interprétation. Au bout d’un grand nombre d’itérations, on atteint un équilibre en moyenne (autant de boules dans chaque urne).