Statistiques

Exercice 194 ⭐️

On considère le modèle uniforme {U({1,,N}),NN}\displaystyle \{\mathbb U(\{1,\ldots, N\}), N\in \N\}.
Deux candidats pour estimer le paramètre N\displaystyle N sont N^n=max{X1,,Xn}\displaystyle \widehat N_{n}=\max\{X_{1},\ldots, X_{n}\} et N~n=2ni=1nXi1.\displaystyle \widetilde N_{n}=\frac2n \sum_{i=1}^{n} X_{i}-1.
Comparer ces deux estimateurs. Pour le premier, on peut se rappeler que pour une v.a. X0\displaystyle X\geq 0 on a EX=k=0P(X>k)\displaystyle E X=\sum_{k=0}^{\infty} P(X>k).

Calculons déjà les espérances des estimateurs :
EN~n=2EX11\displaystyle E \widetilde N_{n}=2E X_1 -1 et EX1=1Nk=1Nk=N+12\displaystyle E X_1= \frac1N \sum_{k=1}^Nk=\frac{N+1}{2}, d’où EN~n=N\displaystyle E \widetilde N_{n}=N, et donc l’estimateur est sans biais.
Pour évaluer EN^n\displaystyle E \widehat N_{n} calculons :
P(N^n>k)=1P(N^nk)=1P(X1k,,Xnk)=1(P(X1k))n\begin{array}{lcl} P(\widehat N_{n}>k) & =& 1-P(\widehat N_{n}\le k)\\ &=&1-P(X_1\le k,\cdots,X_n\le k)\\ &=&1-(P(X_1\le k))^n\\ \end{array}
car les Xi\displaystyle X_i sont i.i.d. Donc P(N^n>k)=1(kn)n\displaystyle P(\widehat N_{n}>k)=1-\left(\frac{k}{n}\right)^n et alors

EN^n=k=0P(N^n>k)=k=0NP(N^n>k)=N1nnk=1Nkn.\begin{array}{lcl} E \widehat N_{n}&=&\sum_{k=0}^{\infty} P(\widehat N_{n}>k)\\ &=&\sum_{k=0}^{N} P(\widehat N_{n}>k)\\ &=&N-\frac{1}{n^n}\sum_{k=1}^Nk^n.\end{array}

Etudions la limite à k\displaystyle k fixé de (kn)n=en(lnklnn)\displaystyle \left(\frac{k}{n}\right)^n=e^{n(\ln k- \ln n)}. A k\displaystyle k fixé on a lnklnn\displaystyle \ln k-\ln n \to -\infty, donc (kn)nn0\displaystyle \left(\frac{k}{n}\right)^n\xrightarrow[n\to\infty]{} 0. Comme on fait ensuite une somme finie jusqu’à N\displaystyle N, on en déduit que 1nnk=1Nknn0\displaystyle \frac{1}{n^n}\sum_{k=1}^Nk^n \xrightarrow[n\to\infty]{} 0. Ainsi EN^nnN\displaystyle E \widehat N_{n} \xrightarrow[n\to\infty]{} N et donc l’estimateur N^n\displaystyle \widehat N_{n} est asymptotiquement sans biais.
Du point de vue du biais N~n\displaystyle \widetilde N_{n} est donc meilleur que N^n\displaystyle \widehat N_{n}. S’ils avaient eu le même biais, il aura fallu comparer les risques quadratiques par exemple.

Exercice 195 ⭐️⭐️

Soient (Xk)k1\displaystyle (X_k)_{k \geq 1} une suite de v.a. indépendantes de loi uniforme U([0,θ])\displaystyle \mathcal{U}([0,\theta]) , où θ>0\displaystyle \theta > 0 est un paramètre à estimer. On pose, pour tout n1\displaystyle n \geq 1 , Mn:=max(X1,,Xn)\displaystyle M_n := \max(X_1,\ldots,X_n) .

  1. Soit k1\displaystyle k \geq 1 . Donner la densité et la fonction de répartition de la loi de Xk\displaystyle X_k .
  2. Que vaut P(Mnt)\displaystyle P(M_n \leq t) si t<0\displaystyle t < 0 ? et si t>θ\displaystyle t > \theta ?
  3. Soit t[0,1]\displaystyle t \in [0,1] . Montrer que P(Mnt)=(tθ)n\displaystyle P(M_n \leq t)= \left( \frac{t}{\theta} \right)^n .
  4. Montrer que la densité fn\displaystyle f_n de la loi de Mn\displaystyle M_n est donnée par fn(t)=nθntn11t[0,θ]\displaystyle f_n(t) = \frac{n}{\theta^n} t^{n-1} 1_{t \in [0,\theta]} .
  5. Mn\displaystyle M_n est-il un estimateur sans biais de θ\displaystyle \theta ?
  6. Montrer que [Mn,Mnα1/n]\displaystyle [M_n,M_n \alpha^{-1/n}] est un intervalle de confiance de niveau α\displaystyle \alpha pour le paramètre θ\displaystyle \theta.
  7. (*) Soit dn\displaystyle d_n le diamètre de l’intervalle de confiance. Montrer qu’il existe une constante A>0\displaystyle A>0 telle que dnA/n\displaystyle d_n \leq A/n lorsque n\displaystyle n \rightarrow \infty.
  8. On pose, pour n1\displaystyle n \geq 1 , Xn:=X1++Xnn\displaystyle \overline{X}_n := \frac{X_1+\cdots+X_n}{n} . Montrer que 2Xn\displaystyle 2 \overline{X}_n est un estimateur sans biais de θ\displaystyle \theta .
  9. (*) Pour n\displaystyle n suffisamment grand, quel est le meilleur estimateur parmi les deux décrits dans l’exercice ?

TBC