Vecteurs aléatoires

Exercice 177 ⭐️ L3

Les densités marginales d’un vecteur gaussien sont des gaussiennes. Mais la réciproque est fausse. Prouver le avec l’exemple d’un vecteur aléatoire (X,Y)\displaystyle (X,Y) de densité f(x,y)=12πex2/2ey2/2(1+xy 1{1x,y1})\displaystyle f(x,y)=\frac{1}{2\pi}e^{-x^2/2}e^{-y^2/2}(1+xy\ 1_{\{-1\le x,y\le1\}}).

Calculons la densité de X\displaystyle X. Soit ϕ\displaystyle \phi une fonction continue bornée. On a
E[ϕ(X)]=12πϕ(x)ex2/2ey2/2(1+xy 1{1x,y1})dxdy=12πϕ(x)ex2/2ey2/2(1+xy 1{1x,y1})dxdy\displaystyle E[\phi(X)]=\frac{1}{2\pi}\int_{-\infty}^\infty\int_{-\infty}^\infty \phi(x)e^{-x^2/2}e^{-y^2/2}(1+xy\ 1_{\{-1\le x,y\le1\}})dxdy=\frac{1}{2\pi}\int_{-\infty}^\infty\phi(x)e^{-x^2/2}\int_{-\infty}^\infty e^{-y^2/2}(1+xy\ 1_{\{-1\le x,y\le1\}})dxdy.
De plus ey2/2(1+xy 1{1x,y1})dy=2π+x 1{1x1}11yey2dy\displaystyle \int_{-\infty}^\infty e^{-y^2/2}(1+xy\ 1_{\{-1\le x,y\le1\}})dy=\sqrt{2\pi}+x\ 1_{\{-1\le x\le1\}}\int_{-1}^1ye^{-y^2}dy.
Comme yyey2\displaystyle y\mapsto ye^{-y^2} est impaire, on en déduit que la dernière intégrale est nulle. On obtient donc E[ϕ(X)]=12πϕ(x)ex/2dx,E[\phi(X)]=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty\phi(x)e^{-x/2}dx, ce qui veut dire que XN(0,1)\displaystyle X\sim\mathcal N(0,1). Comme f\displaystyle f est symétrique en x,y\displaystyle x,y, on en déduit aussi YN(0,1)\displaystyle Y\sim\mathcal N(0,1). Les marginales du vecteur (X,Y)\displaystyle (X,Y) sont donc bien des gaussiennes, mais (X,Y)\displaystyle (X,Y) n’est pas un vecteur gaussien. Pour voir ce dernier point, on peut par exemple remarquer que les dérivées partielles de f\displaystyle f n’existent pas sur le bord du carré {1x,y1}\displaystyle \{-1\le x,y\le1\}, alors que la densité d’un vecteur gaussien est C\displaystyle C^\infty.

Exercice 178 ⭐️⭐️ L3

Soit Z=(Z1,Z2,Z3)T\displaystyle Z=(Z_{1},Z_{2},Z_{3})^{T} un vecteur aléatoire admettant pour densité
f(z1,z2,z3)=14(2π)3/2exp(6z12+6z22+8z32+4z1z232).\displaystyle f(z_{1}, z_{2}, z_{3})=\frac1{4(2\pi)^{3/2}}\exp\left( -\frac{6z_{1}^{2}+ 6z_{2}^{2}+ 8 z_{3}^{2}+4z_{1} z_{2}}{32}\right).
Soient X\displaystyle X et Y\displaystyle Y les vecteurs aléatoires définis par :
X=(2220250410124)Z  et  Y=(111100)Z.\displaystyle X= \left( \begin{array}{ccc} 2 & 2 & 2 \\ 0 & 2 & 5 \\ 0 & 4 & 10 \\ 1 & 2 & 4 \end{array} \right) Z \ \ \rm{ et }\ \ Y=\left( \begin{array}{ccc} 1 & 1 & 1 \\ 1 & 0 & 0 \end{array} \right) Z.

  1. Est-ce que Z\displaystyle Z est un vecteur gaussien ?
  2. Le vecteur (X,Y)\displaystyle (X,Y) de dimension 6\displaystyle 6, est-il gaussien? Les vecteurs X\displaystyle X et Y\displaystyle Y sont-ils gaussiens ?
  3. Les vecteurs X\displaystyle X et Y\displaystyle Y sont-ils indépendants ?
  4. Déterminer les lois des composantes de Z\displaystyle Z.
  1. On rappelle (cours sur les formes quadratiques) que si AM(R)\displaystyle A \in \mathcal{M}_(\R) est symétrique et si x=(x1,,xn)TRn\displaystyle x=(x_1,\ldots,x_n)^T \in \R^n, alors xTAx=i=1nai,ixi2+1i<jnai,jxixj.x^T A x = \sum_{i=1}^n a_{i,i} x_i^2 + \sum_{1 \le i < j \le n} a_{i,j} x_i x_j. On en déduit que la densité de la loi de Z\displaystyle Z s’écrit f(z)=1(2π)3/2det(Γ)exp(zTΓ1z2),f(z) = \frac{1}{(2\pi)^{3/2} \sqrt{\det(\Gamma)}}\exp\left(-\frac{z^T \Gamma^{-1}z}{2}\right),
    z=(z1,z2,z3)T\displaystyle z=(z_1,z_2,z_3)^T et avec Γ1=18(310130004),\Gamma^{-1} = \frac{1}{8} \left(\begin{array}{ccc} 3&1&0& \\ 1 & 3& 0 \\ 0& 0&4 \end{array}\right), c’est-à-dire Γ=(310130002).\Gamma=\left(\begin{array}{ccc} 3 & -1 & 0 \\ -1 & 3 & 0 \\ 0 & 0 & 2\end{array}\right).
    Z\displaystyle Z est donc un vecteur gaussien centré de matrice de covariance Γ\displaystyle \Gamma.

  2. On a (X,Y)=AZ\displaystyle (X,Y) = A Z, où A=(A1A2)M6,3(R)\displaystyle A = \left(\begin{array}{c} A_1 \\ A_2 \end{array}\right) \in M_{6,3}(\R), A1M4,3(R)\displaystyle A_1 \in M_{4,3}(\R) et A2M2,3(R)\displaystyle A_2 \in M_{2,3}(\R) étant respectivement les matrices définissant X=A1Z\displaystyle X = A_1 Z et Y=A2Z\displaystyle Y = A_2 Z. Les vecteurs aléatoires X\displaystyle X, Y\displaystyle Y et (X,Y)\displaystyle (X,Y) sont tous les trois images du vecteur Z\displaystyle Z par des applications linéaires, ce sont donc des vecteurs gaussiens.

  3. On calcule la matrice de covariance de (X,Y)\displaystyle (X,Y), que l’on note C\displaystyle C. On sait qu’elle est donnée par la formule C=AΓAT\displaystyle C = A \Gamma A^T. On trouve
    C=(24285628124286212450142561242481002842850100431411214281462424123).C= \left(\begin{array}{cccccc} 24 & 28& 56& 28& 12& 4 \\ 28& 62& 124& 50& 14& - 2 \\ 56 & 124 & 248 & 100 & 28 & - 4 \\ 28 & 50 & 100 & 43 & 14 & 1 \\ 12& 14 & 28 & 14 & 6 & 2 \\ 4& - 2 & - 4 & 1 & 2 & 3 \end{array}\right).
    Si X\displaystyle X et Y\displaystyle Y étaient indépendants, le bloc de C\displaystyle C formé des quatre premières lignes et deux dernières colonnes, ainsi que celui formé des deux dernières lignes et quatre premières colonnes, seraient nuls, ce qui n’est pas le cas. Ainsi X\displaystyle X et Y\displaystyle Y ne sont pas indépendants.

  4. Si on connaît Γ\displaystyle \Gamma, il est facile de lire la réponse : on sait que les variables aléatoires Z1,Z2\displaystyle Z_1,Z_2 et Z3\displaystyle Z_3 sont toutes les trois de loi normale centrée et que la variance de Zi\displaystyle Z_i est donnée par le coefficient Γi,i\displaystyle \Gamma_{i,i}. Ainsi,
    Z1N(0,3) , Z2N(0,3) , Z3N(0,2).Z_1 \sim \mathcal{N}(0,3) \ , \ Z_2 \sim \mathcal{N}(0,3) \ , \ Z_3 \sim \mathcal{N}(0,2).

Exercice 179 ⭐️

Parmi les matrices suivantes, lesquelles peuvent être la matrice de covariance d’un vecteur aléatoire :
A=(1221)\displaystyle A=\left( \begin{array}{cc} 1 & 2 \\ 2 & 1 \end{array} \right), B=(11/21/21)\displaystyle B=\left( \begin{array}{cc} -1 & -1/2 \\ -1/2 & -1 \end{array} \right), C=(11/21/21)\displaystyle C=\left( \begin{array}{cc} 1 & 1/2 \\ 1/2 & 1 \end{array} \right), D=(11/21/31)\displaystyle D=\left( \begin{array}{cc} 1 & 1/2 \\ 1/3 & 1 \end{array} \right) ?
Dans la suite on note Σ\displaystyle \Sigma les matrices de covariance et on suppose que XN2(0,Σ)\displaystyle X\sim\mathcal N_{2}(0,\Sigma).

  1. Calculer pour chaque matrice Σ\displaystyle \Sigma les valeurs propres (λ1,λ2)\displaystyle (\lambda_{1},\lambda_{2}) et les vecteurs propres associés (v1,v2)\displaystyle (v_{1}, v_{2}).
  2. Donner la loi jointe de v1TX\displaystyle v_{1}^{T} X et v2TX\displaystyle v_{2}^{T} X.

Bientôt !

Exercice 570 ⭐️⭐️⭐️ Contrôle de spin

L’état du spin d’un électron à un moment donné peut être représenté par un vecteur unitaire de R3\displaystyle \mathbb{R}^3. On suppose qu’on peut choisir à tout moment de mesurer ce spin dans la direction qu’on souhaite, cette direction étant représentée par une droite vectorielle de R3\displaystyle \mathbb{R}^3. Si, avant la mesure, l’état du spin correspond au vecteur u\displaystyle u, et si v\displaystyle v et v\displaystyle -v sont les vecteurs unitaires dans la direction de mesure, alors l’état du spin après la mesure, qui est connu par l’observateur une fois la mesure faite, est v\displaystyle v avec probabilité (1+uv)/2\displaystyle (1 + \langle u | v \rangle )/2, et v\displaystyle -v avec probabilité (1uv)/2\displaystyle (1 - \langle u | v \rangle )/2, indépendamment du passé. Montrer qu’une stratégie adéquate permet d’amener le spin vers n’importe quel vecteur choisi à l’avance, avec une probabilité arbitrairement proche de 1\displaystyle 1.

Supposons que w\displaystyle w est le vecteur souhaité. On commence par mesurer le spin dans cette direction. Si on obtient w\displaystyle w, on a directement ce qu’on souhaite, sinon on se retrouve dans l’état w\displaystyle -w. Si n1\displaystyle n \geq 1 est un entier, on considère des vecteurs v0=w\displaystyle v_0 = -w, v1,,vn1\displaystyle v_1, \dots, v_{n-1}, vn=w\displaystyle v_n = w coplanaires tels que l’angle entre deux vecteurs consécutifs est égal à π/n\displaystyle \pi/n. On mesure successivement le spin dans les directions suivantes: (v1,v1),(v2,v2),,(vn,vn)=(w,w)\displaystyle (v_1, -v_1), (v_2, -v_2), \dots, (v_n, -v_n) = (w, -w). A chaque mesure, le spin tourne de π/n\displaystyle \pi/n avec probabilité (1+cos(π/n))/2=1O(1/n2)\displaystyle (1 + \cos(\pi/n))/2 = 1 - \mathcal{O}(1/n^2), et de ππ/n\displaystyle \pi - \pi/n avec probabilité (1cos(π/n))/2=O(1/n2)\displaystyle (1 - \cos(\pi/n))/2 = \mathcal{O}(1/n^2). La probabilité que la deuxième situation arrive pour au moins une des n\displaystyle n mesures est O(1/n)\displaystyle \mathcal{O}(1/n). Donc, avec probabilité 1O(1/n)\displaystyle 1 - \mathcal{O}(1/n), le spin tourne n\displaystyle n fois de π/n\displaystyle \pi/n, ce qui l’amène progressivement de w\displaystyle -w à w\displaystyle w.