Algèbre bilinéaire

Exercice 92 ⭐️⭐️ Sup/L1

Soit (E,,)\displaystyle (E,\langle \cdot,\cdot \rangle) un espace vectoriel euclidien et F:=(e1,,ep)Ep\displaystyle \mathcal{F} := (e_1,\ldots,e_p) \in E^p. On considère f:EE\displaystyle f : E \rightarrow E définie par : xE , f(x)=i=1pei,xei\displaystyle \forall x \in E \ , \ f(x) = \sum_{i=1}^p \langle e_i,x \rangle e_i.

  1. Montrer que f\displaystyle f est un endomorphisme de E\displaystyle E.
  2. Montrer que f(x),x0\displaystyle \langle f(x),x \rangle \geq 0. Quand a-t-on f(x),x=0\displaystyle \langle f(x),x \rangle = 0 ?
  3. Montrer que Ker(f)=F\displaystyle {\rm Ker}(f) = \mathcal{F}^{\perp} et Im(f)=Vect(F)\displaystyle {\rm Im}(f)={\rm Vect}(\mathcal{F}).
  4. Montrer que f\displaystyle f est bijective si et seulement si F\displaystyle \mathcal{F} engendre E\displaystyle E.
  1. Il suffit de montrer que pour tout i{1,,p}\displaystyle i \in \{1,\ldots,p\}, l’application xei,xei\displaystyle x \mapsto \langle e_i,x \rangle e_i est un endomorphisme de E\displaystyle E, et cela vient du fait que pour tous x,yE\displaystyle x,y \in E et tout λR\displaystyle \lambda \in \R, on a : ei,λx+yei=(λei,x+ei,y)ei=λei,xei+ei,yei\displaystyle \langle e_i, \lambda x+y \rangle e_i = (\lambda \langle e_i,x \rangle + \langle e_i,y \rangle ) e_i = \lambda \langle e_i,x \rangle e_i + \langle e_i,y \rangle e_i.
  2. On utilise la linéarité du produit scalaire en la première variable pour écrire :
    f(x),x=i=1pei,xei,x=i=1pei,xei,x=i=1pei,x20\displaystyle \langle f(x) , x \rangle = \langle \sum_{i=1}^p \langle e_i,x \rangle e_i , x \rangle = \sum_{i=1}^p \langle e_i,x \rangle \langle e_i,x \rangle = \sum_{i=1}^p \langle e_i,x \rangle^2 \geq 0.
    On a égalité si et seulement si ei,x=0\displaystyle \langle e_i, x \rangle = 0 pour tout 1ip\displaystyle 1 \leq i \leq p, i.e. si et seulement si xF\displaystyle x \in \mathcal{F}^\perp.
  3. Soit xKer(f)\displaystyle x \in {\rm Ker}(f). On a f(x)=0\displaystyle f(x)=0, donc f(x),x=0\displaystyle \langle f(x),x \rangle =0. D’après la question précédente, on a alors xF\displaystyle x \in \mathcal{F}^\perp, donc Ker(f)F\displaystyle {\rm Ker}(f) \subset \mathcal{F}^\perp. Réciproquement, si xF\displaystyle x \in \mathcal{F}^\perp, alors x,ei=0\displaystyle \langle x,e_i \rangle = 0 pour tout 1ip\displaystyle 1 \leq i \leq p, et on en déduit que f(x)=0\displaystyle f(x)=0. Ainsi on a aussi l’inclusion réciproque FKer(f)\displaystyle \mathcal{F}^\perp \subset {\rm Ker}(f).
    Soit yIm(f)\displaystyle y \in {\rm Im}(f). Il existe alors xE\displaystyle x \in E tel que y=f(x)=i=1pei,xei.\displaystyle y = f(x) = \sum_{i=1}^p \langle e_i,x \rangle e_i. On a exprimé y\displaystyle y comme combinaison linéaire des (ei)1ip\displaystyle (e_i)_{1 \leq i \leq p}, ce qui signifie que yVect(F)\displaystyle y \in {\rm Vect}(\mathcal{F}), d’où l’inclusion Im(f)Vect(F)\displaystyle {\rm Im}(f) \subset {\rm Vect}(\mathcal{F}). Notons V:=Vect(F)\displaystyle V := {\rm Vect}(\mathcal{F}). On a F=V\displaystyle \mathcal{F}^\perp = V^\perp. On peut exprimer de deux façons différentes la dimension de E\displaystyle E, en utilisant le théorème du rang, puis les propriétés des supplémentaires orthogonaux :
    dim(V)+dim(V)=dim(E)=dim(Ker(f))+dim(Im(f))\displaystyle {\rm dim}(V)+{\rm dim}(V^\perp) = {\rm dim}(E) = {\rm dim}({\rm Ker}(f))+{\rm dim}({\rm Im}(f)).
    Comme V=Ker(f)\displaystyle V = {\rm Ker}(f), on en déduit que dim(V)=dim(Im(f))\displaystyle {\rm dim}(V^\perp) = {\rm dim}({\rm Im}(f)), et l’inclusion Im(f)V\displaystyle {\rm Im}(f) \subset V permet de conclure que Im(f)=V\displaystyle {\rm Im}(f) = V.
  4. On a f\displaystyle f bijective     \displaystyle \iff dim(Ker(f))=0\displaystyle {\rm dim}({\rm Ker}(f)) = 0     \displaystyle \iff dim(V)=0\displaystyle {\rm dim}(V^\perp) = 0     \displaystyle \iff dim(V)=dim(E)\displaystyle {\rm dim}(V) = {\rm dim}(E)     \displaystyle \iff V=E\displaystyle V=E (car on a l’inclusion VE\displaystyle V \subset E). Mais V=E\displaystyle V=E signifie exactement que F\displaystyle \mathcal{F} engendre E\displaystyle E.

Exercice 127 ⭐️⭐️ Spé/L2

Soit AMn(R)\displaystyle A\in M_n(\R) une matrice symétrique non nulle. Montrer que (tr(A))2tr(A2)rg(A)\displaystyle \frac{(tr(A))^2}{tr(A^2)}\le {\rm rg}(A).

  • Trace 👉 somme des coef. de la diagonale, somme des valeurs propres ;
  • Des carrés 👉 Cauchy-Schwarz.

On a tr(A)=λ1++λr\displaystyle tr(A)=\lambda_1+\cdots+\lambda_r où les λi\displaystyle \lambda_i sont les r\displaystyle r valeurs propres non nulles de A\displaystyle A, elles sont réelles car A\displaystyle A est symétrique réelle (d’après le théorème spectral), et r=rg(A)n\displaystyle r={\rm rg}(A)\le n.
Par Cauchy-Schwarz (λ1++λr)2r(λ12++λr2)\displaystyle (\lambda_1+\cdots+\lambda_r)^2\le r(\lambda_1^2+\cdots+\lambda_r^2), donc (tr(A))2r tr(A2)\displaystyle (tr(A))^2\le r\ tr(A^2), qui est l’égalité cherchée.
Notons qu’on peut obtenir (tr(A))2tr(A2)n\displaystyle \frac{(tr(A))^2}{tr(A^2)}\le n aussi en utilisant Cauchy-Schwarz avec le produit scalaire (A,B)tr(ABT)\displaystyle (A,B)\mapsto tr(AB^T) et B=Id\displaystyle B=Id (et on a A=AT\displaystyle A=A^T).

Exercice 128 ⭐️⭐️ Décomposition polaire, Spé/L2/Classique

Soit MGLn(R)\displaystyle M\in GL_n(\R). Montrer qu’il existe un couple (O,S)On×Sn++\displaystyle (O,S)\in \mathcal{O}_n \times\mathcal{S}_n^{++} tel que M=OS\displaystyle M=OS. Ici On\displaystyle \mathcal{O}_n désigne le groupe orthogonal et Sn++\displaystyle \mathcal{S}_n^{++} l’ensemble des matrices symétriques définies positives.

Montrer l’existence 👉 exhiber un élément qui convient, preuve par analyse-synthèse.

Analyse : Si M=OS\displaystyle M=OS, alors MTM=SOTOS=S2\displaystyle M^TM=SO^TOS=S^2. Or MTM\displaystyle M^TM est symétrique définie positive car XTMTMX=MX2>0\displaystyle X^TM^TMX=\|MX\|^2>0 si X0\displaystyle X\neq0 car MGLn(R)\displaystyle M\in GL_n(\R).
Donc MTM\displaystyle M^TM est diagonalisable en base orthonormée et ses valeurs propres λi\displaystyle \lambda_i sont >0\displaystyle >0. Écrivons MTM=PDPT\displaystyle M^TM=PDP^T et notons D\displaystyle \sqrt{D} la matrice diagonale avec les λi\displaystyle \sqrt{\lambda_i} sur la diagonale. Posons S=PDPT\displaystyle S=P\sqrt{D}P^T et O=MS1\displaystyle O=MS^{-1}. On a OTO=S1MTMS1=S1S2S1=I\displaystyle O^TO=S^{-1}M^TMS^{-1}= S^{-1}S^2S^{-1}=I. Donc on a bien (O,S)On×Sn++\displaystyle (O,S)\in \mathcal{O}_n \times\mathcal{S}_n^{++}.

Exercice 129 ⭐️⭐️ Inégalité d’Hadamard, Spé/L2/Classique

Soit C1,,Cn\displaystyle C_1,\cdots,C_n les vecteurs colonnes d’une matrice MMn(C)\displaystyle M\in \mathcal{M}_n(\mathbb C). Montrer l’inégalité d’Hadamard :
det(M)C1Cn\displaystyle |\det(M)|\le \|C_1\|\cdots\|C_n\|, la norme .\displaystyle \|.\| étant la norme hermitienne canonique. Cas d’égalité ?

Supposons que M\displaystyle M est inversible, car sinon detM=0\displaystyle \det M=0 et l’inégalité est bien sûr vraie. Ainsi (C1,,Cn)\displaystyle (C_1,\cdots,C_n) est une base de Cn\displaystyle \C^n. Le procédé d’othogonalisation de Gram-Schmidt fournit alors une base orthogonale (X1,,Xn)\displaystyle (X_1,\cdots,X_n) de Cn\displaystyle \C^n telle que X1=C1\displaystyle X_1=C_1 et pour tout k2\displaystyle k\ge 2 : Xk=Ck+a1,kX1++ak1,kXk1,ai,kC.X_k=C_k+a_{1,k}X_1+\cdots + a_{k-1,k}X_{k-1}, \quad a_{i,k}\in\C. Si on ajoute à une colonne une combinaison linéaire des autres on ne change pas le déterminant,
donc det(O)=det(M)\displaystyle det (O)=det(M), où O\displaystyle O est la matrice formées par les colonnes X1,,Xn\displaystyle X_1,\cdots,X_n. En particulier OO\displaystyle O^*O est une matrice diagonale avec les Xi2\displaystyle \|X_i\|^2 sur la diagonale, car les Xi\displaystyle X_i sont deux à deux orthogonaux.
Ainsi det(O)2=X12Xn2\displaystyle |det(O)|^2=\|X_1\|^2\cdots \|X_n\|^2. Mais comme les Xi\displaystyle X_i sont deux à deux orthogonaux, on peut écrire par Pythagore : Ck2=Xk2+a1,k2X12++ak1,k2Xk12.\|C_k\|^2=\|X_k\|^2+|a_{1,k}|^2\|X_1\|^2+\cdots + |a_{k-1,k}|^2\|X_{k-1}\|^2. Par suite Xk2Ck2\displaystyle \|X_k\|^2\le\|C_k\|^2, d’où la conclusion.

On peut alors montrer qu’il y a égalité si et seulement si les Ck\displaystyle C_k sont deux à deux orthogonaux.

Exercice 130 ⭐️⭐️ Sup/L1

Soit AMn(R)\displaystyle A\in M_n(\R) tel que pour tout vecteur colonne XRn\displaystyle X\in\R^n, XTAX=0\displaystyle X^TAX=0. Montrer que A\displaystyle A est anti-symétrique.

Pour tout X,YRn\displaystyle X,Y\in\R^n, on a aussi (X+Y)TA(X+Y)=0\displaystyle (X+Y)^TA(X+Y)=0. D’où XTAY+YTAX=0\displaystyle X^TAY + Y^TAX=0 car XTAX=0\displaystyle X^TAX=0 et YTAY=0\displaystyle Y^TAY=0. Or YTAX=(YTAX)T=XTATY\displaystyle Y^TAX=(Y^TAX)^T=X^TA^TY. Ainsi XT(A+AT)Y=0\displaystyle X^T(A+A^T)Y=0. Comme X\displaystyle X et Y\displaystyle Y sont arbitraires, on peut prendre des vecteurs de la base canonique, et on obtient l’égalité des coefficients de la matrice A+AT\displaystyle A+A^T à 0\displaystyle 0, i.e. AT=A\displaystyle A^T=-A, et la matrice A\displaystyle A est anti-symétrique.

Exercice 131 ⭐️⭐️⭐️ X MP 2018

Soit E=Rn\displaystyle E=\mathbb{R}^n muni du produit scalaire canonique ,\displaystyle \langle \cdot, \cdot \rangle.
Soit (u1,uk)Ek\displaystyle (u_1,\dots u_k)\in E^k et (v1,vk)Ek\displaystyle (v_1,\dots v_k)\in E^k tels que ui,uj=vi,vj\displaystyle \langle u_i, u_j \rangle = \langle v_i, v_j \rangle pour tous i\displaystyle i et j\displaystyle j compris entre 1\displaystyle 1 et k\displaystyle k.
Montrer qu’il existe WOn(R)\displaystyle W \in \mathcal{O}_n (\mathbb{R}) telle que ui=Wvi\displaystyle u_i=Wv_i pour tout 1ik\displaystyle 1\le i\le k.

  • Objet à construire 👉 Analyse-Synthèse !
  • Ecrire des sommes, produits scalaires, etc. sous forme matricielle.

On a uiTuj=viTvj\displaystyle u_i^Tu_j=v_i^Tv_j et on va injecter vi=Wui\displaystyle v_i=Wu_i, ce qui donne uiTuj=uiTWTWuj\displaystyle u_i^Tu_j=u_i^TW^TWu_j, bon là c’est raté on n’a pas avancé car WTW=In\displaystyle W^TW=I_n.
En fait, à partir de uiTuj=viTvj\displaystyle u_i^Tu_j=v_i^Tv_j, on a très envie d’inverser uiT\displaystyle u_i^T, mais c’est un vecteur, dommage ! On va pas s’arréter là, on va créer des matrices. D’ailleurs on n’a pas utilisé le fait que uiTuj=viTvj\displaystyle u_i^Tu_j=v_i^Tv_j était vrai pour tout i\displaystyle i et j\displaystyle j. On résume ça avec les matrices U\displaystyle U et V\displaystyle V dont les colonnes sont resp. les vecteurs ui\displaystyle u_i et vi\displaystyle v_i.
Ainsi on a UTU=VTV\displaystyle U^TU=V^TV. Supposons U\displaystyle U inversible, i.e. que les ui\displaystyle u_i sont libres. En particulier on aura donc ici kn\displaystyle k\le n et pour avoir une matrice carrée on peut compléter les ui\displaystyle u_i (resp. les vi\displaystyle v_i) par des vecteurs orthogonaux de telle sorte à avoir une base, et cela ne change pas la relation UTU=VTV\displaystyle U^TU=V^TV car on a rajouté des 0\displaystyle 0 et des 1\displaystyle 1 au même endroit.
Alors U=(U1)TVTV\displaystyle U=(U^{-1})^TV^T V. Notre candidat est donc W=(U1)TVT\displaystyle W=(U^{-1})^TV^T. Vérifions qu’il est orthogonal : WTW=VU1(U1)TVT=V(UTU)1V=V(VTV)1V=In.\displaystyle W^TW=VU^{-1}(U^{-1})^TV^T=V(U^TU)^{-1}V=V(V^TV)^{-1}V=I_n.
Si les vecteurs ui\displaystyle u_i sont liés, on peut en exprimer un à partir des autres, et vous êtes sur la bonne piste pour conclure !

Exercice 132 ⭐️⭐️ Sup/L1

Soit (E,,)\displaystyle (E,\langle \cdot,\cdot \rangle) un espace euclidien et f:EE\displaystyle f:E\to E une application telle que pour tous x,yE\displaystyle x,y\in E, x,f(y)=f(x),y\displaystyle \langle x,f(y)\rangle =\langle f(x),y\rangle. Montrer que f\displaystyle f est linéaire.

Soit x,yE\displaystyle x,y\in E et aR\displaystyle a\in\R quelconques et fixés. Pour tout vE\displaystyle v\in E, on a en utilisant la linéarité de ,v\displaystyle \langle \cdot, v\rangle : f(ax+y)af(x)f(y),v=f(ax+y),vaf(x),vf(y),v,\langle f(ax+y)-af(x)-f(y),v\rangle=\langle f(ax+y),v\rangle -a\langle f(x),v\rangle - \langle f(y),v\rangle, puis l’hypothèse sur f\displaystyle f et encore la linéarité de ,v\displaystyle \langle \cdot, v\rangle : f(ax+y)af(x)f(y),v=ax+y,f(v)ax,f(v)y,f(v)=0.\langle f(ax+y)-af(x)-f(y),v\rangle=\langle ax+y,f(v)\rangle -a\langle x,f(v)\rangle - \langle y,f(v)\rangle=0.

Comme vE\displaystyle v\in E est arbitraire, on endéduit que f(ax+y)af(x)f(y)=0\displaystyle f(ax+y)-af(x)-f(y)=0, et donc que f\displaystyle f est bien linéaire.

Exercice 133 ⭐️⭐️ Centrale, Sup/Spé/L2/Classique

Soit (E,(,))\displaystyle (E,(\cdot,\cdot)) un espace pré-hilbertien réel et B=(e1,,en)\displaystyle \mathcal B=(e_1,\cdots,e_n) une famille de E\displaystyle E. On suppose que B\displaystyle \mathcal B est normée. Montrer que B\displaystyle \mathcal B est une base orthonormée de E\displaystyle E si et seulement si pour tout xE\displaystyle x\in E, x2=1in(x,ei)2\displaystyle \|x\|^2=\sum_{1\le i\le n}(x,e_i)^2.

Pythagore, Introduire des Projections.

Si B\displaystyle \mathcal B est une base orthonormée de E\displaystyle E, alors par le théorème de Pythagore, on a bien l’égalité demandée.
Supposons que pour tout xE\displaystyle x\in E, x2=1in(x,ei)2\displaystyle \|x\|^2=\sum_{1\le i\le n}(x,e_i)^2. On peut déjà tester l’égalité sur un ej\displaystyle e_j, alors ej2=1in(ej,ei)2=ej2+ij(ej,ei)2\displaystyle \|e_j\|^2=\sum_{1\le i\le n}(e_j,e_i)^2=\|e_j\|^2+\sum_{i\neq j}(e_j,e_i)^2, i.e. ij(ej,ei)2=0\displaystyle \sum_{i\neq j}(e_j,e_i)^2=0. Comme on peut le faire pour tout ej\displaystyle e_j, on en déduit que pour tout i,j\displaystyle i,j avec ij\displaystyle i\neq j on a (ej,ei)2\displaystyle (e_j,e_i)^2 donc la famille B\displaystyle \mathcal B est orthonormée, et donc libre aussi. Pour montrer que c’est une base, il faut montrer qu’elle est génératrice, ce qui veut dire en terme de projection que x=p(x)\displaystyle x=p(x)p\displaystyle p est la projection orthogonale sur Vect(B)\displaystyle Vect(\mathcal B). On a p(x)=1in(x,ei)ei\displaystyle p(x)=\sum_{1\le i\le n}(x,e_i)e_i. Mais par Pythagore, xp(x)2=x2p(x)2\displaystyle \|x-p(x)\|^2=\|x\|^2-\|p(x)\|^2. Mais p(x)2=1in(x,ei)2=x2\displaystyle \|p(x)\|^2=\sum_{1\le i\le n}(x,e_i)^2=\|x\|^2, d’où xp(x)=0\displaystyle \|x-p(x)\|=0, ce qui permet de conclure.

Exercice 134 ⭐️⭐️ Centrale, Spé/L2

Soit A=(ai,j)On(R)\displaystyle A=(a_{i,j})\in O_n(\R). Montrer que i,jai,jn\displaystyle \left|\sum_{i,j}a_{i,j}\right|\le n.

  • Somme, orthogonalité 👉 Cauchy-Schwarz !
  • Écrire des sommes, produits scalaires, etc. sous forme matricielle (Ne pas oublier que ce bon vieux vecteur (1,,1)\displaystyle (1,\cdots, 1) rend souvent bien des services 🤝)

On peut écrire i,jai,j=uTAu=u,Au\displaystyle \sum_{i,j}a_{i,j}=u^T Au=\langle u,Au \rangleuT=(1,,1)\displaystyle u^T=(1,\cdots, 1) et ,\displaystyle \langle \cdot ,\cdot \rangle est le produit scalaire canonique. Par Cauchy-Schwarz, on obtient i,jai,juAu=u2=n\displaystyle \left|\sum_{i,j}a_{i,j}\right|\le \|u\| \|Au\|=\|u\|^2=n car A\displaystyle A étant dans le groupe orthogonal Au=u\displaystyle \|Au\|=\|u\|.

Exercice 135 ⭐️⭐️⭐️ Distance d’un vecteur à un sous-espace, Spé/L2/Classique

Soit (E,(,))\displaystyle (E,(\cdot,\cdot)) un espace pré-hilbertien réel et B=(e1,,en)\displaystyle \mathcal B=(e_1,\cdots,e_n) une famille de E\displaystyle E. On suppose que B\displaystyle \mathcal B est libre et on note d\displaystyle d la distance de xE\displaystyle x\in E\displaystyle {\rm } à Vect(B)\displaystyle {\rm Vect}(\mathcal B). Montrer que d2=Gram(x,B)Gram(B)\displaystyle d^2=\frac{|{\rm Gram}(x,\mathcal B)|}{|{\rm Gram}(\mathcal B)|}, où Gram(f1,,fn)\displaystyle |{\rm Gram}(f_1,\cdots,f_n)| est le déterminant de la matrice de Gram de la famille (f1,,fn)\displaystyle (f_1,\cdots,f_n). Retrouver la formule connue si B\displaystyle \mathcal B est une famille orthonormale.

Cet exercice très classique est bien corrigé sur cette page wikipedia.

Exercice 336 ⭐️⭐️⭐️ Polynômes orthogonaux, Spé/MP/L2

Soit I\displaystyle I un intervalle de R\displaystyle \R et w:IR+\displaystyle w : I \rightarrow \R_+^* une fonction continue par morceaux telle que Ixnw(x)dx<\displaystyle \int_I |x|^n w(x) dx < \infty pour tout n0\displaystyle n \geq 0. Soit E\displaystyle E l’espace vectoriel des fonctions continues sur I\displaystyle I telles que If(x)2w(x)dx<\displaystyle \int_I f(x)^2 w(x) dx < \infty.

  1. Montrer que (p,q)p,qw=Ip(x)q(x)w(x)dx\displaystyle (p,q) \mapsto \langle p,q \rangle_w = \int_I p(x) q(x) w(x) dx définit un produit scalaire sur E\displaystyle E.
  2. Montrer qu’il existe une unique suite de fonctions polynomiales (pn(x))n0\displaystyle (p_n(x))_{n \geq 0} telle que :
  • Pour tout n0\displaystyle n \geq 0, pn\displaystyle p_n est de degré exactement égal à n\displaystyle n et de coefficient dominant kn>0\displaystyle k_n > 0,
  • la famille (pn)n0\displaystyle (p_n)_{n \geq 0} est orthonormale pour ,w\displaystyle \langle \cdot, \cdot \rangle_w.
  1. Soit q:IR\displaystyle q : I \rightarrow \R polynomiale de degré n1\displaystyle \leq n-1. Montrer que pn,qw=0\displaystyle \langle p_n, q \rangle_w = 0.
  2. On note kn>0\displaystyle k_n>0 le coefficient dominant de pn\displaystyle p_n et, pour n1\displaystyle n \geq 1, an=knkn1\displaystyle a_n = \frac{k_n}{k_{n-1}}. Montrer qu’il existe deux suites (bn)n2\displaystyle (b_n)_{n \geq 2} et (cn)n2\displaystyle (c_n)_{n \geq 2} telles que pn(x)=(anx+bn)pn1(x)cnpn2(x).p_n(x) = (a_n x+b_n) p_{n-1}(x) - c_n p_{n-2}(x).
  3. Montrer que cn=knkn2kn12\displaystyle c_n = \frac{k_n k_{n-2}}{k_{n-1}^2}. Montrer la formule : xyI\displaystyle \forall x \neq y \in I, k=0npk(x)pk(y)=knkn+1pn+1(x)pn(y)pn(x)pn+1(y)xy. \sum_{k=0}^n p_k(x) p_k(y) = \frac{k_n}{k_{n+1}} \frac{p_{n+1}(x)p_n(y)-p_n(x)p_{n+1}(y)}{x-y}.
  4. Montrer l’inégalité : pn+1(x)pn(x)>pn(x)pn+1(x)\displaystyle p_{n+1}'(x) p_n(x) > p_n'(x) p_{n+1}(x).
  5. On suppose que pn+1\displaystyle p_{n+1} s’annule au moins deux fois sur I\displaystyle I. Soient a<b\displaystyle a<b deux zéros consécutifs de pn+1\displaystyle p_{n+1}. Montrer que pn(a)pn(b)<0\displaystyle p_{n}(a)p_{n}(b)<0.
  6. Si on suppose que pn+1\displaystyle p_{n+1} possède n+1\displaystyle n+1 racines distinctes dans I\displaystyle I, que dire des racines de pn\displaystyle p_n ?
  • On a une famille de polynômes (pn)n0\displaystyle (p_n)_{n \ge 0} étagée 👉 chaque sous-famille (pk)0kn\displaystyle (p_k)_{0 \le k \le n} est une base de Rn(X)\displaystyle \R_n(X).
  • f(a)f(b)<0\displaystyle f(a)f(b)<0 👉 on a envie d’appliquer le TVI !
  1. Si f,gE\displaystyle f,g \in E, alors l’inégalité élémentaire aba2+b22\displaystyle |ab| \le \frac{a^2+b^2}{2} permet d’écrire que If(x)g(x)w(x)dx12(If(x)2w(x)dx+Ig(x)2w(x)dx),\int_I |f(x) g(x)| w(x) dx \le \frac{1}{2} \left(\int_I f(x)^2 w(x) dx + \int_I g(x)^2 w(x) dx\right), ce qui prouve que le produit scalaire f,gw\displaystyle \langle f,g \rangle_w est bien défini. La bilinéarite, la symétrie et la positivité découlent immédiatement des propriétés de l’intégrale. Enfin, si fE\displaystyle f\in E est telle que f,fw=0\displaystyle \langle f,f \rangle_w = 0, alors If(x)2w(x)dx=0\displaystyle \int_I f(x)^2 w(x) dx = 0. Or xf(x)2w(x)\displaystyle x \mapsto f(x)^2 w(x) est continue et positive sur l’intervalle I\displaystyle I, on en déduit que c’est la fonction identiquement nulle. Comme w>0\displaystyle w>0 sur I\displaystyle I, on en déduit que f(x)=0\displaystyle f(x) = 0 pour tout xI\displaystyle x \in I.

  2. La condition d’intégrabilité Ixnw(x)dx<\displaystyle \int_I x^n w(x) dx < \infty implique qu’on a IR(x)w(w)dx>\displaystyle \int_I R(x) w(w) dx > \infty pour toute fonction polynomiale R:IR\displaystyle R : I \rightarrow \R. Ainsi toutes les fonctions polynomiales sont dans E\displaystyle E. La construction de la suite pn\displaystyle p_n se fait par récurrence sur n\displaystyle n suivant le procédé d’orthonormalisation de Gram-Schmidt à partir de la base canonique de R[X]\displaystyle \R[X].

  3. Comme la famille des (pn)n0\displaystyle (p_n)_{n \ge 0} est étagée, on sait que la sous-famille (pk)0kn\displaystyle (p_k)_{0 \le k \le n} forme une base de l’espace vectoriel Rn(x)\displaystyle \R_{n}(x), cette notation un peu abusive désignant l’espace vectoriel des restrictions à I\displaystyle I des fonctions polynomiales de degré au plus n\displaystyle n. En particulier, si qRn1(x)\displaystyle q \in \R_{n-1}(x), alors on peut écrire q(x)=k=0n1αkpk(x)\displaystyle q(x) = \sum_{k=0}^{n-1} \alpha_k p_k(x) pour une certaine famille de coefficients réels α0,,αn1\displaystyle \alpha_0,\ldots,\alpha_{n-1}. La propriété de bilinéarité et le fait que pn,pkw=0\displaystyle \langle p_n,p_k \rangle_w = 0 pour tout k<n\displaystyle k < n permettent de déduire que pn,qw=0\displaystyle \langle p_n ,q \rangle_w = 0.

  4. Pour n1\displaystyle n \ge 1, on note ln\displaystyle l_n le coefficient devant xn1\displaystyle x^{n-1} dans pn(x)\displaystyle p_n(x). Ainsi pour n2\displaystyle n \ge 2, on a pn(x)=knxn+lnxn1+rn(x)\displaystyle p_n(x) = k_n x^n + l_n x^{n-1} + r_n(x), où rn(x)Rn2(x)\displaystyle r_n(x) \in \R_{n-2}(x). On pose maintenant an=knkn1 , bn=lnkn1knkn12ln1.a_n = \frac{k_n}{k_{n-1}} \ , \ b_n = \frac{l_n}{k_{n-1}}-\frac{k_n}{k_{n-1}^2} l_{n-1}. Ces coefficients ont été choisis de telle sorte que (anx+bn)pn1(x)=(knkn1x+lnkn1knkn12ln1)(kn1xn1+ln1xn2+rn1(x))\left(a_n x+b_n\right)p_{n-1}(x) = \left(\frac{k_n}{k_{n-1}} x + \frac{l_n}{k_{n-1}} -\frac{k_n}{k_{n-1}^2} l_{n-1}\right) (k_{n-1} x^{n-1}+l_{n-1}x^{n-2}+r_{n-1}(x)) =knxn+lnxn1+sn(x),=k_n x^n + l_n x^{n-1} + s_n(x), avec sn(x)Rn2(x)\displaystyle s_n(x) \in \R_{n-2}(x). Ainsi pn(x)(anx+bn)pn1(x)Rn2(x)\displaystyle p_n(x) - (a_nx+b_n)p_{n-1}(x) \in \R_{n-2}(x). Il existe donc des coefficients α0,,αn2\displaystyle \alpha_0,\ldots,\alpha_{n-2} tels que pn(x)(anx+bn)pn1(x)=k=0n2αkpk(x).p_n(x) - (a_nx+b_n)p_{n-1}(x) = \sum_{k=0}^{n-2} \alpha_k p_k(x). Pour répondre à la question, il reste à montrer que αk=0\displaystyle \alpha_k = 0 pour tout k<n2\displaystyle k < n-2. Comme la famille (pn)n0\displaystyle (p_n)_{n \ge 0} est orthonormale, on a αk=pn(x)(anx+bn)pn1(x),pk(x)w.\alpha_k = \langle p_n(x) - (a_nx+b_n)p_{n-1}(x) ,p_k(x) \rangle_{w}. Comme k<n1\displaystyle k < n-1 et k<n\displaystyle k < n, on a pn,pkw=pn1,pkw=0\displaystyle \langle p_n , p_k \rangle_w = \langle p_{n-1},p_k\rangle_w = 0, donc αk=anxpn1(x),pk(x)w\displaystyle \alpha_k = a_n \langle x p_{n-1}(x) , p_k(x) \rangle_w. La forme particulière de ce produit scalaire permet d’écrire la jolie formule suivante : fg,hw=f,ghw\displaystyle \langle fg,h \rangle_w = \langle f, gh \rangle_w. On peut donc écrire que αk=anpn1(x),xpk(x)w=0,\alpha_k = - a_n \langle p_{n-1}(x) , x p_k(x) \rangle_w = 0, car xpk(x)Rn2(x)\displaystyle x p_k(x) \in \R_{n-2}(x).

  5. Avec les notations de la question précédente, on veut calculer cn=αn2\displaystyle c_n = -\alpha_{n-2} et on a αk=anpn1(x),xpn2(x)w.\alpha_k = - a_n \langle p_{n-1}(x) , x p_{n-2}(x) \rangle_w. Or le terme en xn1\displaystyle x^{n-1} du polynôme xpn2(x)kn2kn1pn1(x)\displaystyle x p_{n-2}(x)-\frac{k_{n-2}}{k_{n-1}} p_{n-1}(x) vaut kn2kn2kn1kn1=0\displaystyle k_{n-2} - \frac{k_{n-2}}{k_{n-1}} k_{n-1} = 0, donc xpn2(x)=kn2kn1pn1(x)+sn2(x),x p_{n-2}(x) = \frac{k_{n-2}}{k_{n-1}} p_{n-1}(x) + s_{n-2}(x), avec sn2(x)Rn2(x)\displaystyle s_{n-2}(x) \in \R_{n-2}(x). En particulier, on a pn1(x),xpn2(x)w=kn2kn1\langle p_{n-1}(x) , x p_{n-2}(x) \rangle_w = \frac{k_{n-2}}{k_{n-1}} donc cn=αn2=ankn2kn1=knkn2kn12.c_n = -\alpha_{n-2} = a_n \frac{k_{n-2}}{k_{n-1}} = \frac{k_n k_{n-2}}{k_{n-1}^2}.

  6. On fixe xyI\displaystyle x \neq y \in I et on montre la formule par récurrence sur n0\displaystyle n \ge 0. On remarque tout d’abord que, comme p0R0(x)\displaystyle p_0 \in \R_0(x) et p1R1(x)\displaystyle p_1 \in \R_1(x), on peut écrire p0(x)=k0\displaystyle p_0(x) = k_0 et p1(x)=k1x+l1\displaystyle p_1(x) = k_1 x + l_1. On a alors p0(x)p0(y)=k02\displaystyle p_0(x)p_0(y) = k_0^2 et k0k1p1(x)p0(y)p1(y)p0(x)xy=k02k1(k1x+l1)(k1y+l1)xy=k02,\frac{k_0}{k_1} \frac{p_1(x)p_0(y)-p_1(y)p_0(x)}{x-y} = \frac{k_0^2}{k_1}\frac{(k_1 x +l_1)-(k_1 y +l_1)}{x-y} = k_0^2, la formule est donc vraie au rang 0\displaystyle 0. Pour prouver l’hérédité, on remarque tout d’abord, en utilisant la formule de la question 4, que pn+1(x)pn(y)pn(x)pn+1(y)xy=an+1pn(x)pn(y)cn+1pn1(x)pn(y)pn(x)pn1(y)xy.\frac{p_{n+1}(x)p_n(y) - p_n(x)p_{n+1}(y)}{x-y} = a_{n+1} p_{n}(x)p_n(y)-c_{n+1}\frac{p_{n-1}(x)p_n(y) - p_n(x)p_{n-1}(y)}{x-y}. Or on a vu que an+1=kn+1kn\displaystyle a_{n+1} = \frac{k_{n+1}}{k_n} et cn+1=kn1kn+1kn2\displaystyle c_{n+1} = \frac{k_{n-1} k_{n+1}}{k_n^2}, on en déduit que pn(x)pn(y)=knkn+1pn+1(x)pn(y)pn(x)pn+1(y)xykn1knpn(x)pn1(y)pn1(x)pn(y)xy.p_n(x) p_n(y) = \frac{k_n}{k_{n+1}}\frac{p_{n+1}(x)p_n(y) - p_n(x)p_{n+1}(y)}{x-y} - \frac{k_{n-1}}{k_n}\frac{p_{n}(x)p_{n-1}(y) - p_{n-1}(x)p_{n}(y)}{x-y}. En appliquant l’hypothèse de récurrence au deuxième terme du membre de droite, on conclut facilement.

  7. On fixe xI\displaystyle x \in I et on regarde la limite lorsque yx\displaystyle y \to x dans les deux membres de l’égalité précédente. Pour le membre de gauche, on a limyxk=0npk(x)pk(y)=k=0npk(x)20.\lim_{y \to x} \sum_{k=0}^n p_k(x) p_k(y) = \sum_{k=0}^n p_k(x)^2 \ge 0. L’inégalité est même stricte car k=0npk(x)2p0(x)2=k02>0.\sum_{k=0}^n p_k(x)^2 \ge p_0(x)^2 = k_0^2 > 0. Les fonctions pk\displaystyle p_k sont continues car polynomiales. Pour le membre de droite, on reconnaît presque un taux d’accroissement… on ruse un peu en écrivant : pn+1(x)pn(y)pn(x)pn+1(y)xy=pn+1(x)pn(y)pn(x)yx+pn(x)pn+1(y)pn+1(x)yx,\frac{p_{n+1}(x)p_n(y) - p_n(x)p_{n+1}(y)}{x-y} = -p_{n+1}(x) \frac{p_n(y)-p_n(x)}{y-x}+p_n(x) \frac{p_{n+1}(y)-p_{n+1}(x)}{y-x}, qui converge vers pn(x)pn+1(x)pn+1(x)pn(x)\displaystyle p_n(x) p_{n+1}'(x)-p_{n+1}(x)p_n'(x) lorsque yx\displaystyle y \to x. On obtient donc (car kn,kn+1>0\displaystyle k_n,k_{n+1} > 0) l’inégalité voulue.

  8. D’après la question précédente, on a pn(a)pn+1(a)>0\displaystyle p_{n}(a) p_{n+1}'(a)>0 et pn(b)pn+1(b)>0\displaystyle p_{n}(b) p_{n+1}'(b) > 0. Supposons que pn+1(a)\displaystyle p_{n+1}'(a) et pn+1(b)\displaystyle p_{n+1}'(b) soient de même signe, par exemple positifs. Alors il existerait c<d]a,b[I\displaystyle c<d \in ]a,b[ \subset I tels que pn+1(c)>0\displaystyle p_{n+1}(c)>0 et pn+1(d)<0\displaystyle p_{n+1}(d)<0. Cela se déduit de la continuité de pn+1\displaystyle p_{n+1}' (qui implique que cette fonction est postivive sur un voisinage de a\displaystyle a et sur un voisinage de b\displaystyle b), puis d’une formule de Taylor. Le théorème des valeurs intermédiaires donnerait alors l’existence d’un certain e[c,d]]a,b[\displaystyle e \in [c,d] \subset ]a,b[ tel que pn+1(e)=0\displaystyle p_{n+1}(e)=0, ce qui est une contradiction. Ainsi pn+1(a)\displaystyle p_{n+1}'(a) et pn+1(b)\displaystyle p_{n+1}'(b) sont de signe opposé, et on en déduit que pn(a)\displaystyle p_{n}(a) et pn(b)\displaystyle p_{n}(b) sont aussi de signe opposé.

  9. Si on note z1<<zn+1I\displaystyle z_1<\cdots<z_{n+1} \in I les racines de pn+1\displaystyle p_{n+1}, la question précédente permet d’écrire que pn(zi)pn(zi+1)<0\displaystyle p_n(z_i)p_n(z_{i+1})<0 pour tout 1in\displaystyle 1 \le i \le n. Le théorème des valeurs intermédiaires donne alors l’existence d’un certain yi]zi,zi+1[\displaystyle y_i \in ]z_i,z_{i+1}[ tel que pn(yi)=0\displaystyle p_n(y_i)=0. On a trouvé n\displaystyle n racines au polynôme pn\displaystyle p_n, qui sont deux à deux distinctes car construites dans des intervalles disjoints. Comme pn\displaystyle p_n est de degré n\displaystyle n, on sait qu’il n’y en a pas d’autres. Ainsi, le polynôme pn\displaystyle p_n est scindé à racines simples,toutes dans I\displaystyle I, et de plus les racines de pn\displaystyle p_n et celles de pn+1\displaystyle p_{n+1} sont entrelacées.

BONUS : une preuve simple et directe que pn\displaystyle p_n possède n\displaystyle n racines distinctes dans I\displaystyle I. Si ce n’était pas le cas, la fonction polynomiale pn\displaystyle p_n changerait de signe en un nombre de points l<n\displaystyle l<n (qui sont les racines de pn\displaystyle p_n de multiplicité impaire). Soient x1<<xl\displaystyle x_1< \ldots <x_l ces points de changement de signe et q:IR\displaystyle q : I \rightarrow \R la fonction polynomiale définie par q(x)=(xx1)(xxl)\displaystyle q(x) = (x-x_1)\cdots (x-x_l). Par construction, la fonction xpn(x)q(x)\displaystyle x \mapsto p_n(x) q(x) est de signe constant sur I\displaystyle I, et de plus elle est non identiquement nulle (il suffit de l’évaluer ailleurs qu’en une racine). On a alors Ipn(x)q(x)w(x)dx0\displaystyle \int_I p_n(x) q(x) w(x) dx \neq 0. Or q\displaystyle q est une fonction poynomiale de degré l<n\displaystyle l<n, d’après la question 3 on a alors Ipn(x)q(x)w(x)dx=0\displaystyle \int_I p_n(x) q(x) w(x) dx = 0, ce qui est une contradiction.

Exercice 344 ⭐️⭐️⭐️ Matrices de Householder, décomposition QR, Spé/L2

On se place dans l’espace Rn\displaystyle \R^n muni du produit scalaire canonique. Pour tout vecteur colonne v0\displaystyle v \neq 0, on définit la matrice de Householder Hv=I2vvTv2.H_v = I - 2 \frac{vv^T}{\|v\|^2}. On pose également H0=I\displaystyle H_0 = I.

  1. Montrer que Hv\displaystyle H_v est symétrique et orthogonale.
  2. Que vaut Hv(v)\displaystyle H_v(v) ? Et Hv(w)\displaystyle H_v(w) pour wVect(v)\displaystyle w \in {\rm Vect}(v)^{\perp} ? Donner une interprétation géométrique de la transformation associée à Hv\displaystyle H_v.
  3. Soient ab\displaystyle a \neq b deux vecteurs tels que a=b\displaystyle \|a\|=\|b\|. On pose v=ab\displaystyle v=a-b. Calculer Hv(a)\displaystyle H_v(a).
  4. Soit MMn(R)\displaystyle M \in M_n(\R). Montrer qu’il existe une matrice de Householder Hv\displaystyle H_{v} telle que HvM=(α100),H_{v} M = \left(\begin{array}{cccc} \alpha_1 & \star & \cdots & \star\\ 0 & \star & & \star \\ \vdots & \vdots & & \vdots \\ 0 & \star & \cdots & \star \end{array}\right), avec α1R\displaystyle \alpha_1 \in \R.
  5. Montrer qu’il existe des matrices orthogonales Q1,,Qn\displaystyle Q_1,\ldots,Q_n telles que pour tout 1kn\displaystyle 1 \le k \le n, on a QkQ1M=(Tk0),Q_k \cdots Q_1 M = \left(\begin{array}{cc} T_k & \star \\0 & \star \end{array}\right),Tk\displaystyle T_k est triangulaire supérieure de taille k\displaystyle k. On pourra chercher Qk\displaystyle Q_k de la forme Qk=(I00Hvk)Q_k = \left(\begin{array}{cc} I & 0 \\0 & H_{v_k} \end{array}\right) avec vkRnk\displaystyle v_k \in \R^{n-k}.
  6. Montrer que toute matrice MMn(R)\displaystyle M \in M_n(\R) se décompose sous la forme QR\displaystyle QR avec Q\displaystyle Q orthogonale et R\displaystyle R triangulaire supérieure.
  1. On calcule la transposée de Hv\displaystyle H_v : HvT=I2(vvT)Tv2=I2(vT)TvTv2=I2vvTv2=Hv,H_v^T = I - 2 \frac{(vv^T)^T}{||v||^2}=I - 2 \frac{(v^T)^T v^T}{||v||^2}=I - 2 \frac{vv^T}{||v||^2}=H_v, donc Hv\displaystyle H_v est symétrique. De plus, on a : HvHvT=Hv2=(I2vvTv2)2=I4vvTv2+4vvTvvTv4.H_v H_v^T = H_v^2 = \left(I - 2 \frac{vv^T}{||v||^2}\right)^2 = I - 4\frac{vv^T}{||v||^2} + 4 \frac{vv^Tvv^T}{||v||^4}. Or vvTvvT=v(vTv)vT=v2vvT,vv^Tvv^T = v(v^Tv)v^T = ||v||^2 vv^T, et on obtient bien HvHvT=I\displaystyle H_vH_v^T = I, donc Hv\displaystyle H_v est orthogonale.

  2. On a Hv(v)=v2vvTvv2=v2v2v2v=v.H_v(v) = v - 2\frac{vv^Tv}{||v||^2} = v-2 \frac{||v||^2}{||v||^2}v = -v. Si wVect(v)\displaystyle w \in {\rm Vect}(v)^{\perp}, on a Hv(w)=w2v(vTw)v2=w.H_v(w) = w- 2 \frac{v (v^T w)}{||v||^2} = w. On peut donc interpréter géométriquement la transformation associée à Hv\displaystyle H_v comme la symétrie d’hyperplan Vect(v)\displaystyle {\rm Vect}(v)^{\perp}.

  3. On a Hv(a)=a2(ab)((ab)Ta)ab2=a2a2bTaab2(ab).H_v(a) = a - 2 \frac{(a-b) ((a-b)^Ta)}{||a-b||^2} = a-2 \frac{||a||^2-b^Ta}{||a-b||^2}(a-b). Or : ab2=(ab)T(ab)=a2+b2bTaaTb=2a22bTa,||a-b||^2 = (a-b)^T(a-b) = ||a||^2+||b||^2-b^Ta-a^Tb = 2 ||a||^2-2 b^Ta, on a donc : Hv(a)=a(ab)=b.H_v(a) = a-(a-b) = b.

  4. On note x\displaystyle x la première colonne de M\displaystyle M et e1\displaystyle e_1 le premier vecteur de la base canonique de Rn\displaystyle \R^n. Si x\displaystyle x est colinéaire à e1\displaystyle e_1, il suffit de choisir Hv=I\displaystyle H_v = I, c’est-à-dire v=0\displaystyle v=0. Sinon, on pose v=xxe1\displaystyle v=x-||x||e_1. Ce choix particulier de v\displaystyle v s’explique par le résultat de la question précédente. En effet, x=xe1\displaystyle ||x|| = ||||x|| e_1|| donc Hvx=xe1\displaystyle H_v x = ||x|| e_1, et on a bien HvM\displaystyle H_v M de la forme souhaitée, avec α1=x\displaystyle \alpha_1 = ||x||.

  5. On raisonne par récurrence bornée sur k\displaystyle k. Pour k=1\displaystyle k = 1, il suffit d’utiliser le résultat de la question précédente et de poser Q1=Hv\displaystyle Q_1 = H_v. Supposons qu’on a une décomposition de la forme QkQ1M=(Tk0Mk),Q_k \cdots Q_1 M = \left(\begin{array}{cc} T_k & \star \\0 & M_k \end{array}\right), avec Tk\displaystyle T_k triangulaire supérieure de taille k\displaystyle k et MkMnk(R)\displaystyle M_k \in M_{n-k}(\R). On a alors, pour toute matrice HMnk(R)\displaystyle H \in M_{n-k}(\R), (I00H)QkQ1M=(Tk0HMk).\left(\begin{array}{cc} I & 0 \\0 & H \end{array}\right)Q_k \cdots Q_1 M = \left(\begin{array}{cc} T_k & \star \\0 & H M_k \end{array}\right). D’après la question 4, on peut trouver une matrice de Householder HvMnk(R)\displaystyle H_{v} \in M_{n-k}(\R) telle que HvMk=(αk+100),H_{v} M_k = \left(\begin{array}{cccc} \alpha_{k+1} & \star & \cdots & \star\\ 0 & \star & & \star \\ \vdots & \vdots & & \vdots \\ 0 & \star & \cdots & \star \end{array}\right), et on a donc (I00Hv)QkQ1M=(Tk+10Mk+1)\left(\begin{array}{cc} I & 0 \\0 & H_v \end{array}\right)Q_k \cdots Q_1 M = \left(\begin{array}{cc} T_{k+1} & \star \\0 & M_{k+1} \end{array}\right) avec Tk+1\displaystyle T_{k+1} triangulaire supérieure de taille k+1\displaystyle k+1 et Mk+1Mn(k+1)(R)\displaystyle M_{k+1} \in M_{n-(k+1)}(\R).On conclut en remarquant que la matrice Qk+1=(I00Hv)\displaystyle Q_{k+1} = \left(\begin{array}{cc} I & 0 \\0 & H_v \end{array}\right) est bien orthogonale.

  6. On applique le résultat de la question précédente au cas où k=n\displaystyle k=n : il existe R\displaystyle R triangulaire supérieure et Q1,,Qn\displaystyle Q_1,\ldots,Q_n orthogonales telles que QnQ1M=R\displaystyle Q_n \cdots Q_1 M = R. On multiplie à droite et à gauche par Q=Q1TQnT\displaystyle Q = Q_1^T \cdots Q_n^T, qui est aussi orthogonale, et on obtient la décomposition voulue : M=QR.M= QR.

Exercice 369 ⭐️⭐️⭐️ Théorème de Von Neumann, Spé/L2

Soient E\displaystyle E un espace vectoriel euclidien et f\displaystyle f une isométrie vectorielle de E\displaystyle E. On pose g=fidE\displaystyle g = f - \mathrm{id}_E.

  1. Montrer que Im(g)=(Ker(g))\displaystyle \mathrm{Im}(g) = \left( {\mathrm{Ker}(g)} \right)^\perp.
  2. Pour nN\displaystyle n \in \N^*, on note un\displaystyle u_n la moyenne des n\displaystyle n premières itérées de f\displaystyle f :
    un=1nk=0n1fk.u_n = \frac{1}{n}\sum_{k=0}^{n-1}f^k. Montrer que pour tout xE\displaystyle x\in E, un(x)\displaystyle u_n(x) converge vers le projeté orthogonal de x\displaystyle x sur Ker(g)\displaystyle \mathrm{Ker}(g).
  3. Exemple. On considère rL(R3)\displaystyle r\in\mathcal L(\R^3) la rotation vectorielle d’angle π/3\displaystyle \pi/3 autour de l’axe orienté par le vecteur u=(1,1,1)\displaystyle u=(1,1,1). Pour un vecteur v=(x,y,z)R3\displaystyle v=(x,y,z)\in\R^3, calculer
    limn1n(v+r(v)+r2(v)++rn1(v)).\lim_{n\to\infty} \frac 1n\left(v+r(v)+r^2(v)+\dots+r^{n-1}(v)\right).
  1. Orthogonalité des vecteurs de Im(g)\displaystyle \mathrm{Im}(g) avec ceux de ker(g)\displaystyle \ker(g), pour obtenir une inclusion. Egalité des dimensions.
  2. Projeté orthogonal 👉 Décomposition d’un vecteur selon les deux supplémentaires orthogonaux.
  3. Calcul du projeté orthogonal d’un vecteur sur un sous-e.v. 👉 Prendre une b.o.n. et appliquer la formule.
  1. Soit xIm(g)\displaystyle x\in\mathrm{Im}(g) et yKer(g)\displaystyle y\in\mathrm{Ker}(g). Traduisons ces hypothèses :
    zE : x=f(z)z,et f(y)=y.\exists z\in E~:~x=f(z)-z,\qquad\text{et }\qquad f(y)=y.
    Ainsi x,y=f(z),yz,y=f(z),f(y)z,y=z,yz,y(car fO(E))=0\begin{aligned}\langle x,y\rangle&= \langle f(z),y\rangle-\langle z,y\rangle \\ &= \langle f(z),f(y)\rangle-\langle z,y\rangle \\ &= \langle z,y\rangle-\langle z,y\rangle\qquad\text{(car $f\in\mathcal O(E)$)} \\ &= 0\end{aligned} Ceci montre que Im(g)(Ker(g))\displaystyle \mathrm{Im}(g)\subset(\mathrm{Ker}(g))^\bot. Par ailleurs ces deus sous-e.v. de E\displaystyle E sont de même dimension, égale à dim(E)dim(Ker(g))\displaystyle \dim(E)-\dim(\mathrm{Ker}(g)), donc ils sont égaux.
  2. Comme l’orthogonal de ker(g)\displaystyle \ker(g) est Im(g)\displaystyle \mathrm{Im}(g), le projecteur orthogonal p\displaystyle p sur ker(g)\displaystyle \ker(g) est caractérisé par : {xker(g),  p(x)=x,xIm(g),  p(x)=0E.\begin{cases}\forall x\in\ker(g),~~p(x)=x,\\\forall x\in\mathrm{Im}(g),~~p(x)=0_E.\end{cases} Il suffit donc de vérifier que
    {xker(g),  un(x)x,xIm(g),  un(x)0E.\begin{cases}\forall x\in\ker(g),~~u_n(x)\to x,\\\forall x\in\mathrm{Im}(g),~~u_n(x)\to 0_E.\end{cases} \displaystyle \bullet Soit xker(g)\displaystyle x\in\ker(g). Alors f(x)=x\displaystyle f(x)=x et par récurrence immédiate, fk(x)\displaystyle f^{k}(x) pour tout kN\displaystyle k\in\N. Ainsi 1nk=0n1fk(x)=1nk=0n1x=x\frac{1}{n}\sum_{k=0}^{n-1}f^k(x)=\frac{1}{n}\sum_{k=0}^{n-1}x=x \displaystyle \bullet Soit xIm(g)\displaystyle x\in\mathrm{Im}(g). Alors il existe zE\displaystyle z\in E tel que x=f(z)z\displaystyle x=f(z)-z. Alors 1nk=0n1fk(x)=1nk=0n1fk+1(z)fk(z)=1n(fn(z)z)\frac{1}{n}\sum_{k=0}^{n-1}f^k(x)=\frac{1}{n}\sum_{k=0}^{n-1}f^{k+1}(z)-f^{k}(z)=\frac 1n\left(f^n(z)-z\right) Or 1n(fn(z)z)1n(f(z)+z)=2zn0\displaystyle \left\Vert\frac 1n\left(f^n(z)-z\right)\right\Vert\leq\frac 1n(\Vert f(z)\Vert+\Vert z\Vert)=\frac{2\Vert z\Vert}{n}\to 0, donc 1n(fn(z)z)0E\displaystyle \frac 1n\left(f^n(z)-z\right)\to 0_E.
  3. r\displaystyle r est bien une isométrie vectorielle de R3\displaystyle \R^3, et ker(rid)\displaystyle \ker(r-\mathrm{id}) est l’ensemble des vecteurs invariants par r\displaystyle r, ici Vect(u)\displaystyle \mathrm{Vect}(u). Cette limite est donc égale au projeté orthogonal de v\displaystyle v sur Vect(u)\displaystyle \mathrm{Vect}(u), égal à :
    v,uuuu=x+y+z3 (1,1,1).\left\langle v,\frac{u}{\Vert u \Vert}\right\rangle \frac{u}{\Vert u \Vert}=\frac{x+y+z}{3}~(1,1,1).

Exercice 375 ⭐️⭐️⭐️⭐️ Ulm, Fontion continue linéaire “sur” les vecteurs orthogonaux, Spé/L2

Soit E\displaystyle E un espace euclidien de dimension n\displaystyle n. Soit F\displaystyle F l’ensemble des applications continues de E\displaystyle E dans R\displaystyle \R telles que pour tout x,yE\displaystyle x,y\in E avec xy\displaystyle x\perp y on a f(x+y)=f(x)+f(y)\displaystyle f(x+y)=f(x)+f(y).

  1. Soit fF\displaystyle f\in F paire. Monter qu’il existe aR\displaystyle a\in\R tel que pour tout xE\displaystyle x\in E, f(x)=ax2\displaystyle f(x)=a\|x\|^2.
  2. Soit fF\displaystyle f\in F impaire. Monter qu’il existe cE\displaystyle c\in E tel que pour tout xE\displaystyle x\in E, f(x)=c,x.\displaystyle f(x)=\langle c,x\rangle.
  3. Déterminer F\displaystyle F et sa dimension.
  • Assertion vraie pour tout couple de vecteurs orthogonaux 👉 Construire un maximum de vecteurs orthogonaux, base canonique, faire des dessins avec des triangles rectangles inscrits dans un cercle, etc. ; Tester l’identité sur ces vecteurs.
  • Continuité 👉 Passer à la limite dans f\displaystyle f, calculer avec des entiers, des rationnels, et utiliser la densité des rationnels ?

Soit x,xE\displaystyle x,x'\in E des vecteurs orthogonaux de même norme. Alors x+x,xx=x2x2=0\displaystyle \langle x+x',x-x'\rangle=\|x\|^2-\|x'\|^2=0. Posons y=x+x\displaystyle y=x+x' et y=xx\displaystyle y'=x-x', qui sont donc des vecteurs orthogonaux. On a donc :
f(2x)=f(y)+f(y)f(2x)=f(y)+f(y).\begin{aligned} f(2x)&=f(y)+f(y') \\ f(2x')&=f(y)+f(-y'). \end{aligned} Utilisons maintenant l’hypothèse que f\displaystyle f est paire : il vient f(y)=f(y)\displaystyle f(y')=f(-y'). Ainsi f(2x)=f(2x)\displaystyle f(2x)=f(2x'). Comme x\displaystyle x et x\displaystyle x' sont orthogonaux de norme et direction arbitraires, on en déduit que si on prend n’importe quel vecteur z\displaystyle z' orthogonal à z\displaystyle z et de même norme que z\displaystyle z, on a f(z)=f(z)\displaystyle f(z)=f(z'). En particulier f\displaystyle f est constante sur la base canonique (e1,,en)\displaystyle (e_1,\cdots,e_n). Comme on a :
f(i=1nαiei)=i=1nf(αiei),f\left(\sum_{i=1}^n\alpha_i e_i\right)=\sum_{i=1}^nf(\alpha_i e_i), pour conclure il suffirait que f(αiei)=αi2f(ei)\displaystyle f(\alpha_i e_i)=\alpha_i^2f(e_i) car f(e1)==f(en)\displaystyle f(e_1)=\cdots= f(e_n). Voyons humblement ce qu’on peut déjà faire.
On se donne xE\displaystyle x\in E et x\displaystyle x' un vecteur orthogonal à x\displaystyle x et de même norme que x\displaystyle x. Alors d’après ce qui précède :
f(2x)=f(x+x)+f(xx)=2f(x+x)=2(f(x)+f(x))=4f(x).\begin{aligned} f(2x)&=f(x+x')+f(x-x') \\ &=2f(x+x')=2(f(x)+f(x'))=4f(x). \end{aligned} Montrons par récurrence sur n2\displaystyle n \ge 2 que f(nx)=n2f(x)\displaystyle f(nx) = n^2 f(x). Le cas n=1\displaystyle n=1 est immédiat et le cas n=2\displaystyle n=2 est fait au paragraphe du dessus.
Prouvons l’hérédité : pour x\displaystyle x' orthogonal et de même norme que x\displaystyle x, on remarque que les vecteurs x+nx\displaystyle x+nx' et nxx\displaystyle nx-x' sont orthogonaux, donc f(x+nx+nxnx)=f(x+nx)+f(nxx)=f(x)+f(nx)+f(nx)+f(x).\begin{aligned} f(x+nx'+nx-nx') &= f(x+nx')+f(nx-x')\\ &= f(x)+f(nx')+f(nx)+f(x').\end{aligned} En utilisant l’hypothèse de récurrence et le fait que f(x)=f(x)\displaystyle f(x)=f(x'), on obtient f(x+nx+nxx)=2(n2+1)f(x).f(x+nx'+nx-x') =2(n^2+1)f(x). Mais d’un autre côté, on a f(x+nx+nxnx)=f((n+1)x)+f((n1)x)=f((n+1)x)+(n1)2f(x),\begin{aligned} f(x+nx'+nx-nx') &=f((n+1)x)+f((n-1)x')\\ &= f((n+1)x)+(n-1)^2 f(x),\end{aligned} toujours par l’hypothèse de récurrence. Il vient alors f((n+1)x)=(2(n2+1)(n1)2)f(x)=(n+1)2f(x).\begin{aligned} f((n+1)x) &= (2(n^2+1)-(n-1)^2)f(x)\\ &= (n+1)^2 f(x).\end{aligned} La suite semble plus simple… Pour tout xE\displaystyle x\in E et tout entier n1\displaystyle n \ge 1 on a f(x)=f(nxn)=n2f(xn),f(x)=f\left(n\frac{x}{n}\right) = n^2 f\left(\frac{x}{n}\right), donc f(xn)=1n2f(x)\displaystyle f\left(\frac{x}{n}\right) = \frac{1}{n^2} f\left(x\right). Etape suivante : si p/q\displaystyle p/q est rationnel, on a f(pqx)=1q2f(px)=p2q2f(x).f\left(\frac{p}{q}x\right) = \frac{1}{q^2} f\left(px\right) = \frac{p^2}{q^2} f(x). Ainsi on a montré que f(λx)=λ2f(x)f(\lambda x) = \lambda^2 f(x) pour tout xE\displaystyle x \in E et λQ\displaystyle \lambda \in \mathbb{Q} (on a montré pour λ\displaystyle \lambda positif mais on prolonge par parité). Pour conclure, soit λR\displaystyle \lambda \in \R et (λn)\displaystyle (\lambda_n) une suite de rationnels convergeant vers λ\displaystyle \lambda. La fonction λf(λe1)\displaystyle \lambda \mapsto f(\lambda e_1) est continue sur R\displaystyle \R, donc f(λe1)=limnf(λne1)=limnλn2f(e1)=λ2f(e1),f(\lambda e_1) = \lim_{n \to \infty} f(\lambda_n e_1) = \lim_{n \to \infty} \lambda_n^2 f(e_1) = \lambda^2 f(e_1), ce qu’on voulait, et permet de conclure car i=1nαiei2=i=1nαi2.\displaystyle \left\|\sum_{i=1}^n\alpha_i e_i\right\|^2=\sum_{i=1}^n\alpha_i^2.

Exercice 412 ⭐️⭐️ Hyperplans stables, Spé/L2

  1. Soit AMn(R)\displaystyle A \in M_n(\R). Montrer que A\displaystyle A est diagonalisable si et seulement si sa transposée AT\displaystyle A^T est diagonalisable.
  2. Soit F\displaystyle F un sous-espace vectoriel stable par A\displaystyle A. Montrer que F\displaystyle F^\perp est stable par AT\displaystyle A^T.
  3. On suppose que A\displaystyle A est diagonalisable dans Mn(R)\displaystyle M_n(\R). On note (v1,,vn)\displaystyle (v_1,\ldots,v_n) une base de diagonalisation pour AT\displaystyle A^T et, pour 1in\displaystyle 1\le i \le n, on pose Hi=vi\displaystyle H_i=v_i^\perp. Montrer que les Hi\displaystyle H_i sont des hyperplans stables par A\displaystyle A et que i=1nHi={0}\displaystyle \bigcap_{i=1}^n H_i = \{0\}.
  4. Réciproquement, suppose qu’il existe n\displaystyle n hyperplans H1,,Hn\displaystyle H_1,\ldots,H_n stables par A\displaystyle A tels que i=1nHi={0}\displaystyle \bigcap_{i=1}^n H_i = \{0\}. Montrer que A\displaystyle A est diagonalisable.
  1. Si on écrit proprement les définitions, on se rapproche de la solution (cela sonne comme un vieux proverbe).
  1. Question assez classique… On peut par exemple remarquer que les polynômes annulateurs de A\displaystyle A sont exactement ceux qui annulent AT\displaystyle A^T. En particulier, A\displaystyle A et AT\displaystyle A^T ont le polynôme minimal et on sait que A\displaystyle A (et donc AT\displaystyle A^T) est diagonalisable si et seulement si celui-ci est scindé à racines simples sur R\displaystyle \R.
  2. Soit xF\displaystyle x \in F^\perp. Il s’agit de montrer que ATxF\displaystyle A^Tx \in F^\perp, c’est-à-dire que ATx,z=0\displaystyle \langle A^T x,z \rangle = 0 pour tout zF\displaystyle z \in F. Or on a : ATx,z=x,Az=0.\langle A^T x,z \rangle = \langle x, Az \rangle = 0. On a utilisé la définition d’un adjoint et le fait que xF\displaystyle x \in F^\perp et AzF\displaystyle Az \in F.
  3. Soit Di=vect(vi)\displaystyle D_i = {\rm vect}(v_i). On sait que Hi=Di\displaystyle H_i = D_i^\perp, et comme dim(Di)=1\displaystyle {\rm dim}(D_i)=1, on a dimHi=ndim(Di)=n1\displaystyle {\dim H_i} = n-{\rm dim}(D_i) = n-1. Ainsi Hi\displaystyle H_i est un hyperplan. La stabilité de Hi\displaystyle H_i par A\displaystyle A résulte du résultat de la question 2 appliqué à F\displaystyle F et AT\displaystyle A^T. Soit maintenant xi=1nHi\displaystyle x \in \bigcap_{i=1}^n H_i. On a x,vi=0\displaystyle \langle x, v_i \rangle = 0 pour tout 1in\displaystyle 1 \le i \le n. Par linéarité, on a pour toute combinaison linéaire : x,i=1nαivi=0\displaystyle \langle x, \sum_{i=1}^n \alpha_i v_i \rangle = 0. Mais comme (v1,,vn)\displaystyle (v_1,\ldots,v_n) engendre Rn\displaystyle \R^n, on a x,z=0\displaystyle \langle x,z \rangle = 0 pour tout zRn\displaystyle z \in \R^n, d’où on déduit que x=0\displaystyle x=0.
  4. Pour tout 1in\displaystyle 1 \le i \le n, on a Dim(Hi)=1\displaystyle {\rm Dim}(H_i^\perp) = 1, il existe donc un vecteur vi\displaystyle v_i tel que Hi=vi\displaystyle H_i = v_i^\perp. Or Hi\displaystyle H_i est stable par A\displaystyle A, donc par la question 2, Hi\displaystyle H_i^\perp est stable par AT\displaystyle A^T. En particulier, ATviVect(vi)\displaystyle A^T v_i \in {\rm Vect}(v_i), donc ATvi=λivi\displaystyle A^T v_i = \lambda_i v_i pour une certaine constante λiR\displaystyle \lambda_i \in \R. Autrement dit, vi\displaystyle v_i est un vecteur propre de AT\displaystyle A^T associé à la valeur propre λi\displaystyle \lambda_i. Il reste à montrer que la famille (v1,,vn)\displaystyle (v_1,\ldots,v_n) est libre. Supposons par exemple qu’on puisse écrire vn=i=1n1αivi\displaystyle v_n = \sum_{i=1}^{n-1} \alpha_i v_i. Soit z0\displaystyle z \neq 0 orthogonal à Vect(v1,,vn1)\displaystyle {\rm Vect}(v_1,\ldots,v_{n-1}). Un tel z\displaystyle z existe pour des raisons de dimension, et on a zi=1n1Hi\displaystyle z \in \bigcap_{i=1}^{n-1} H_i. On a aussi : z,vn=i=1n1αiz,vi=0,\langle z , v_n \rangle = \sum_{i=1}^{n-1} \alpha_i \langle z, v_i \rangle = 0, donc zHn\displaystyle z \in H_n. On a ainsi montré que i=1nHi{0}\displaystyle \bigcap_{i=1}^n H_i \neq \{0\}, ce qui est contradictoire. Ainsi la famille (v1,,vn)\displaystyle (v_1,\ldots,v_n) est libre, c’est donc une base de Rn\displaystyle \R^n et on a vu qu’elle est formée de vecteurs propres pour AT\displaystyle A^T. On vient de montrer que AT\displaystyle A^T est diagonalisable, et par la question 1, on peut conclure que A\displaystyle A est diagonalisable.

Exercice 417 ⭐️⭐️⭐️ Identité Valeur propre – Vecteur propre, Matrice symétrique, MP/L3

Soit AMn(R)\displaystyle A \in M_n(\R) une matrice symétrique réelle. Soit (v1,,vn)\displaystyle (v_1,\ldots,v_n) une base orthonormale de Rn\displaystyle \R^n diagonalisant A\displaystyle A et λ1,,λn\displaystyle \lambda_1,\ldots,\lambda_n les valeurs propres associées.

  1. Montrer que A=i=1nλiviviT\displaystyle A=\sum_{i=1}^n \lambda_i v_i v_i^{T}.
  2. Montrer que (ComA)T=i=1n(kiλk)viviT\displaystyle ({\rm Com} A)^T = \sum_{i=1}^n \left( \prod_{k\neq i} \lambda_k \right) v_i v_i^T.
  3. Montrer que, pour λR\displaystyle \lambda \in \R, (Com(λIA))T=i=1n(ki(λλk))viviT.({\rm Com} (\lambda I-A))^T = \sum_{i=1}^n \left( \prod_{k\neq i} (\lambda - \lambda_k) \right) v_i v_i^T.
  4. Soit Mj\displaystyle M_j le j\displaystyle j-ème mineur principal de A\displaystyle A, i.e. la matrice A\displaystyle A privée de sa j\displaystyle j-ème ligne et j\displaystyle j-ème colonne. Montrer que son polynôme caractéristique vaut : χMj(λ)=i=1n(ki(λλk))vi(j)2.\chi_{M_j}(\lambda) = \sum_{i=1}^n \left( \prod_{k\neq i} (\lambda - \lambda_k) \right) v_{i}(j)^2.
  5. En déduire qu’on peut connaître, au signe près, les coefficients des vecteurs propres de A\displaystyle A uniquement à partir des valeurs propres de A\displaystyle A et de ses mineurs.

Cet exercice a été concocté à partir d’un article de recherche co-écrit par notre très cher Terry, mais il est aussi tombé à l’oral X 2020 (!) Vous trouverez sur ce site, réalisé par Big Lucas avec des étudiant(e)s passionné(e)s, une magnifique base de donnée d’exercices corrigés récents de haut niveau, en accès libre ! Voir aussi la page fb. Thanks and Congrats!!

  1. On note B=i=1nλiviviT\displaystyle B = \sum_{i=1}^n \lambda_i v_i v_i^{T}. Comme (v1,,vn)\displaystyle (v_1,\ldots,v_n) est une base de Rn\displaystyle \R^n, pour montrer que A=B\displaystyle A=B il suffit de montrer que Avj=Bvj\displaystyle A v_j = B v_j pour tout 1jn\displaystyle 1 \le j \le n. Or on a Avj=λjvj\displaystyle A v_j = \lambda_j v_j. De plus viTvj=vi,vj\displaystyle v_i^T v_j = \langle v_i,v_j \rangle, donc viTvj\displaystyle v_i^T v_j vaut 1\displaystyle 1 si i=j\displaystyle i=j et 0\displaystyle 0 sinon. Ainsi Bvj=λjvj(vjTvj)=λjvj\displaystyle B v_j = \lambda_j v_j (v_j^T v_j) = \lambda_j v_j et on a montré que Avj=Bvj\displaystyle A v_j=B v_j.
  2. Notons C=i=1n(kiλk)viviT\displaystyle C = \sum_{i=1}^n \left( \prod_{k\neq i} \lambda_k \right) v_i v_i^T. Supposons d’abord que A\displaystyle A est inversible. On a alors (ComA)T=det(A)A1\displaystyle ({\rm Com} A)^T = \det(A) A^{-1}, il suffit alors de montrer que CA=det(A)I\displaystyle C A = \det(A) I. Or on a : CA=i=1nj=1n(kiλk)λjviviTvjvjT.CA = \sum_{i=1}^n \sum_{j=1}^n \left( \prod_{k\neq i} \lambda_k \right) \lambda_j v_i v_i^T v_j v_j^T. Comme à la question précédente, on remarque que viTvj\displaystyle v_i^T v_j vaut 0\displaystyle 0 si ij\displaystyle i \neq j et 1\displaystyle 1 si i=j\displaystyle i=j, donc CA=i=1n(kiλk)λiviviT=(k=1nλk)i=1nviviT.CA = \sum_{i=1}^n\left( \prod_{k\neq i} \lambda_k \right) \lambda_i v_i v_i^T = \left( \prod_{k=1}^n \lambda_k \right) \sum_{i=1}^n v_i v_i^T. On sait que det(A)=k=1nλk\displaystyle \det(A) = \prod_{k=1}^n \lambda_k, et de plus en appliquant la première question à la matrice A=I\displaystyle A=I, on montre que I=i=1nviviT\displaystyle I = \sum_{i=1}^n v_i v_i^T.
    Dans le cas où A\displaystyle A n’est pas inversible, on peut raisonner par densité des matrices inversibles, et remarquer que les applications (ai,j)1i,jn(ComA)T\displaystyle (a_{i,j})_{1 \le i,j \le n} \mapsto ({\rm Com} A)^T et (ai,j)1i,jni=1n(kiλk)viviT\displaystyle (a_{i,j})_{1 \le i,j \le n} \mapsto \sum_{i=1}^n \left( \prod_{k\neq i} \lambda_k \right) v_i v_i^T sont continues. Si on n’est pas à l’aise avec la continuité des éléments propres par rapport aux coefficients, la question suivante permet de s’en sortir de façon plus élémentaire.
  3. La matrice λIA\displaystyle \lambda I - A est diagonalisable dans la même base orthonormée (v1,,vn)\displaystyle (v_1,\ldots,v_n) et ses valeurs propres associées sont λλ1,,λλn\displaystyle \lambda-\lambda_1,\ldots,\lambda-\lambda_n. On peut donc appliquer le résultat de la question 2\displaystyle 2 pour conclure.
  4. Dans l’équation matricielle prouvée à la question précédente, on regarde l’égalité entre les coefficients (j,j)\displaystyle (j,j). Par définition de la comatrice, on sait que le coefficient (j,j)\displaystyle (j,j) de Com(λIA)T\displaystyle {\rm Com(\lambda I - A)}^T est exactement le déterminant du mineur det(λIMj)\displaystyle \det(\lambda I - M_j). C’est donc la polynôme caractéristique de Mj\displaystyle M_j évalué en λ\displaystyle \lambda. De plus, le produit viviT\displaystyle v_i v_i^T est une matrice carrée dont le coefficient (k,l)\displaystyle (k,l) vaut vi(k)vi(l)\displaystyle v_{i}(k) v_{i}(l). En particulier, le coefficient (j,j)\displaystyle (j,j) de i=1n(ki(λλk))viviT\displaystyle \sum_{i=1}^n \left( \prod_{k\neq i} (\lambda - \lambda_k) \right) v_i v_i^T vaut i=1n(ki(λλk))vi(j)2\displaystyle \sum_{i=1}^n \left( \prod_{k\neq i} (\lambda - \lambda_k) \right) v_i(j)^2, ce sui répond à la question.
  5. La matrice Mj\displaystyle M_j est symétrique réelle, donc diagonalisable. On note λ1(Mj),,λn1(Mj)\displaystyle \lambda_1(M_j),\ldots,\lambda_{n-1}(M_j) ses valeurs propres (pas nécessairement distinctes). On a alors χMj(λ)=l=1n1(λλl(Mj))\displaystyle \chi_{M_j}(\lambda) = \prod_{l=1}^{n-1} \left(\lambda-\lambda_l(M_j) \right). On applique le résultat de la question précédente à λ=λi\displaystyle \lambda = \lambda_i : tous les termes de la somme de droite deviennent nuls, sauf un. On obtient : l=1n1(λiλl(Mj))=ki(λiλk)vi(j)2,\prod_{l=1}^{n-1} \left(\lambda_i-\lambda_l(M_j) \right) = \prod_{k \neq i} (\lambda_i - \lambda_k) v_{i}(j)^2, et on a effectivement exprimé vi(j)2\displaystyle v_{i}(j)^2 (donc vi(j)\displaystyle |v_i(j)|) uniquement en fonction des λi\displaystyle \lambda_i et des λl(Mj)\displaystyle \lambda_l(M_j).

Remarque — Cette propriété assez méconnue a été “redécouverte” très récemment par, entre autres, le célèbre mathématicien Terry Tao. On peut trouver d’autres preuves ici.

Exercice 418 ⭐️⭐️ Transformation dans R3\displaystyle \R^3, Spé/L2

Déterminer géométriquement l’application f\displaystyle f dont la matrice dans une base orthonormale directe est A=19(744418481).A=\frac{1}{9} \left(\begin{array}{ccc} 7 & -4 & 4 \\ -4 & 1 & 8 \\ 4 & 8 & 1 \end{array}\right).

La matrice A\displaystyle A est symétrique, cela peut beaucoup aider !

Montrons tout d’abord que A\displaystyle A est une matrice orthogonale. Cela se déduit des calculs suivants : 7.44.1+4.8=0 , 7.44.8+4.1=0 , 4.4+1.8+8.1=0,-7.4-4.1+4.8=0 \ , \ 7.4-4.8+4.1=0 \ , \ -4.4+1.8+8.1=0,
et 72+44+42=42+12+82=42+82+12=81=92.7^2+4^4+4^2=4^2+1^2+8^2=4^2+8^2+1^2 = 81 = 9^2.
On a donc bien AO3(R)\displaystyle A \in O_3(\R). De plus A\displaystyle A est symétrique à coefficients réels, donc elle est diagonalisable dans une base orthonormale. Comme on a I=AAT=A2\displaystyle I=A A^T = A^2, on sait de plus que ses valeurs propres valent 1\displaystyle 1 ou 1\displaystyle -1. Enfin, comme tr(A)=1\displaystyle {\rm tr}(A)=1, on en déduit que 1\displaystyle 1 est valeur propre de multiplicité 2\displaystyle 2 et 1\displaystyle -1 est valeur propre de multiplicité 1\displaystyle 1 : il existe donc une base orthonormale (u,v,w)\displaystyle (u,v,w) avec f(u)=u\displaystyle f(u)=u, f(v)=v\displaystyle f(v)=v et f(w)=w\displaystyle f(w)=-w. On peut alors interpréter f\displaystyle f comme la symétrie de plan w\displaystyle w^\perp. Il reste à calculer w\displaystyle w, pour cela on résout l’équation AW=W\displaystyle AW=-W, et on obtient w=13(122)\displaystyle w = \frac{1}{3}\left(\begin{array}{c} 1 \\2 \\ -2 \end{array}\right). (Le coefficient 13\displaystyle \frac{1}{3} n’est là que pour avoir w2=1\displaystyle \|w\|_2=1).

Exercice 438 ⭐️⭐️ Orthgonal non supplémentaire, MP/L2

Soit E=C([1,1],R)\displaystyle E = {\mathcal{C}}\left( {\left[ { - 1,1} \right],\mathbb{R}} \right) muni du produit scalaire défini par
f,g  =11f(t)g(t)dt.\langle f,g\rangle ~~= \int_{ - 1}^1 {f(t)g(t)\,{\mathrm{d}}t}. On pose F={fE : t[1,0],f(t)=0}\displaystyle F = \left\{ {f \in E~:~\forall t \in \left[ { - 1,0} \right],f(t) = 0} \right\}, et G={gE : t[0,1],g(t)=0}\displaystyle G = \left\{ {g \in E~:~\forall t \in \left[ {0,1} \right],g(t) = 0} \right\}.

  1. Montrer que ceci définit bien un produit scalaire sur E\displaystyle E.
  2. Montrer que F=G\displaystyle F^ \bot = G.
  3. Les sous-espaces vectoriels F\displaystyle F et G\displaystyle G sont-ils supplémentaires dans E\displaystyle E ?
  1. C’est comme une récitation de poésie. On déroule : bilinéaire symétrique définie-positive.
  2. Double inclusion.
  3. Ils sont en somme directe, mais la question à se poser : peut-on obtenir toute fonction hE\displaystyle h\in E en faisant une somme f+g\displaystyle f+g, avec fF\displaystyle f\in F et gG\displaystyle g\in G ?
  1. C’est un produit scalaire très classique alors on ne détaille pas tout ici.
    \displaystyle \bullet La symétrie, bilinéarité et la positivité sont assez immédiates.
    \displaystyle \bullet Soit fE\displaystyle f\in E tel que <f,f> =11f2=0\displaystyle <f,f>~= \int_{-1}^1 f^2=0. Comme f2\displaystyle f^2 est positive, continue sur [1;1]\displaystyle [-1;1], on en déduit que : t[1;1], f(t)2=0\displaystyle \forall t\in[-1;1],~f(t)^2=0, donc f(t)=0\displaystyle f(t)=0. Ainsi f=0E\displaystyle f=0_E.
  2. \displaystyle \bullet On montre d’abord l’inclusion facile : FG\displaystyle F\subset G^\perp.
    Soit fF\displaystyle f\in F. Pour gG\displaystyle g\in G, fg\displaystyle fg est nulle sur [1;0]\displaystyle [-1;0] et sur [0;1]\displaystyle [0;1], donc <f,g> =11fg=0\displaystyle <f,g>~=\int_{-1}^1 fg=0. Ainsi fG\displaystyle f\in G^\perp.
    \displaystyle \bullet Montrons maintenant que GF\displaystyle G^\perp \subset F.
    Soit fG\displaystyle f\in G^\perp. On considère g:t{tf(t), si t0;0, si t>0.\displaystyle g:t\mapsto\begin{cases}tf(t),&\text{ si }t\leq 0;\\ 0,&\text{ si }t>0.\end{cases}.
    Comme gG\displaystyle g\in G, on a 11fg=10tf(t)2dt=0\displaystyle \int_{-1}^1 fg =\int_{-1}^0 tf(t)^2\mathrm{d} t=0. Or ttf(t)2\displaystyle t\mapsto tf(t)^2 est négative et continue sur [1;0]\displaystyle [-1;0], donc : t[1;0], tf(t)2=0\displaystyle \forall t\in[-1;0],~tf(t)^2=0. On en déduit que f\displaystyle f s’annule sur [1;0[\displaystyle [-1;0[. Comme f\displaystyle f est continue on a également f(0)=0\displaystyle f(0)=0. Finalement fF\displaystyle f\in F.
  3. Clairement pas, puisque F+G{fE : f(0)=0}\displaystyle F+G\subset\{f\in E~:~f(0)=0\}. On a donc F+GE\displaystyle F+G\neq E.

Remarque. Cet exercice illustre le fait que si F\displaystyle F est un sous-e.v. de E\displaystyle E préhilbertien, et que F\displaystyle F n’est pas supposé de dimension finie, alors rien ne garantit que FF=E\displaystyle F\oplus F^\perp=E.

Exercice 454 ⭐️ Projecteurs orthogonaux, Sup/L1

Soit E\displaystyle E un espace de dimension 3\displaystyle 3 et B=(ı,ȷ,k)\displaystyle \mathcal{B}=(\vec{\imath},\vec{\jmath},\vec{k}) une B.O.N. de E\displaystyle E.

  1. Déterminer la matrice dans la base B\displaystyle \mathcal{B} du projecteur orthogonal sur la droite vectorielle D\displaystyle D dirigée par ı3k\displaystyle \vec{\imath}-3\vec{k}.
  2. De même pour le projecteur orthogonal sur le plan vectoriel P=Vect(ıȷ,ı+k)\displaystyle P=\mathrm{Vect}(\vec{\imath}-\vec{\jmath},\vec{\imath}+\vec{k}).

On a une b.o.n. de F 👉 il existe une formule pour le projeté orthogonal d’un vecteur sur F\displaystyle F.

Exercice 455 ⭐️ Orthonormalisation dans R2[X]\displaystyle \R_2[X], Sup/L1

Pour P,QR2[X]\displaystyle P,Q \in \mathbb R_2[X], on pose (P,Q)=k=02P(k)Q(k)\displaystyle (P , Q ) =\sum_{k=0}^2 P(k) Q(k).

  1. Montrer que (,)\displaystyle ( \cdot , \cdot ) définit un produit scalaire sur R2[X]\displaystyle \R_2[X].
  2. Soit la droite vectorielle F=Vect(X)\displaystyle F=\mathrm{Vect}(X). Donner une base orthogonale de F\displaystyle F^\perp
  3. Orthonormaliser la famille (1,X,X2)\displaystyle (1 , X , X^2).
  1. As usual
  2. Gram-Schmidt !

Exercice 471 ⭐️ Spé/L2

Soit (E,<.,.>)\displaystyle (E,<.,.>) un espace euclidien de dimension n\displaystyle n, et (a,b)\displaystyle (a,b) une famille libre de E\displaystyle E.

  1. Montrer que l’application ϕ:EE\displaystyle \phi:E\to E définie par
    ϕ(x)=<x,b>a+<x,a>b\phi(x) =<x,b> a+<x,a> b est un endomorphisme de E\displaystyle E. Déterminer son image et son noyau.
  2. Trouver les valeurs propres de ϕ\displaystyle \phi. L’endomorphisme ϕ\displaystyle \phi est-il symétrique ?
  1. Vérifier que pour x,yE\displaystyle x,y\in E et λ,μR\displaystyle \lambda,\mu\in\R, ϕ(λx+μy)=λϕ(x)+μϕ(y)\displaystyle \phi(\lambda x+\mu y)=\lambda\phi(x)+\mu\phi(y).
    Comme (a,b)\displaystyle (a,b) est libre,
    ϕ(x)=0<x,a>=<x,b>=0xF,\phi(x)=0\Leftrightarrow <x,a>=<x,b>=0\Leftrightarrow x\in F^\perp,F=Vect(a,b)\displaystyle F=\mathrm{Vect}(a,b). Ainsi ker(ϕ)=F\displaystyle \ker(\phi)=F^\perp.
    x[a;b]\displaystyle \forall x\in[a;b], ϕ(x)F\displaystyle \phi(x)\in F, donc im(ϕ)F\displaystyle \mathrm{im}(\phi)\subset F.
    Par ailleurs dim(F)=2\displaystyle \dim(F)=2 et dim(im(ϕ))=ndim(F)=2\displaystyle \dim(\mathrm{im}(\phi))=n-\dim(F^\perp)=2, donc im(ϕ)=F\displaystyle \mathrm{im}(\phi)= F.

  2. Soit (e1,,en2)\displaystyle (e_1,\dots,e_{n-2}) une base de F\displaystyle F^\perp, alors dans la base B=(e1,,en2,a,b)\displaystyle \mathcal B=(e_1,\dots,e_{n-2},a,b) de E\displaystyle E, ϕ\displaystyle \phi a pour matrice
    M=(OOOA),M=\begin{pmatrix} O&O\\O&A \end{pmatrix},A=(<a,b>b2a2<a,b>)\displaystyle A=\begin{pmatrix} <a,b> & \Vert b\Vert^2\\ \Vert a\Vert^2 & <a,b> \end{pmatrix}.
    On a
    χM(t)=tn2((t<a,b>)2a2.b2)=tn2(t<a,b>a.b)(t<a,b>+a.b). \begin{aligned} \chi_M(t) & = t^{n-2}\left((t-<a,b>)^2-\Vert a\Vert^2.\Vert b\Vert^2\right)\\ & = t^{n-2}\left(t-<a,b>-\Vert a\Vert.\Vert b\Vert\right)\left(t-<a,b>+\Vert a\Vert.\Vert b\Vert\right) .\end{aligned} Or d’après Cauchy-Schwarz (cas non colinéaire),
    <a,b>+a.b>0,et<a,b>a.b<0.<a,b>+\Vert a\Vert.\Vert b\Vert>0,\qquad\text{et}\qquad <a,b>-\Vert a\Vert.\Vert b\Vert<0. Donc sp(ϕ)={0, <a,b>+a.b, <a,b>a.b}\displaystyle \mathrm{sp}(\phi)=\bigg\{0,~<a,b>+\Vert a\Vert.\Vert b\Vert,~<a,b>-\Vert a\Vert.\Vert b\Vert\bigg\}.
    Pour x,yE\displaystyle x,y\in E, <ϕ(x),y> = <x,b>.<a,y>+<x,a>.<b,y>\displaystyle <\phi(x),y>~ =~ <x,b>.<a,y>+<x,a>.<b,y>.
    Cette expression est symétrique en x,y\displaystyle x,y, donc ϕ\displaystyle \phi est un endomorphisme symétrique.

Exercice 472 ⭐️ Spé/L2

Soit B=tAA\displaystyle B =\, ^t AA avec AM5,10(R)\displaystyle A\in\mathcal M_{5,10}(\R).
B\displaystyle B est-elle diagonalisable ? Admet-elle 0\displaystyle 0 comme valeur propre ?

De la transposée 👉 Théorème spectral

BM10(R)\displaystyle B\in\mathcal M_{10}(\R), B\displaystyle B est symétrique (car tB=tAt(tA)=B\displaystyle ^tB=\,^tA^t(^t A)=B), et réelle, donc diagonalisable.
De plus rg(B)rg(tA)5\displaystyle \mathrm{rg}(B)\le\mathrm{rg}(^t A)\le 5 : en effet im(B)im(tA)\displaystyle \mathrm{im}(B)\subset\mathrm{im}(^tA).
Comme B\displaystyle B est de taille 10\displaystyle 10, B\displaystyle B n’est pas inversible et donc 0\displaystyle 0 est valeur propre de B\displaystyle B.

Exercice 502 ⭐️⭐️ Cauchy Schwarz et intégrales, Spé/L2

On considère l’espace vectoriel E=C0([a,b],R)\displaystyle E=\mathcal{C}^0([a,b],\R) que l’on munit du produit scalaire f,g=abf(t)g(t)dt.\langle f,g \rangle = \int_a^b f(t) g(t) dt.

  1. Démontrer l’inégalité de Cauchy-Schwarz : pour toutes f,gE\displaystyle f,g \in E, on a f,g2f,fg,g.\langle f,g \rangle^2 \le \langle f,f\rangle \langle g,g \rangle. Dans quel cas a-t-on égalité ?
  2. Trouver la borne inférieure m=inf{abf(t)dtab1f(t)dt : fP}m = \inf\left\{ \int_a^b f(t) dt \int_a^b \frac{1}{f(t)} dt \ : \ f \in \mathcal{P}\right\}P={fE:f>0}\displaystyle \mathcal{P}=\{f \in E : f>0\} est l’ensemble des fonctions continues sur [a,b]\displaystyle [a,b] et à valeurs strictement positives. Pour quelles fonctions f\displaystyle f la borne est-elle atteinte ?
  1. Aaaaarchi classique ! La preuve est tellement belle qu’il est interdit de l’oublier.
  2. On cherche à se ramener à la question précédente : on reconnaît le “côté droit” de Cauchy-Schwarz, il ne reste plus qu’à reconstituer le “côté gauche”…
  1. Voici la preuve la plus classique de l’inégalité de Cauchy-Schwarz : on considère la fonction P:RR+\displaystyle P : \R \rightarrow \R_+ définie pour tout λR\displaystyle \lambda \in \R par P(λ)=f+λg,f+λg.P(\lambda) = \langle f+\lambda g , f + \lambda g\rangle. La fonction P\displaystyle P est à valeurs positives et, en développant le produit scalaire, on remarque que c’est une fonction polynomiale : P(λ)=f,f+2λf,g+λ2g,g.P(\lambda) = \langle f,f \rangle + 2 \lambda \langle f,g \rangle + \lambda^2 \langle g,g \rangle. Comme P0\displaystyle P \ge 0, son discriminant est négatif ou nul, ce qui donne l’inégalité 4f,g4f,fg,g0,4\langle f,g \rangle-4\langle f,f \rangle\langle g,g \rangle \le 0, et on trouve bien l’inégalité de Cauchy-Schwarz ! Il y a égalité lorsque le discriminant du polynôme est nul, c’est-à-dire lorsque le polynôme P\displaystyle P possède une racine double. Cela équivaut à écrire qu’il existe λR\displaystyle \lambda \in \R tel que f+λg,f+λg=0\displaystyle \langle f+\lambda g , f + \lambda g\rangle = 0, autrement dit que f+λg=0\displaystyle f+\lambda g =0 pour un certain λR\displaystyle \lambda \in \R. On en déduit qu’il y a égalité dans l’inégalité de Cauchy-Schwarz si et seulement si f\displaystyle f et g\displaystyle g sont colinéaires.
  2. On considère les fonctions u:tf(t)\displaystyle u : t \rightarrow\sqrt{f(t)} et v:t1f(t)\displaystyle v : t \mapsto \frac{1}{\sqrt{f(t)}}, qui sont toutes les deux dans E\displaystyle E. On a : u,u=abf(t)dt , v,v=ab1f(t)dt.\langle u,u \rangle = \int_a^b f(t) dt \ , \ \langle v,v \rangle = \int_a^b \frac{1}{f(t)} dt. D’après l’inégalité de Cauchy-Schwarz, on a alors abf(t)dtab1f(t)dtu,v2=(abf(t)1f(t)dt)2=(ba)2.\begin{aligned} \int_a^b f(t) dt \int_a^b \frac{1}{f(t)} dt \ge& \langle u , v \rangle^2\\ =& \left(\int_a^b \sqrt{f(t)}\frac{1}{\sqrt{f(t)}} dt \right)^2 \\ =& (b-a)^2.\end{aligned} Ainsi on a mba\displaystyle m \le b-a. Pour montrer que m=ba\displaystyle m=b-a, il suffit de décrire le cas d’égalité : d’après la question précédente, on a égalité lorsque les fonctions f\displaystyle \sqrt{f} et 1f\displaystyle \frac{1}{\sqrt{f}} sont colinéaires, c’est-à-dire lorsque la fonction f\displaystyle f est constante.

Exercice 544 ⭐️⭐️⭐️⭐️ Théorème Spectral, MP/L3

A toute matrice MMn(R)\displaystyle M \in M_n(\R), on associe la quantité : J(M)=ijmi,j2.J(M) = \sum_{i \neq j} m_{i,j}^2.

Soit ASn(R)\displaystyle A \in S_n(\R). On considère l’application ϕ:On(R)R+\displaystyle \phi : O_n(\R) \rightarrow \R_+ définie pour tout POn(R)\displaystyle P \in O_n(\R) par : ϕ(P)=J(PTAP).\phi(P) = J(P^T A P).

  1. On suppose que a1,20\displaystyle a_{1,2} \ne 0. Montrer qu’il existe une matrice POn(R)\displaystyle P \in O_n(\R) de la forme P=(Rθ00In2),P = \left( \begin{array}{c|c} R_\theta & 0 \\ \hline 0 & I_{n-2} \end{array} \right), avec Rθ=(cos(θ)sin(θ)sin(θ)cos(θ)) R_\theta = \left( \begin{array}{c c} \cos(\theta) & \sin(\theta) \\ -\sin(\theta) & \cos(\theta) \end{array} \right) telle que b1,2=0\displaystyle b_{1,2} = 0, où B=PTAP\displaystyle B = P^T A P.
  2. Montrer que pour de telles matrices on a J(B)<J(A)\displaystyle J(B) < J(A).
  3. On suppose maintenant qu’il existe des indices i0j0\displaystyle i_0 \neq j_0 tels que ai,j0\displaystyle a_{i,j} \neq 0. Montrer, sans calculs, qu’il existe QOn(R)\displaystyle Q \in O_n(\R) telle que a~1,20\displaystyle \tilde{a}_{1,2} \neq 0, avec A~=QTAQ\displaystyle \tilde{A} = Q^T A Q.
  4. Déduire des questions précédentes que si ϕ\displaystyle \phi atteint son minimum pour une certaine matrice POn(R)\displaystyle P \in O_n(\R), alors ϕ(P)=0\displaystyle \phi(P) = 0.
  5. Montrer que ϕ\displaystyle \phi atteint effectivement son minimum sur On(R)\displaystyle O_n(\R) et en déduire le théorème spectral (on montrera que On(R)\displaystyle O_n(\R) est compact).
  1. Les règles du produit matriciel donnent la formule suivante pour les coefficients de B : bi,j=k,lpk,ipl,jak,l.b_{i,j} = \sum_{k,l} p_{k,i} p_{l,j} a_{k,l}. Ici on a i=1\displaystyle i=1 et j=2\displaystyle j=2. Après calculs on obtient donc : 2b1,2=sin(2θ)(a1,1a1,2)+cos(2θ)a1,2.2 b_{1,2} = \sin(2 \theta) (a_{1,1}-a_{1,2}) + \cos(2 \theta) a_{1,2}. Il suffit alors de choisir θ\displaystyle \theta tel que tan(2θ)=a1,2a1,1a2,2\tan(2 \theta) = \frac{a_{1,2}}{a_{1,1}-a_{2,2}} pour conclure. Si a1,1=a2,2\displaystyle a_{1,1} = a_{2,2}, il suffit de choisir θ=π4\displaystyle \theta = \frac{\pi}{4}.
  2. Il s’agit de calculer les autres coefficients bi,j\displaystyle b_{i,j} avec ij\displaystyle i \neq j. Tout d’abord remarquons que B\displaystyle B est symétrique, donc b2,1=0\displaystyle b_{2,1} = 0. On calcule maintenant b1,j\displaystyle b_{1,j} avec j3\displaystyle j \ge 3 : le seul coefficient pl,j\displaystyle p_{l,j} non nul est pj,j=1\displaystyle p_{j,j} = 1 donc : b1,j=p1,1a1,j+p2,1a2,j=cos(θ)a1,jsin(θ)a2,j.b_{1,j} = p_{1,1} a_{1,j} + p_{2,1} a_{2,j} = \cos(\theta) a_{1,j} - \sin(\theta) a_{2,j}. De la même façon on a : b2,j=sin(θ)a1,j+cos(θ)a2,j.b_{2,j} = \sin(\theta) a_{1,j}+\cos(\theta) a_{2,j}. Au final, on a b1,j2+b2,j2=a1,j2+a2,j2.b_{1,j}^2+b_{2,j}^2 = a_{1,j}^2+a_{2,j}^2. Par symétrie, on a aussi, pour tout j3\displaystyle j \ge 3 : bj,12+bj,22=aj,12+aj,22.b_{j,1}^2+b_{j,2}^2 = a_{j,1}^2+a_{j,2}^2. Si maintenant on a i3\displaystyle i \ge 3 et j3\displaystyle j \ge 3, alors bi,j=ai,j\displaystyle b_{i,j} = a_{i,j} donc bi,j2=ai,j2\displaystyle b_{i,j}^2 = a_{i,j}^2. On a ainsi montré que : J(B)=J(A)2a1,22<J(A).J(B) = J(A)-2 a_{1,2}^2 < J(A).
  3. Soit f\displaystyle f l’endomorphsime associé à la matrice A\displaystyle A dans la base canonique (e1,,en)\displaystyle (e_1,\ldots,e_n). Alors f(ei0),ej0=ai0,j00\displaystyle \langle f(e_{i_0}), e_{j_0} \rangle = a_{i_0,j_0} \neq 0. La matrice A~\displaystyle \tilde{A} de f\displaystyle f dans la base B=(ei0,ej0,e1,,en)\displaystyle \mathcal{B} = (e_{i_0},e_{j_0},e_1,\ldots,e_n) est alors telle que a~1,2=ai0,j00\displaystyle \tilde{a}_{1,2} = a_{i_0,j_0} \neq 0. De plus, on a A~=P1AP\displaystyle \tilde{A} = P^{-1}A PP\displaystyle P est la matrice de passage de la base canonique à B\displaystyle \mathcal{B}. Or ces deux bases sont orthonormées, on sait alors que POn(R)\displaystyle P \in O_n(\R) comme voulu.
  4. Raisonnons par l’absurde. Supposons qu’il existe POn(R)\displaystyle P \in O_n(\R) telle que ϕ(P)=minOn(R)(ϕ)>0\displaystyle \phi(P) = \min_{O_n(\R)}(\phi) > 0. Soit B=PTAP\displaystyle B = P^T A P. Il existe alors un indice bio,j00\displaystyle b_{i_{o},j_{0}} \neq 0 et d’après les deux questions précédentes, il existe Q1,Q2On(R)\displaystyle Q_1,Q_2 \in O_n(\R) telles que ϕ(Q1Q2P)<ϕ(P),\phi(Q_1 Q_2 P) < \phi(P), ce qui contredit la minimalité de ϕ(P)\displaystyle \phi(P).
  5. Montrons que On(R)\displaystyle O_n(\R) est une partie compacte de Mn(R)\displaystyle M_n(\R). En effet, c’est une partie fermée, comme image réciproque du fermé {In}\displaystyle \{I_n\} par l’application continue MMTM\displaystyle M \mapsto M^T M. De plus, On(R)\displaystyle O_n(\R) est bornée, en effet, si on considère la norme M=Tr(MTM)\displaystyle \| M\| = \sqrt{\rm{Tr}(M^T M)}, on a M=1\displaystyle \|M\| = 1 pour tout MOn(R)\displaystyle M \in O_n(\R). La fonction ϕ\displaystyle \phi est continue sur le compact On(R)\displaystyle O_n(\R), donc elle atteint son minimum en une certaine matrice POn(R)\displaystyle P \in O_n(\R). Supposons que ϕ(P)>0\displaystyle \phi(P) > 0 : on aurait alors une contradiction d’après la question précédente. Ainsi il existe POn(R)\displaystyle P \in O_n(\R) telle que ϕ(P)=0\displaystyle \phi(P) = 0, c’est-à-dire telle que PTAP\displaystyle P^T A P est diagonale : c’est exactement l’énoncé du théorème spectral !!!

Exercice 545 ⭐️⭐️⭐️ Polynômes de Laguerre, Spé/L2

On se place sur E=R[X]\displaystyle E=\R[X], muni du produit scalaire défini par <P,Q>=0+P(x)Q(x)exdx\displaystyle \left<P,Q\right>=\int_0^{+\infty}P(x)Q(x) e^{-x}dx.
On ne demande pas de montrer ici que ceci définit bien un produit scalaire.
On pose pour tout nN\displaystyle n\in\N et xR\displaystyle x\in\R : hn(x)=xnex\displaystyle h_n(x)=x^n e^{-x}, et Ln(x)=exn!hn(n)(x).\displaystyle L_n(x)=\dfrac{e^x}{n!}h_n^{(n)}(x).

  1. En appliquant la formule de Leibniz, montrer que Ln\displaystyle L_n est une fonction polynomiale. Préciser son degré et son coefficient dominant.
  2. Calculer <L0,Xn>\displaystyle \left<L_0,X^n\right>, pour nN\displaystyle n\in\N.
  3. Montrer que pour tout k[ ⁣[0,n] ⁣]\displaystyle k\in[\![0,n]\!] il existe QkR[X]\displaystyle Q_k\in\R[X] tel que pour tout xR\displaystyle x\in\R on ait
    hn(k)(x)=xnkexQk(x).h_n^{(k)}(x)=x^{n-k}e^{-x}Q_k(x).
  4. Soit nN\displaystyle n\in\N. Etablir que
    PR[X], p[ ⁣[0,n] ⁣],   <Ln,P>=(1)pn!0+hn(np)(x)P(p)(x)dx.\forall P\in\R[X],~\forall p\in[\![0,n]\!],~~~\left<L_n,P\right>=\frac{(-1)^p}{n!}\int_0^{+\infty}h_n^{(n-p)}(x)P^{(p)}(x)dx.
  5. En déduire que (L0,L1,,Ln)\displaystyle (L_0,L_1,\dots,L_n) est une famille orthonormée pour le produit scalaire <,>\displaystyle \left<\cdot,\cdot\right>.
  1. R.A.S.
  2. Intégration par parties.
  3. Leibniz.
  4. Intégration par parties.
  5. Appliquer le résultat précédent comme il faut pour calculer <Lj,Li>\displaystyle \left<L_j,L_i\right>.
  1. D’après la formule de Leibniz, pour xR\displaystyle x\in\R :
    Ln(x)=exn!k=0n(nk)(1)kn!k!xkex.L_n(x)=\frac{e^x}{n!}\sum_{k=0}^n \binom nk(-1)^{k} \frac{n!}{k!} x^{k}e^{-x}.Donc Ln(X)=k=0n(nk)(1)kk!Xk.\displaystyle L_n(X)=\sum_{k=0}^n \binom nk \frac{(-1)^{k}}{k!} X^{k}.
    Ainsi deg(Ln)=n\displaystyle \deg(L_n)=n, et Ln\displaystyle L_n a pour coefficient dominant (1)nn!\displaystyle \frac{(-1)^n}{n!}.
  2. Le calcul de <L0,Xn>=0+xnexdx\displaystyle \left<L_0,X^n\right>=\int_0^{+\infty}x^n e^{-x}dx est un calcul classique à savoir faire.
    Une IPP permet d’obtenir n1, In=nIn1\displaystyle \forall n\ge 1,~I_n = n I_{n-1} (non détaillé ici).
    Comme I0=1\displaystyle I_0=1, on en déduit aisément par récurrence que nN, In=n!\displaystyle \forall n\in\N,~I_n=n!.
  3. D’après Leibniz, pour xR\displaystyle x\in\R : exhn(k)(x)=i=0k(ki)(1)in!(nk+i)!xnk+i.\displaystyle e^x h_n^{(k)}(x)=\sum_{i=0}^k\binom ki\frac{(-1)^{i}n!}{(n-k+i)!}x^{n-k+i}.
    D’où la propriété voulue en prenant Qk(X)=i=0k(ki)(1)in!(nk+i)!Xi.\displaystyle Q_k(X)=\sum_{i=0}^k\binom ki\frac{(-1)^{i}n!}{(n-k+i)!}X^{i}.
  4. Soit PR[X]\displaystyle P\in\R[X]. On démontre cette propriété par récurrence sur p\displaystyle p.
    Cas p=0\displaystyle p=0. <Ln,P>=1n!0+hn(n)(x)P(x)dx\displaystyle \left<L_n,P\right>= \frac{1}{n!}\int_0^{+\infty}h_n^{(n)}(x)P(x)dx, par définition.
    Supposons la propriété vérifiée à un rang pn1\displaystyle p\le n-1. Alors, on peut faire une intégration par parties, justifiée par l’existence de limites finies dans le crochet :
    <Ln,P>=(1)pn![hn(np1)(x)P(p)(x)]0+(1)pn!0+hn(np1)(x)P(p+1)(x)dx=(1)p+1n!0+hn(n(p+1))(x)P(p+1)(x)dx.\begin{aligned} \left<L_n,P\right> &= \frac{(-1)^p}{n!}\left[h_n^{(n-p-1)}(x)P^{(p)}(x)\right]_0^{+\infty} - \frac{(-1)^p}{n!}\int_0^{+\infty}h_n^{(n-p-1)}(x)P^{(p+1)}(x)dx\\ & = \frac{(-1)^{p+1}}{n!}\int_0^{+\infty}h_n^{(n-(p+1))}(x)P^{(p+1)}(x)dx. \end{aligned} Détails au sujet des limites :
  • hn(np1)(0)=0\displaystyle h_n^{(n-p-1)}(0)=0 d’après 5. car np1<n\displaystyle n-p-1<n;
  • limx+hn(np1)(x)P(p)(x)=0\displaystyle \lim_{x\to +\infty}h_n^{(n-p-1)}(x)P^{(p)}(x)=0 d’après 5. et par croissance comparée.
  1. \displaystyle \bullet Montrons que pour i<j\displaystyle i<j, <Lj,Li>=0\displaystyle \left<L_j,L_i\right>=0.
    On a deg(Li)=i\displaystyle \deg(L_i)=i. On peut exprimer <Lj,Li>\displaystyle \left<L_j,L_i\right> avec 6. en remplaçant n\displaystyle n par j\displaystyle j et choisissant P=Li\displaystyle P=L_i et p=i+1\displaystyle p=i+1 (on a bien pj\displaystyle p\leq j).
    Comme Li(p)\displaystyle L_i^{(p)} est alors la fonction nulle, cette expression donne <Lj,Li>=0.\displaystyle \left<L_j,L_i\right>=0.
    \displaystyle \bullet De plus pour P=Ln\displaystyle P=L_n, en choisissant p=n\displaystyle p=n : P(n)(x)=dndxn((1)nxnn!)=(1)n\displaystyle P^{(n)}(x)=\frac{d^n}{dx^n}\left(\frac{(-1)^n x^n}{n!}\right)=(-1)^n.
    Donc <Ln,Ln>=(1)nn!0+(1)nhn(0)(x)dx=1n!0+xnexdx=1\displaystyle \left<L_n,L_n\right>=\frac{(-1)^n}{n!}\int_0^{+\infty}(-1)^nh_n^{(0)}(x)dx = \frac{1}{n!}\int_0^{+\infty}x^n e^{-x}dx =1.

Exercice 546 ⭐️⭐️ Etude d’un endomorphisme, Spé/L2

Soient a,b\displaystyle a,b deux vecteurs d’un espace vectoriel euclidien E\displaystyle E de dimension n\displaystyle n.
On suppose a\displaystyle a et b\displaystyle b normés, c’est-à-dire a=b=1\displaystyle \Vert a\Vert=\Vert b\Vert=1.
On définit l’endomorphisme f\displaystyle f de E\displaystyle E par :
f:xx<a,x>b.f:x \mapsto x - \left<a,x\right> b.

  1. Montrer que si ab\displaystyle a\neq b, alors <a,b><1\displaystyle \left<a,b\right><1 et en déduire que f\displaystyle f est bijective, puis exprimer f1\displaystyle f^{-1}.
  2. Montrer que si a=b\displaystyle a=b, alors f\displaystyle f n’est pas bijective.
  3. Montrer que f\displaystyle f est diagonalisable si et seulement si a\displaystyle a et b\displaystyle b ne sont pas orthogonaux.
  1. inégalité avec un p.s. 👉 Cauchy-Schwarz.
    Ensuite, partir de f(x)=0E\displaystyle f(x)=0_E et essayer d’aboutir à x=0E\displaystyle x=0_E.
  2. Trouver un vectenur non nul dans ker(f)\displaystyle \ker(f).
  3. Etude des éléments propres : écrire f(x)=λx\displaystyle f(x)=\lambda x, puis réfléchir aux solutions.
  1. Supposons ab\displaystyle a\ne b.
  • On a <a,b>a.b=1\displaystyle \left<a,b\right>\le\Vert a\Vert.\Vert b\Vert=1, or a\displaystyle a et b\displaystyle b ne sont pas positivement liés (sinon on aurait a=b\displaystyle a=b car ils sont normés). Donc d’après le cas d’égalité dans Cauchy-Schwarz, l’inégalité ci-dessus est stricte.
  • Comme E\displaystyle E est de dimension finie (euclidien), il suffit pour montrer que f\displaystyle f est bijective de vérifier que ker(f)={0E}\displaystyle \ker(f)=\{0_E\}.
    Soit xker(f)\displaystyle x\in\ker(f). On a x=<a,x>b\displaystyle x=\left<a,x\right> b.
    En faisant le produit scalaire avec a\displaystyle a des deux côtés, il vient <a,x>=<a,x> <a,b>\displaystyle \left<a,x\right>=\left<a,x\right>~\left<a,b\right>.
    Donc (1<a,b>)<a,x>=0\displaystyle (1-\left<a,b\right>)\left<a,x\right>=0, mais 1<a,b>0\displaystyle 1-\left<a,b\right>\ne 0 donc <a,x>=0\displaystyle \left<a,x\right>=0.
    Ainsi x=<a,x>b=0E\displaystyle x=\left<a,x\right> b=0_E. Ceci montre bien que ker(f)={0E}\displaystyle \ker(f)=\{0_E\}.
  • Soit yE\displaystyle y\in E. Le vecteur x=f1(y)\displaystyle x=f^{-1}(y) vérifie f(x)=x<a,x>b=y\displaystyle f(x)=x-\left<a,x\right> b = y.
    En faisant le produit scalaire avec a\displaystyle a des deux côtés, il vient <a,x>(1<a,b>)=<a,y>\displaystyle \left<a,x\right>(1-\left<a,b\right>)=\left<a,y\right>.
    Donc <a,x>=<a,y>1<a,b>\displaystyle \left<a,x\right> = \frac{\left<a,y\right>}{1-\left<a,b\right>} et finalement : x=y+<a,y>1<a,b> b.\displaystyle x=y+\frac{\left<a,y\right>}{1-\left<a,b\right>}~b.
    Conclusion. Pour tout yE\displaystyle y\in E, f1(y)=y+<a,y>1<a,b>b\displaystyle f^{-1}(y)=y+\frac{\left<a,y\right>}{1-\left<a,b\right>} b
  1. Supposons a=b\displaystyle a= b.
    On peut remarquer que f(a)=a<a,a>a=0E\displaystyle f(a)= a -\left<a,a\right> a =0_E car a=1\displaystyle \Vert a\Vert=1.
    Or a0E\displaystyle a\ne 0_E (toujours car a=1\displaystyle \Vert a\Vert=1), donc ker(f){0E}\displaystyle \ker(f)\ne\{0_E\} et donc f\displaystyle f est non injective.
  2. Etudions les éléments propres de f\displaystyle f.
    Soit xE\displaystyle x\in E et λR\displaystyle \lambda\in\R. On a les implications :
    f(x)=λx  <a,x>b=(1λ)x  <a,x>[<a,b>(1λ)]=0.f(x)=\lambda x~\Rightarrow~ \left<a,x\right> b=(1-\lambda)x~\Rightarrow~ \left<a,x\right>\big[ \left<a,b\right>-(1-\lambda)\big]=0.Si x\displaystyle x est un vecteur propre (non nul, donc) associé à une valeur propre λR\displaystyle \lambda\in\R, on a donc λ=1<a,b>\displaystyle \lambda=1-\left<a,b\right> ou <a,x>=0\displaystyle \left<a,x\right>=0 (dans ce cas f(x)=x\displaystyle f(x)=x et donc λ=1\displaystyle \lambda=1).
    Ainsi :
  • si <a,b>=0\displaystyle \left<a,b\right>=0, le spectre de f\displaystyle f est {1}\displaystyle \{1\}, et f(x)=x<a,x>b=0E<a,x>=0.f(x)=x\Leftrightarrow \left<a,x\right> b=0_E\Leftrightarrow\left<a,x\right> =0. Donc E1(f)=(Vect(a))E\displaystyle E_1(f)=(\mathrm{Vect}(a))^\perp\ne E, et donc f\displaystyle f n’est pas diagonalisable.
  • Si <a,b>0\displaystyle \left<a,b\right>\ne 0, alors 1\displaystyle 1 est toujours valeur propre avec dim(E1(f))=dim(Vect(a))=n1\displaystyle \dim(E_1(f))=\dim(\mathrm{Vect}(a))^\perp = n-1.
    De plus f(b)=b<a,b>b=(1<a,b>)b\displaystyle f(b)=b-\left<a,b\right> b =(1-\left<a,b\right>)b, donc λ0=1<a,b>\displaystyle \lambda_0=1-\left<a,b\right> est valeur propre.
    Comme dim(E1(f))=n1\displaystyle \dim(E_1(f))= n-1, on a nécessairement dim(Eλ0(f))=1\displaystyle \dim(E_{\lambda_0}(f))= 1, et f\displaystyle f est diagonalisable car la somme des dimensions des sous-espaces propres vaut n\displaystyle n.

Exercice 580 ⭐️⭐️⭐️ Un parfum d’Einstein…, Spé/L2/L3

Dans R4\displaystyle \mathbb{R}^4, on définit la forme quadratique Φ\displaystyle \Phi par Φ(x,y,z,t)=t2x2y2z2\displaystyle \Phi(x,y,z,t) = t^2 - x^2 - y^2 -z^2. Soient v\displaystyle v et w\displaystyle w deux vecteurs de R4\displaystyle \mathbb{R}^4 dont chacune des quatrième coordonnée est strictement positive, et tels que Φ(v)\displaystyle \Phi(v) et Φ(w)\displaystyle \Phi(w) sont aussi strictement positifs. Montrer qu’on a Φ(v+w)>0\displaystyle \Phi(v+w) > 0, ainsi que l’inégalité triangulaire inverse Φ(v+w)Φ(v)+Φ(w)\displaystyle \sqrt{\Phi(v+w)} \geq \sqrt{\Phi(v)} + \sqrt{\Phi(w)}. Quels sont les cas d’égalité?

Les rotations sur les trois premières coordonnées préservent la forme quadratique. C’est aussi le cas des transformations suivantes (appelées tranformées de Lorentz en relativité): (x,y,z,t)(x,y,zcoshφ+tsinhφ,zsinhφ+tcoshφ)\displaystyle (x,y,z,t) \mapsto (x,y, z\cosh \varphi +t \sinh \varphi, z \sinh \varphi + t\cosh \varphi ) pour n’importe quel réel φ\displaystyle \varphi. Ces transformations préservent aussi le signe de t\displaystyle t lorsque Φ(x,y,z,t)>0\displaystyle \Phi(x,y,z,t) > 0, car alors tcoshφ>zcoshφ>zsinhφ\displaystyle |t \cosh \varphi| > |z \cosh \varphi| > |z \sinh \varphi|. Par rotation, on peut se ramener au cas où v\displaystyle v est de la forme (0,0,z,t)\displaystyle (0,0,z,t), puis par transformation de Lorentz, avec tanhφ=z/t\displaystyle \tanh \varphi = -z/t (ce qui est possible car Φ(v)=t2z2>0\displaystyle \Phi(v) = t^2 - z^2 > 0 et donc z/t<1\displaystyle |z/t| < 1), on peut supposer v=(0,0,0,u)\displaystyle v = (0,0,0,u) avec u>0\displaystyle u > 0. Une nouvelle rotation des trois premières coordonnées permet de supposer ensuite w=(0,0,z,s)\displaystyle w = (0,0,z,s)s>0\displaystyle s > 0, z0\displaystyle z \geq 0 et s2z2>0\displaystyle s^2- z^2 > 0, soit s>z0\displaystyle s > z \geq 0. On doit alors prouver que (s+u)2z2us2z2>0\displaystyle \sqrt{(s+u)^2 - z^2} - u -\sqrt{s^2 - z^2} > 0. Cela est vrai car cette quantité est nulle pour z=0\displaystyle z = 0 et strictement croissante en z\displaystyle z. Il y a égalité si et seulement si z=0\displaystyle z = 0, c’est à dire quand v\displaystyle v et w\displaystyle w sont alignés.
Remarque: Cet exercice est directement inspiré de la théorie de la relativité restreinte d’Einstein. La condition Φ(v)>0\displaystyle \Phi(v) > 0 signifie que l’on peut suivre la direction v\displaystyle v de l’espace-temps sans aller plus vite que la lumière. Le fait que la dernière coordonée soit strictement positive signifie que le vecteur va du passé vers le futur. L’inégalité triangulaire inverse signifie qu’entre un frère jumeau resté sur Terre et l’autre ayant voyagé très loin et très vite, le voyageur est plus jeune que le sédentaire lorsque les deux jumeaux se retrouvent (les voyages forment la jeunesse 😀).

Exercice 584 ⭐️⭐️⭐️⭐️ Racines sur le cercle unité, L3

Pour λC\{0}\displaystyle \lambda \in \mathbb{C} \backslash \{0\} et n2\displaystyle n \geq 2, on note Mn(λ)\displaystyle M_n(\lambda) la matrice n×n\displaystyle n \times n telle que (Mn(λ))jk=λjk\displaystyle (M_n(\lambda))_{jk} = \lambda^{j-k} pour tous 1j,kn\displaystyle 1 \leq j, k \leq n.

  1. On suppose que λ\displaystyle \lambda est un complexe de module 1\displaystyle 1. Montrer que Mn(λ)\displaystyle M_n(\lambda) est une matrice hermitienne positive et donner son rang.
  2. On suppose que λ\displaystyle \lambda est un complexe de module différent de 0\displaystyle 0 et 1\displaystyle 1. Montrer que Mn(λ)+Mn(λ1)\displaystyle M_n(\lambda) + M_n(\overline{\lambda^{-1}} ) est hermitienne et donner son rang. Combien cette matrice a-t-elle de valeurs propres strictement positives et de valeurs propres strictement négatives ?
  3. On considère un ensemble fini E\displaystyle E de complexes non nuls, et des coefficents (αλ)λE\displaystyle (\alpha_{\lambda})_{\lambda \in E} réels strictement positifs, tels que pour tout λE\displaystyle \lambda \in E, on a λ1E\displaystyle \overline{\lambda^{-1} } \in E et αλ1=αλ\displaystyle \alpha_{\overline{\lambda^{-1} }} = \alpha_{\lambda}. On note p\displaystyle p le cardinal de E\displaystyle E, et q\displaystyle q le cardinal commun de E{zC,z<1}\displaystyle E \cap \{z \in \mathbb{C}, |z| < 1\} et de
    E{zC,z>1}\displaystyle E \cap \{z \in \mathbb{C}, |z| > 1\}. Pour un entier n2\displaystyle n \geq 2 donné, on pose P=λEαλMn(λ)\displaystyle P = \sum_{\lambda \in E} \alpha_{\lambda} M_n(\lambda). Montrer que P\displaystyle P est une matrice hermitienne, et qu’il existe des sous-espaces vectoriels V\displaystyle V et W\displaystyle W de Cn\displaystyle \mathbb{C}^n de dimensions respectives au plus q\displaystyle q et au plus pq\displaystyle p-q, tels que pour tout vCn\displaystyle v \in \mathbb{C}^n orthogonal à V\displaystyle V, on a 1j,knPjkvjvk0\displaystyle \sum_{1 \leq j,k \leq n} P_{jk} v_j \overline{v_k} \geq 0, et pour tout wCn\displaystyle w \in \mathbb{C}^n orthogonal à W\displaystyle W, on a 1j,knPjkwjwk0\displaystyle \sum_{1 \leq j,k \leq n} P_{jk} w_j \overline{w_k} \leq 0.
  4. Montrer que P\displaystyle P a au plus q\displaystyle q valeurs propres strictement négatives, et au plus pq\displaystyle p-q valeurs propres strictement positives, en comptant les multiplicités.
  5. On suppose que np\displaystyle n \geq p. Déterminer le rang de P\displaystyle P.
  6. En déduire que si np\displaystyle n \geq p, alors P\displaystyle P a exactement q\displaystyle q valeurs propres strictement négatives et pq\displaystyle p-q valeurs propres strictement positives, en comptant les multiplicités.
  7. On considère un polynôme R=m=0ncmXm\displaystyle R= \sum_{m=0}^n c_m X^m de degré n\displaystyle n, à coefficients complexes, tels que c0=cn=1\displaystyle c_0 = |c_n| = 1, et pour tout m{0,1,,n}\displaystyle m \in \{0,1,\dots,n\}, cm=cncnm\displaystyle c_m = c_n \overline{c_{n-m}}. On définit la série formelle
    L:=logR:=r=1(1)rr(m=1ncmXm)r=:m=1ammXm.L := - \log R := \sum_{r = 1}^{\infty} \frac{(-1)^r}{r} \left(\sum_{m=1}^n c_m X^m \right)^r =: \sum_{m=1}^{\infty} \frac{a_m}{m} X^m.
    Pour m<0\displaystyle m < 0, on pose am=am\displaystyle a_m = \overline{a_{-m}} et a0=n\displaystyle a_0 = n, puis on considère la matrice AMn(C)\displaystyle A \in \mathcal{M}_n(\mathbb{C}) telle que Ajk=ajk\displaystyle A_{jk}= a_{j-k} pour 1j,kn\displaystyle 1 \leq j, k \leq n. Montrer que si λ\displaystyle \lambda est une racine du polynôme R\displaystyle R, alors λ0\displaystyle \lambda \neq 0 et λ1\displaystyle \overline{\lambda^{-1}} est aussi une racine de R\displaystyle R. Montrer que A\displaystyle A est hermitienne, le nombre de valeurs propres négatives de A\displaystyle A, comptées avec multiplicités, étant égal au nombre de racines distinctes de R\displaystyle R de module strictement inférieur à 1\displaystyle 1, et aussi au nombre de racines distinctes de module strictement supérieur à 1\displaystyle 1. Montrer que le nombre de racines distinctes de R\displaystyle R de module 1\displaystyle 1 est égal à la différence entre le nombre de valeurs propres strictement positives et le nombre de valeurs propres strictement négatives de A\displaystyle A (comptées avec multiplicité).
  8. Montrer que A\displaystyle A est une matrice positive si et seulement si toutes les racines de R\displaystyle R sont de module 1\displaystyle 1.
  9. Pour cC\displaystyle c \in \mathbb{C}, on considère le polynôme 1+cX+cX2+X3\displaystyle 1 + c X + \overline{c} X^2 + X^3. Dans quels cas ce polynôme a toutes ses racines de module 1\displaystyle 1 ? Dans quels cas a-t-il des racines multiples ?
  1. Le fait qu’on ait une matrice hermitienne découle du fait que λkj=λjk\displaystyle \lambda^{k-j} = \overline{\lambda^{j-k}} si λ=1\displaystyle |\lambda| = 1. Cette matrice est le produit vv\displaystyle v v^*v\displaystyle v est le vecteur colonne de composantes (λj)1jn\displaystyle (\lambda^j)_{1 \leq j \leq n}, donc son rang est au plus 1. Comme la trace de Mn(λ)\displaystyle M_n(\lambda) est n\displaystyle n, le rang de cette matrice hermitienne est exactement 1 et sa valeur propre non nulle est n\displaystyle n, ce qui implique que Mn(λ)\displaystyle M_n(\lambda) est une matrice positive.
  2. Posons N=Mn(λ)+Mn(λ1)\displaystyle N = M_n(\lambda) + M_n(\overline{\lambda^{-1}} ). On a Njk=λjk+λkj\displaystyle N_{jk} = \lambda^{j-k} + \overline{\lambda^{k-j}}, et donc Nkj=Njk\displaystyle N_{kj} = \overline{N_{jk}}, ce qui prouve que N\displaystyle N est hermitienne. Comme Mn(λ)\displaystyle M_n(\lambda) et Mn(λ1)\displaystyle M_n(\overline{\lambda^{-1}}) sont de rang au plus 1\displaystyle 1 (voir plus haut), N\displaystyle N est de rang au plus 2\displaystyle 2. Comme N\displaystyle N est hermitienne, N\displaystyle N est semblable à une matrice diagonale de la forme Diag(μ,ν,0,0,,0)\displaystyle \operatorname{Diag}(\mu, \nu, 0, 0, \dots, 0) avec μ,νR\displaystyle \mu, \nu \in \mathbb{R}. La somme μ+ν\displaystyle \mu + \nu est la trace de N\displaystyle N, qui vaut 2n\displaystyle 2n. Le produit μν\displaystyle \mu \nu est, aux conventions de signe près, le coefficient de degré n2\displaystyle n-2 du polynôme caractéristique de N\displaystyle N, ce qui donne μν=1j<kn(NjjNkkNjkNkj)\mu \nu = \sum_{1 \leq j < k \leq n} (N_{jj} N_{kk} - N_{jk} N_{kj} ) soit μν=1j<kn(4Njk2).\mu \nu = \sum_{1 \leq j < k \leq n} (4- |N_{jk}|^2 ).
    On a λjk=rjkeiθjk\displaystyle \lambda^{j-k} = r_{jk} e^{i \theta_{jk}} avec rjk]0,[\{1}\displaystyle r_{jk} \in \, ]0,\infty[ \, \backslash \, \{1\} et θjkR\displaystyle \theta_{jk} \in \mathbb{R}, et λkj=rjk1eiθjk\displaystyle \overline{\lambda^{k-j}} = r_{jk}^{-1} e^{i \theta_{jk}}, ce qui donne Njk=rjk+rjk1>2\displaystyle |N_{jk}| = r_{jk} + r_{jk}^{-1} > 2. On en déduit que μν<0\displaystyle \mu \nu < 0, et donc N\displaystyle N est de rang 2\displaystyle 2, avec une valeur propre strictement positive et une valeur propre strictement négative.
  3. La matrice P\displaystyle P est une combinaison linéaire à coefficients positifs de p2q\displaystyle p-2q matrices du type étudié en 1.\displaystyle 1. et de q\displaystyle q matrices du type étudié en 2.\displaystyle 2. : pour chaque matrice Q\displaystyle Q de type 1., on a toujours 1j,knQjkvjvk0\displaystyle \sum_{1 \leq j,k \leq n} Q_{jk} v_j \overline{v_k} \geq 0 et on a 1j,knQjkvjvk=0\displaystyle \sum_{1 \leq j,k \leq n} Q_{jk} v_j \overline{v_k} =0 sur l’orthogonal du vecteur propre de Q\displaystyle Q correspondant à la valeur propre non nulle de Q\displaystyle Q, qui est strictement positive. Pour chaque matrice Q\displaystyle Q de type 2., on a 1j,knQjkvjvk0\displaystyle \sum_{1 \leq j,k \leq n} Q_{jk} v_j \overline{v_k} \geq 0 sur l’orthogonal du vecteur propre associé à la valeur propre strictement négative de Q\displaystyle Q, et 1j,knQjkvjvk0\displaystyle \sum_{1 \leq j,k \leq n} Q_{jk} v_j \overline{v_k} \leq 0 sur l’orthogonal du vecteur propre associé à la valeur propre strictement positive de Q\displaystyle Q. En ajoutant toutes les matrices Q\displaystyle Q, on en déduit le résultat de l’énoncé, avec V\displaystyle V égal à l’espace vectoriel engendré par les vecteurs propres associés aux valeurs propres strictement négatives des matrices de type 2., et W\displaystyle W égal à l’espace vectoriel engendré par les vecteurs propres associés aux valeurs propres strictement positives des matrices de types 1. et 2.
  4. Si P\displaystyle P a r\displaystyle r valeurs propres strictement négatives, on a un espace F\displaystyle F de dimension r\displaystyle r tel que pour tout vF\{0}\displaystyle v \in F\backslash \{0\}, 1j,knPjkwjwk<0\displaystyle \sum_{1 \leq j,k \leq n} P_{jk} w_j \overline{w_k} < 0. L’intersection de F\displaystyle F et de l’orthogonal de V\displaystyle V est alors réduite au vecteur nul, ce qui implique que la somme de leurs dimensions est au plus n\displaystyle n: r+(nq)n\displaystyle r + (n-q) \leq n. On a donc rq\displaystyle r \leq q. On raisonne de même pour les valeurs propres strictement positives, avec W\displaystyle W au lieu de V\displaystyle V.
  5. On a P=λEαλvλ(vλ1)T\displaystyle P = \sum_{\lambda \in E} \alpha_{\lambda} v_{\lambda}(v_{\lambda^{-1}})^T, vλ\displaystyle v_{\lambda} étant le vecteur colonne de composantes (λj1)1jn\displaystyle (\lambda^{j-1})_{1 \leq j \leq n}, et (vλ1)T\displaystyle (v_{\lambda^{-1}})^T le vecteur ligne transposé de vλ1\displaystyle v_{\lambda^{-1}}. Comme pn\displaystyle p \leq n, les vecteurs lignes (vλ1)T\displaystyle (v_{\lambda^{-1}})^T sont des lignes d’une matrice de Vandermonde, donc ils sont indépendants. Pour tout λ0E\displaystyle \lambda_0 \in E, il existe donc des vecteurs colonnes annulant (vλ1)T\displaystyle (v_{\lambda^{-1}})^T pout tout λλ0\displaystyle \lambda \neq \lambda_0, mais n’annulant pas (vλ01)T\displaystyle (v_{\lambda_0^{-1}})^T. On en déduit que vλ0\displaystyle v_{\lambda_0} est dans l’image de P\displaystyle P. Comme les vecteurs vλ0\displaystyle v_{\lambda_0} sont des colonnes d’une matrice de Vandermonde, ils sont indépendants, et donc l’image de P\displaystyle P contient p\displaystyle p vecteurs indépendants, ce qui implique que P\displaystyle P est de rang au moins p\displaystyle p. Comme P\displaystyle P est la somme de p\displaystyle p matrices de rang 1\displaystyle 1, P\displaystyle P est de rang exactement p\displaystyle p.
  6. Si le résultat indiqué était inexact, P\displaystyle P serait de rang strictement inférieur à p\displaystyle p d’après 4., ce qui contredit 5.
  7. On a pour λ1,,λnC\displaystyle \lambda_1, \dots, \lambda_n \in \mathbb{C}, la factorisation R=s=1n(1λsX).R = \prod_{s=1}^n (1 - \lambda_s X). Comme cn0\displaystyle c_n \neq 0, on a λs0\displaystyle \lambda_s \neq 0 pour tout s{1,,n}\displaystyle s \in \{1,\dots, n \}. La symétrie entre les coefficients donne R(X)=cnXnR(X1),R(X) = c_n X^n \overline{R(\overline{X^{-1}})}, donc R=cns=1n(Xλs).R = c_n \prod_{s=1}^n (X - \overline{\lambda_s}). Des deux factorisations de R\displaystyle R, on en déduit que si λ\displaystyle \lambda est l’inverse d’une racine de R\displaystyle R, alors λ1\displaystyle \overline{\lambda^{-1}} est aussi l’inverse d’une racine, de même multiplicité. On a clairement la même chose en remplaçant les inverses de racines par les racines. On écrit maintenant, en prenant le logarithme de la factorisation de R\displaystyle R: L=m=1Xmms=1nλsm,L = \sum_{m=1}^{\infty} \frac{X^m}{m} \sum_{s = 1}^n \lambda_s^m, ce qui donne am=s=1nλsm\displaystyle a_m = \sum_{s = 1}^n \lambda_s^m pour m1\displaystyle m \geq 1. La invariance de l’ensemble des racines, prises avec multiplicité, par la transformation λλ1\displaystyle \lambda \mapsto \overline{\lambda^{-1}} montre que am=s=1nλsm\displaystyle a_m = \sum_{s = 1}^n \lambda_s^m aussi pour m<0\displaystyle m < 0 tandis que la relation est évidente pour m=0\displaystyle m = 0. Ceci implique que A=s=1nMn(λs)=λEαλMn(λ),A = \sum_{s =1}^n M_n (\lambda_s) = \sum_{\lambda \in E} \alpha_{\lambda} M_n (\lambda), E\displaystyle E étant l’ensemble des inverses de racines de R\displaystyle R et αλ\displaystyle \alpha_{\lambda} étant la multiplicité de λ\displaystyle \lambda. On conclut alors facilement en utilisant le résultat de la question 6.
  8. A\displaystyle A est positive si et seulement si le nombre de valeurs propres stricement négatives est nul, donc par 7., si et seulement s’il n’y a pas d’inverse de racine de R\displaystyle R de module strictement inférieur à 1\displaystyle 1, ni de racine de module strictement supérieur à 1\displaystyle 1.
  9. On a L=(cX+cX2)+12(cX+cX2)2+o(X2),L = - (cX + \overline{c} X^2) + \frac{1}{2} (cX + \overline{c} X^2)^2 + o(X^2),
    o(X2)\displaystyle o(X^2) désignant une série dont tous les termes non nuls sont de degré 3\displaystyle 3 ou plus. On en déduit L=cX+(c2/2c)X2+o(X2)\displaystyle L = -cX + (c^2/2 - \overline{c} ) X^2 + o(X^2), a1=c\displaystyle a_1 = -c, a2=c22c\displaystyle a_2 = c^2 - 2 \overline{c}, et finalement
    A=(3cc22cc3cc22cc3).A= \begin{pmatrix} 3 & -c & c^2 - 2 \overline{c}\\ -\overline{c} & 3&-c\\ \overline{c}^2 - 2 c & -\overline{c} & 3 \\ \end{pmatrix}.
    Le déterminant de A\displaystyle A vaut 27+(c)2(c22c)+(c)2(c22c)3c23c22c23c227 + (-c)^2 (\overline{c}^2 - 2 c) + (-\overline{c})^2 (c^2 - 2 \overline{c}) - 3 |c|^2 - 3 |c^2 - 2\overline{c}|^2 - 3 |c|^2 soit D:=det(A)=27c418c2+8(c3)\mathcal{D}:= \operatorname{det}(A) = 27 - |c|^4 - 18 |c|^2 + 8 \Re(c^3)
    Si D>0\displaystyle \mathcal{D} > 0, A\displaystyle A a trois valeurs propres non nulles, 0\displaystyle 0 ou 2\displaystyle 2 étant négatives. Par 7., il y a au moins autant de valeurs propres positives que négatives, donc le deuxième cas n’est pas possible: A\displaystyle A est définie positive et 1+cX+cX2+X3\displaystyle 1 + cX + \overline{c} X^2 + X^3 a trois racines distinctes sur le cercle unité.
    Si D<0\displaystyle \mathcal{D} < 0, A\displaystyle A a trois valeurs propres non nulles, une étant négative. Donc il y a une racine du polynôme de module inférieur à 1\displaystyle 1, une racine de module supérieur à 1\displaystyle 1 et une racine de module 1\displaystyle 1.
    Si D=0\displaystyle \mathcal{D} = 0, A\displaystyle A est semblable à Diag(μ,ν,0)\displaystyle \operatorname{Diag}(\mu, \nu,0) pour des réels μ\displaystyle \mu et ν\displaystyle \nu. On a
    μν=2(9c2)+(9c22c2)=27c46c2+4(c3).\mu \nu =2 (9 - |c|^2) + (9- |c^2 - 2 \overline{c}|^2) = 27 - |c|^4 - 6|c|^2+4 \Re(c^3).
    Comme D=0\displaystyle \mathcal{D} = 0, 8(c3)=c4+18c227\displaystyle 8\Re(c^3) = |c|^4 + 18|c|^2 - 27 et μν=12(27+6c2c4)=(3+c2)(9c2)2.\mu \nu = \frac{1}{2}(27+ 6|c|^2 - |c|^4) = \frac{(3+ |c|^2)(9-|c|^2)}{2}.
    On observe que 0=D27c418c2+8c3=(3c)3(1+c),0 = \mathcal{D} \leq 27 - |c|^4 - 18 |c|^2 + 8 |c|^3 = (3-|c|)^3 (1+|c|),
    ce qui implique c3\displaystyle |c| \leq 3. Si c<3\displaystyle |c| < 3, μν>0\displaystyle \mu \nu > 0, A\displaystyle A est positive de rang 2\displaystyle 2, ce qui prouve que le polynôme a une racine double et une racine simple, toutes deux de module 1\displaystyle 1. Le cas c=3\displaystyle |c| = 3 ne peut se produire que si D27c418c2+8c3\displaystyle \mathcal{D} \leq 27 - |c|^4 - 18 |c|^2 + 8 |c|^3 est une égalité, soit 8c3R+\displaystyle 8c^3 \in \mathbb{R}_+. Ceci n’a lieu que pour c=3ω\displaystyle c = 3 \omega, avec ω{1,j,j2}\displaystyle \omega \in \{1,j,j^2\} racine cubique de l’unité. Le polynôme est alors (1+ωX)3\displaystyle (1+\omega X)^3 et on a une racine triple.
    Pour résumer, 1+cX+cX2+X3\displaystyle 1 + cX + \overline{c} X^2 + X^3 a toutes ses racines de module 1\displaystyle 1 si et seulement si 27c418c2+8(c3)0\displaystyle 27 - |c|^4 - 18 |c|^2 + 8 \Re(c^3) \geq 0: si l’inégalité est stricte, les trois racines sont simples, s’il y a égalité et c327\displaystyle c^3 \neq 27, il y a une racine simple et une racine double, si c3=27\displaystyle c^3 =27 il y a une racine triple. Si on a 27c418c2+8(c3)<0\displaystyle 27 - |c|^4 - 18 |c|^2 + 8 \Re(c^3) <0, il y a une racine du polynôme de module inférieur à 1\displaystyle 1, une racine de module supérieur à 1\displaystyle 1 et une racine de module 1\displaystyle 1, nécessairement toutes simples. La courbe des points du plan d’affixe c\displaystyle c telle que D=27c418c2+8(c3)\displaystyle \mathcal{D} = 27 - |c|^4 - 18 |c|^2 + 8 \Re(c^3) est nul s’appelle deltoïde.