Soit (E,⟨⋅,⋅⟩) un espace vectoriel euclidien et F:=(e1,…,ep)∈Ep. On considère f:E→E définie par : ∀x∈E,f(x)=i=1∑p⟨ei,x⟩ei.
Montrer que f est un endomorphisme de E.
Montrer que ⟨f(x),x⟩≥0. Quand a-t-on ⟨f(x),x⟩=0 ?
Montrer que Ker(f)=F⊥ et Im(f)=Vect(F).
Montrer que f est bijective si et seulement si F engendre E.
Corrigé
Il suffit de montrer que pour tout i∈{1,…,p}, l’application x↦⟨ei,x⟩ei est un endomorphisme de E, et cela vient du fait que pour tous x,y∈E et tout λ∈R, on a : ⟨ei,λx+y⟩ei=(λ⟨ei,x⟩+⟨ei,y⟩)ei=λ⟨ei,x⟩ei+⟨ei,y⟩ei.
On utilise la linéarité du produit scalaire en la première variable pour écrire : ⟨f(x),x⟩=⟨i=1∑p⟨ei,x⟩ei,x⟩=i=1∑p⟨ei,x⟩⟨ei,x⟩=i=1∑p⟨ei,x⟩2≥0.
On a égalité si et seulement si ⟨ei,x⟩=0 pour tout 1≤i≤p, i.e. si et seulement si x∈F⊥.
Soit x∈Ker(f). On a f(x)=0, donc ⟨f(x),x⟩=0. D’après la question précédente, on a alors x∈F⊥, donc Ker(f)⊂F⊥. Réciproquement, si x∈F⊥, alors ⟨x,ei⟩=0 pour tout 1≤i≤p, et on en déduit que f(x)=0. Ainsi on a aussi l’inclusion réciproque F⊥⊂Ker(f).
Soit y∈Im(f). Il existe alors x∈E tel que y=f(x)=i=1∑p⟨ei,x⟩ei. On a exprimé y comme combinaison linéaire des (ei)1≤i≤p, ce qui signifie que y∈Vect(F), d’où l’inclusion Im(f)⊂Vect(F). Notons V:=Vect(F). On a F⊥=V⊥. On peut exprimer de deux façons différentes la dimension de E, en utilisant le théorème du rang, puis les propriétés des supplémentaires orthogonaux : dim(V)+dim(V⊥)=dim(E)=dim(Ker(f))+dim(Im(f)).
Comme V=Ker(f), on en déduit que dim(V⊥)=dim(Im(f)), et l’inclusion Im(f)⊂V permet de conclure que Im(f)=V.
On a f bijective ⟺dim(Ker(f))=0⟺dim(V⊥)=0⟺dim(V)=dim(E)⟺V=E (car on a l’inclusion V⊂E). Mais V=E signifie exactement que F engendre E.
Exercice 127 ⭐️⭐️ Spé/L2
Soit A∈Mn(R) une matrice symétrique non nulle. Montrer que tr(A2)(tr(A))2≤rg(A).
Réflexes
Trace 👉 somme des coef. de la diagonale, somme des valeurs propres ;
Des carrés 👉 Cauchy-Schwarz.
Corrigé
On a tr(A)=λ1+⋯+λr où les λi sont les r valeurs propres non nulles de A, elles sont réelles car A est symétrique réelle (d’après le théorème spectral), et r=rg(A)≤n.
Par Cauchy-Schwarz (λ1+⋯+λr)2≤r(λ12+⋯+λr2), donc (tr(A))2≤rtr(A2), qui est l’égalité cherchée.
Notons qu’on peut obtenir tr(A2)(tr(A))2≤n aussi en utilisant Cauchy-Schwarz avec le produit scalaire (A,B)↦tr(ABT) et B=Id (et on a A=AT).
Soit M∈GLn(R). Montrer qu’il existe un couple (O,S)∈On×Sn++ tel que M=OS. Ici On désigne le groupe orthogonal et Sn++ l’ensemble des matrices symétriques définies positives.
Réflexes
Montrer l’existence 👉 exhiber un élément qui convient, preuve par analyse-synthèse.
Corrigé
Analyse : Si M=OS, alors MTM=SOTOS=S2. Or MTM est symétrique définie positive car XTMTMX=∥MX∥2>0 si X=0 car M∈GLn(R).
Donc MTM est diagonalisable en base orthonormée et ses valeurs propres λi sont >0. Écrivons MTM=PDPT et notons D la matrice diagonale avec les λi sur la diagonale. Posons S=PDPT et O=MS−1. On a OTO=S−1MTMS−1=S−1S2S−1=I. Donc on a bien (O,S)∈On×Sn++.
Soit C1,⋯,Cn les vecteurs colonnes d’une matrice M∈Mn(C). Montrer l’inégalité d’Hadamard : ∣det(M)∣≤∥C1∥⋯∥Cn∥, la norme ∥.∥ étant la norme hermitienne canonique. Cas d’égalité ?
Corrigé
Supposons que M est inversible, car sinon detM=0 et l’inégalité est bien sûr vraie. Ainsi (C1,⋯,Cn) est une base de Cn. Le procédé d’othogonalisation de Gram-Schmidt fournit alors une base orthogonale (X1,⋯,Xn) de Cn telle que X1=C1 et pour tout k≥2 : Xk=Ck+a1,kX1+⋯+ak−1,kXk−1,ai,k∈C. Si on ajoute à une colonne une combinaison linéaire des autres on ne change pas le déterminant,
donc det(O)=det(M), où O est la matrice formées par les colonnes X1,⋯,Xn. En particulier O∗O est une matrice diagonale avec les ∥Xi∥2 sur la diagonale, car les Xi sont deux à deux orthogonaux.
Ainsi ∣det(O)∣2=∥X1∥2⋯∥Xn∥2. Mais comme les Xi sont deux à deux orthogonaux, on peut écrire par Pythagore : ∥Ck∥2=∥Xk∥2+∣a1,k∣2∥X1∥2+⋯+∣ak−1,k∣2∥Xk−1∥2. Par suite ∥Xk∥2≤∥Ck∥2, d’où la conclusion.
On peut alors montrer qu’il y a égalité si et seulement si les Ck sont deux à deux orthogonaux.
Exercice 130 ⭐️⭐️ Sup/L1
Soit A∈Mn(R) tel que pour tout vecteur colonne X∈Rn, XTAX=0. Montrer que A est anti-symétrique.
Corrigé
Pour tout X,Y∈Rn, on a aussi (X+Y)TA(X+Y)=0. D’où XTAY+YTAX=0 car XTAX=0 et YTAY=0. Or YTAX=(YTAX)T=XTATY. Ainsi XT(A+AT)Y=0. Comme X et Y sont arbitraires, on peut prendre des vecteurs de la base canonique, et on obtient l’égalité des coefficients de la matrice A+AT à 0, i.e. AT=−A, et la matrice A est anti-symétrique.
Exercice 131 ⭐️⭐️⭐️ X MP 2018
Soit E=Rn muni du produit scalaire canonique ⟨⋅,⋅⟩.
Soit (u1,…uk)∈Ek et (v1,…vk)∈Ek tels que ⟨ui,uj⟩=⟨vi,vj⟩ pour tous i et j compris entre 1 et k.
Montrer qu’il existe W∈On(R) telle que ui=Wvi pour tout 1≤i≤k.
Réflexes
Objet à construire 👉 Analyse-Synthèse !
Ecrire des sommes, produits scalaires, etc. sous forme matricielle.
Corrigé
On a uiTuj=viTvj et on va injecter vi=Wui, ce qui donne uiTuj=uiTWTWuj, bon là c’est raté on n’a pas avancé car WTW=In.
En fait, à partir de uiTuj=viTvj, on a très envie d’inverser uiT, mais c’est un vecteur, dommage ! On va pas s’arréter là, on va créer des matrices. D’ailleurs on n’a pas utilisé le fait que uiTuj=viTvj était vrai pour tout i et j. On résume ça avec les matrices U et V dont les colonnes sont resp. les vecteurs ui et vi.
Ainsi on a UTU=VTV. Supposons U inversible, i.e. que les ui sont libres. En particulier on aura donc ici k≤n et pour avoir une matrice carrée on peut compléter les ui (resp. les vi) par des vecteurs orthogonaux de telle sorte à avoir une base, et cela ne change pas la relation UTU=VTV car on a rajouté des 0 et des 1 au même endroit.
Alors U=(U−1)TVTV. Notre candidat est donc W=(U−1)TVT. Vérifions qu’il est orthogonal : WTW=VU−1(U−1)TVT=V(UTU)−1V=V(VTV)−1V=In.
Si les vecteurs ui sont liés, on peut en exprimer un à partir des autres, et vous êtes sur la bonne piste pour conclure !
Exercice 132 ⭐️⭐️ Sup/L1
Soit (E,⟨⋅,⋅⟩) un espace euclidien et f:E→E une application telle que pour tous x,y∈E, ⟨x,f(y)⟩=⟨f(x),y⟩. Montrer que f est linéaire.
Corrigé
Soit x,y∈E et a∈R quelconques et fixés. Pour tout v∈E, on a en utilisant la linéarité de ⟨⋅,v⟩ : ⟨f(ax+y)−af(x)−f(y),v⟩=⟨f(ax+y),v⟩−a⟨f(x),v⟩−⟨f(y),v⟩, puis l’hypothèse sur f et encore la linéarité de ⟨⋅,v⟩ : ⟨f(ax+y)−af(x)−f(y),v⟩=⟨ax+y,f(v)⟩−a⟨x,f(v)⟩−⟨y,f(v)⟩=0.
Comme v∈E est arbitraire, on endéduit que f(ax+y)−af(x)−f(y)=0, et donc que f est bien linéaire.
Exercice 133 ⭐️⭐️ Centrale, Sup/Spé/L2/Classique
Soit (E,(⋅,⋅)) un espace pré-hilbertien réel et B=(e1,⋯,en) une famille de E. On suppose que B est normée. Montrer que B est une base orthonormée de E si et seulement si pour tout x∈E, ∥x∥2=1≤i≤n∑(x,ei)2.
Réflexes
Pythagore, Introduire des Projections.
Corrigé
Si B est une base orthonormée de E, alors par le théorème de Pythagore, on a bien l’égalité demandée.
Supposons que pour tout x∈E, ∥x∥2=1≤i≤n∑(x,ei)2. On peut déjà tester l’égalité sur un ej, alors ∥ej∥2=1≤i≤n∑(ej,ei)2=∥ej∥2+i=j∑(ej,ei)2, i.e. i=j∑(ej,ei)2=0. Comme on peut le faire pour tout ej, on en déduit que pour tout i,j avec i=j on a (ej,ei)2 donc la famille B est orthonormée, et donc libre aussi. Pour montrer que c’est une base, il faut montrer qu’elle est génératrice, ce qui veut dire en terme de projection que x=p(x) où p est la projection orthogonale sur Vect(B). On a p(x)=1≤i≤n∑(x,ei)ei. Mais par Pythagore, ∥x−p(x)∥2=∥x∥2−∥p(x)∥2. Mais ∥p(x)∥2=1≤i≤n∑(x,ei)2=∥x∥2, d’où ∥x−p(x)∥=0, ce qui permet de conclure.
Exercice 134 ⭐️⭐️ Centrale, Spé/L2
Soit A=(ai,j)∈On(R). Montrer que ∣∣∣∣∣∣i,j∑ai,j∣∣∣∣∣∣≤n.
Réflexes
Somme, orthogonalité 👉 Cauchy-Schwarz !
Écrire des sommes, produits scalaires, etc. sous forme matricielle (Ne pas oublier que ce bon vieux vecteur (1,⋯,1) rend souvent bien des services 🤝)
Corrigé
On peut écrire i,j∑ai,j=uTAu=⟨u,Au⟩ où uT=(1,⋯,1) et ⟨⋅,⋅⟩ est le produit scalaire canonique. Par Cauchy-Schwarz, on obtient ∣∣∣∣∣∣i,j∑ai,j∣∣∣∣∣∣≤∥u∥∥Au∥=∥u∥2=n car A étant dans le groupe orthogonal ∥Au∥=∥u∥.
Exercice 135 ⭐️⭐️⭐️ Distance d’un vecteur à un sous-espace, Spé/L2/Classique
Soit (E,(⋅,⋅)) un espace pré-hilbertien réel et B=(e1,⋯,en) une famille de E. On suppose que B est libre et on note d la distance de x∈E à Vect(B). Montrer que d2=∣Gram(B)∣∣Gram(x,B)∣, où ∣Gram(f1,⋯,fn)∣ est le déterminant de la matrice de Gram de la famille (f1,⋯,fn). Retrouver la formule connue si B est une famille orthonormale.
Corrigé
Cet exercice très classique est bien corrigé sur cette page wikipedia.
Soit I un intervalle de R et w:I→R+∗ une fonction continue par morceaux telle que ∫I∣x∣nw(x)dx<∞ pour tout n≥0. Soit E l’espace vectoriel des fonctions continues sur I telles que ∫If(x)2w(x)dx<∞.
Montrer que (p,q)↦⟨p,q⟩w=∫Ip(x)q(x)w(x)dx définit un produit scalaire sur E.
Montrer qu’il existe une unique suite de fonctions polynomiales (pn(x))n≥0 telle que :
Pour tout n≥0, pn est de degré exactement égal à n et de coefficient dominant kn>0,
la famille (pn)n≥0 est orthonormale pour ⟨⋅,⋅⟩w.
Soit q:I→R polynomiale de degré ≤n−1. Montrer que ⟨pn,q⟩w=0.
On note kn>0 le coefficient dominant de pn et, pour n≥1, an=kn−1kn. Montrer qu’il existe deux suites (bn)n≥2 et (cn)n≥2 telles que pn(x)=(anx+bn)pn−1(x)−cnpn−2(x).
Montrer que cn=kn−12knkn−2. Montrer la formule : ∀x=y∈I, k=0∑npk(x)pk(y)=kn+1knx−ypn+1(x)pn(y)−pn(x)pn+1(y).
On suppose que pn+1 s’annule au moins deux fois sur I. Soient a<b deux zéros consécutifs de pn+1. Montrer que pn(a)pn(b)<0.
Si on suppose que pn+1 possède n+1 racines distinctes dans I, que dire des racines de pn ?
Réflexes
On a une famille de polynômes (pn)n≥0 étagée 👉 chaque sous-famille (pk)0≤k≤n est une base de Rn(X).
f(a)f(b)<0 👉 on a envie d’appliquer le TVI !
Corrigé
Si f,g∈E, alors l’inégalité élémentaire ∣ab∣≤2a2+b2 permet d’écrire que ∫I∣f(x)g(x)∣w(x)dx≤21(∫If(x)2w(x)dx+∫Ig(x)2w(x)dx), ce qui prouve que le produit scalaire ⟨f,g⟩w est bien défini. La bilinéarite, la symétrie et la positivité découlent immédiatement des propriétés de l’intégrale. Enfin, si f∈E est telle que ⟨f,f⟩w=0, alors ∫If(x)2w(x)dx=0. Or x↦f(x)2w(x) est continue et positive sur l’intervalle I, on en déduit que c’est la fonction identiquement nulle. Comme w>0 sur I, on en déduit que f(x)=0 pour tout x∈I.
La condition d’intégrabilité ∫Ixnw(x)dx<∞ implique qu’on a ∫IR(x)w(w)dx>∞ pour toute fonction polynomiale R:I→R. Ainsi toutes les fonctions polynomiales sont dans E. La construction de la suite pn se fait par récurrence sur n suivant le procédé d’orthonormalisation de Gram-Schmidt à partir de la base canonique de R[X].
Comme la famille des (pn)n≥0 est étagée, on sait que la sous-famille (pk)0≤k≤n forme une base de l’espace vectoriel Rn(x), cette notation un peu abusive désignant l’espace vectoriel des restrictions à I des fonctions polynomiales de degré au plus n. En particulier, si q∈Rn−1(x), alors on peut écrire q(x)=k=0∑n−1αkpk(x) pour une certaine famille de coefficients réels α0,…,αn−1. La propriété de bilinéarité et le fait que ⟨pn,pk⟩w=0 pour tout k<n permettent de déduire que ⟨pn,q⟩w=0.
Pour n≥1, on note ln le coefficient devant xn−1 dans pn(x). Ainsi pour n≥2, on a pn(x)=knxn+lnxn−1+rn(x), où rn(x)∈Rn−2(x). On pose maintenant an=kn−1kn,bn=kn−1ln−kn−12knln−1. Ces coefficients ont été choisis de telle sorte que (anx+bn)pn−1(x)=(kn−1knx+kn−1ln−kn−12knln−1)(kn−1xn−1+ln−1xn−2+rn−1(x))=knxn+lnxn−1+sn(x), avec sn(x)∈Rn−2(x). Ainsi pn(x)−(anx+bn)pn−1(x)∈Rn−2(x). Il existe donc des coefficients α0,…,αn−2 tels que pn(x)−(anx+bn)pn−1(x)=k=0∑n−2αkpk(x). Pour répondre à la question, il reste à montrer que αk=0 pour tout k<n−2. Comme la famille (pn)n≥0 est orthonormale, on a αk=⟨pn(x)−(anx+bn)pn−1(x),pk(x)⟩w. Comme k<n−1 et k<n, on a ⟨pn,pk⟩w=⟨pn−1,pk⟩w=0, donc αk=an⟨xpn−1(x),pk(x)⟩w. La forme particulière de ce produit scalaire permet d’écrire la jolie formule suivante : ⟨fg,h⟩w=⟨f,gh⟩w. On peut donc écrire que αk=−an⟨pn−1(x),xpk(x)⟩w=0, car xpk(x)∈Rn−2(x).
Avec les notations de la question précédente, on veut calculer cn=−αn−2 et on a αk=−an⟨pn−1(x),xpn−2(x)⟩w. Or le terme en xn−1 du polynôme xpn−2(x)−kn−1kn−2pn−1(x) vaut kn−2−kn−1kn−2kn−1=0, donc xpn−2(x)=kn−1kn−2pn−1(x)+sn−2(x), avec sn−2(x)∈Rn−2(x). En particulier, on a ⟨pn−1(x),xpn−2(x)⟩w=kn−1kn−2 donc cn=−αn−2=ankn−1kn−2=kn−12knkn−2.
On fixe x=y∈I et on montre la formule par récurrence sur n≥0. On remarque tout d’abord que, comme p0∈R0(x) et p1∈R1(x), on peut écrire p0(x)=k0 et p1(x)=k1x+l1. On a alors p0(x)p0(y)=k02 et k1k0x−yp1(x)p0(y)−p1(y)p0(x)=k1k02x−y(k1x+l1)−(k1y+l1)=k02, la formule est donc vraie au rang 0. Pour prouver l’hérédité, on remarque tout d’abord, en utilisant la formule de la question 4, que x−ypn+1(x)pn(y)−pn(x)pn+1(y)=an+1pn(x)pn(y)−cn+1x−ypn−1(x)pn(y)−pn(x)pn−1(y). Or on a vu que an+1=knkn+1 et cn+1=kn2kn−1kn+1, on en déduit que pn(x)pn(y)=kn+1knx−ypn+1(x)pn(y)−pn(x)pn+1(y)−knkn−1x−ypn(x)pn−1(y)−pn−1(x)pn(y). En appliquant l’hypothèse de récurrence au deuxième terme du membre de droite, on conclut facilement.
On fixe x∈I et on regarde la limite lorsque y→x dans les deux membres de l’égalité précédente. Pour le membre de gauche, on a y→xlimk=0∑npk(x)pk(y)=k=0∑npk(x)2≥0. L’inégalité est même stricte car k=0∑npk(x)2≥p0(x)2=k02>0. Les fonctions pk sont continues car polynomiales. Pour le membre de droite, on reconnaît presque un taux d’accroissement… on ruse un peu en écrivant : x−ypn+1(x)pn(y)−pn(x)pn+1(y)=−pn+1(x)y−xpn(y)−pn(x)+pn(x)y−xpn+1(y)−pn+1(x), qui converge vers pn(x)pn+1′(x)−pn+1(x)pn′(x) lorsque y→x. On obtient donc (car kn,kn+1>0) l’inégalité voulue.
D’après la question précédente, on a pn(a)pn+1′(a)>0 et pn(b)pn+1′(b)>0. Supposons que pn+1′(a) et pn+1′(b) soient de même signe, par exemple positifs. Alors il existerait c<d∈]a,b[⊂I tels que pn+1(c)>0 et pn+1(d)<0. Cela se déduit de la continuité de pn+1′ (qui implique que cette fonction est postivive sur un voisinage de a et sur un voisinage de b), puis d’une formule de Taylor. Le théorème des valeurs intermédiaires donnerait alors l’existence d’un certain e∈[c,d]⊂]a,b[ tel que pn+1(e)=0, ce qui est une contradiction. Ainsi pn+1′(a) et pn+1′(b) sont de signe opposé, et on en déduit que pn(a) et pn(b) sont aussi de signe opposé.
Si on note z1<⋯<zn+1∈I les racines de pn+1, la question précédente permet d’écrire que pn(zi)pn(zi+1)<0 pour tout 1≤i≤n. Le théorème des valeurs intermédiaires donne alors l’existence d’un certain yi∈]zi,zi+1[ tel que pn(yi)=0. On a trouvé n racines au polynôme pn, qui sont deux à deux distinctes car construites dans des intervalles disjoints. Comme pn est de degré n, on sait qu’il n’y en a pas d’autres. Ainsi, le polynôme pn est scindé à racines simples,toutes dans I, et de plus les racines de pn et celles de pn+1 sont entrelacées.
BONUS : une preuve simple et directe que pn possède n racines distinctes dans I. Si ce n’était pas le cas, la fonction polynomiale pn changerait de signe en un nombre de points l<n (qui sont les racines de pn de multiplicité impaire). Soient x1<…<xl ces points de changement de signe et q:I→R la fonction polynomiale définie par q(x)=(x−x1)⋯(x−xl). Par construction, la fonction x↦pn(x)q(x) est de signe constant sur I, et de plus elle est non identiquement nulle (il suffit de l’évaluer ailleurs qu’en une racine). On a alors ∫Ipn(x)q(x)w(x)dx=0. Or q est une fonction poynomiale de degré l<n, d’après la question 3 on a alors ∫Ipn(x)q(x)w(x)dx=0, ce qui est une contradiction.
Exercice 344 ⭐️⭐️⭐️ Matrices de Householder, décomposition QR, Spé/L2
On se place dans l’espace Rn muni du produit scalaire canonique. Pour tout vecteur colonne v=0, on définit la matrice de Householder Hv=I−2∥v∥2vvT. On pose également H0=I.
Montrer que Hv est symétrique et orthogonale.
Que vaut Hv(v) ? Et Hv(w) pour w∈Vect(v)⊥ ? Donner une interprétation géométrique de la transformation associée à Hv.
Soient a=b deux vecteurs tels que ∥a∥=∥b∥. On pose v=a−b. Calculer Hv(a).
Soit M∈Mn(R). Montrer qu’il existe une matrice de Householder Hv telle que HvM=⎝⎜⎜⎜⎜⎛α10⋮0⋆⋆⋮⋆⋯⋯⋆⋆⋮⋆⎠⎟⎟⎟⎟⎞, avec α1∈R.
Montrer qu’il existe des matrices orthogonales Q1,…,Qn telles que pour tout 1≤k≤n, on a Qk⋯Q1M=(Tk0⋆⋆), où Tk est triangulaire supérieure de taille k. On pourra chercher Qk de la forme Qk=(I00Hvk) avec vk∈Rn−k.
Montrer que toute matrice M∈Mn(R) se décompose sous la forme QR avec Q orthogonale et R triangulaire supérieure.
Réflexes
Corrigé
On calcule la transposée de Hv : HvT=I−2∣∣v∣∣2(vvT)T=I−2∣∣v∣∣2(vT)TvT=I−2∣∣v∣∣2vvT=Hv, donc Hv est symétrique. De plus, on a : HvHvT=Hv2=(I−2∣∣v∣∣2vvT)2=I−4∣∣v∣∣2vvT+4∣∣v∣∣4vvTvvT. Or vvTvvT=v(vTv)vT=∣∣v∣∣2vvT, et on obtient bien HvHvT=I, donc Hv est orthogonale.
On a Hv(v)=v−2∣∣v∣∣2vvTv=v−2∣∣v∣∣2∣∣v∣∣2v=−v. Si w∈Vect(v)⊥, on a Hv(w)=w−2∣∣v∣∣2v(vTw)=w. On peut donc interpréter géométriquement la transformation associée à Hv comme la symétrie d’hyperplan Vect(v)⊥.
On a Hv(a)=a−2∣∣a−b∣∣2(a−b)((a−b)Ta)=a−2∣∣a−b∣∣2∣∣a∣∣2−bTa(a−b). Or : ∣∣a−b∣∣2=(a−b)T(a−b)=∣∣a∣∣2+∣∣b∣∣2−bTa−aTb=2∣∣a∣∣2−2bTa, on a donc : Hv(a)=a−(a−b)=b.
On note x la première colonne de M et e1 le premier vecteur de la base canonique de Rn. Si x est colinéaire à e1, il suffit de choisir Hv=I, c’est-à-dire v=0. Sinon, on pose v=x−∣∣x∣∣e1. Ce choix particulier de v s’explique par le résultat de la question précédente. En effet, ∣∣x∣∣=∣∣∣∣x∣∣e1∣∣ donc Hvx=∣∣x∣∣e1, et on a bien HvM de la forme souhaitée, avec α1=∣∣x∣∣.
On raisonne par récurrence bornée sur k. Pour k=1, il suffit d’utiliser le résultat de la question précédente et de poser Q1=Hv. Supposons qu’on a une décomposition de la forme Qk⋯Q1M=(Tk0⋆Mk), avec Tk triangulaire supérieure de taille k et Mk∈Mn−k(R). On a alors, pour toute matrice H∈Mn−k(R), (I00H)Qk⋯Q1M=(Tk0⋆HMk). D’après la question 4, on peut trouver une matrice de Householder Hv∈Mn−k(R) telle que HvMk=⎝⎜⎜⎜⎜⎛αk+10⋮0⋆⋆⋮⋆⋯⋯⋆⋆⋮⋆⎠⎟⎟⎟⎟⎞, et on a donc (I00Hv)Qk⋯Q1M=(Tk+10⋆Mk+1) avec Tk+1 triangulaire supérieure de taille k+1 et Mk+1∈Mn−(k+1)(R).On conclut en remarquant que la matrice Qk+1=(I00Hv) est bien orthogonale.
On applique le résultat de la question précédente au cas où k=n : il existe R triangulaire supérieure et Q1,…,Qn orthogonales telles que Qn⋯Q1M=R. On multiplie à droite et à gauche par Q=Q1T⋯QnT, qui est aussi orthogonale, et on obtient la décomposition voulue : M=QR.
Exercice 369 ⭐️⭐️⭐️ Théorème de Von Neumann, Spé/L2
Soient E un espace vectoriel euclidien et f une isométrie vectorielle de E. On pose g=f−idE.
Montrer que Im(g)=(Ker(g))⊥.
Pour n∈N∗, on note un la moyenne des n premières itérées de f : un=n1k=0∑n−1fk. Montrer que pour tout x∈E, un(x) converge vers le projeté orthogonal de x sur Ker(g).
Exemple. On considère r∈L(R3) la rotation vectorielle d’angle π/3 autour de l’axe orienté par le vecteur u=(1,1,1). Pour un vecteur v=(x,y,z)∈R3, calculer n→∞limn1(v+r(v)+r2(v)+⋯+rn−1(v)).
Réflexes
Orthogonalité des vecteurs de Im(g) avec ceux de ker(g), pour obtenir une inclusion. Egalité des dimensions.
Projeté orthogonal 👉 Décomposition d’un vecteur selon les deux supplémentaires orthogonaux.
Calcul du projeté orthogonal d’un vecteur sur un sous-e.v. 👉 Prendre une b.o.n. et appliquer la formule.
Corrigé
Soit x∈Im(g) et y∈Ker(g). Traduisons ces hypothèses : ∃z∈E:x=f(z)−z,et f(y)=y.
Ainsi ⟨x,y⟩=⟨f(z),y⟩−⟨z,y⟩=⟨f(z),f(y)⟩−⟨z,y⟩=⟨z,y⟩−⟨z,y⟩(car f∈O(E))=0 Ceci montre que Im(g)⊂(Ker(g))⊥. Par ailleurs ces deus sous-e.v. de E sont de même dimension, égale à dim(E)−dim(Ker(g)), donc ils sont égaux.
Comme l’orthogonal de ker(g) est Im(g), le projecteur orthogonal p sur ker(g) est caractérisé par : {∀x∈ker(g),p(x)=x,∀x∈Im(g),p(x)=0E. Il suffit donc de vérifier que {∀x∈ker(g),un(x)→x,∀x∈Im(g),un(x)→0E.∙ Soit x∈ker(g). Alors f(x)=x et par récurrence immédiate, fk(x) pour tout k∈N. Ainsi n1k=0∑n−1fk(x)=n1k=0∑n−1x=x∙ Soit x∈Im(g). Alors il existe z∈E tel que x=f(z)−z. Alors n1k=0∑n−1fk(x)=n1k=0∑n−1fk+1(z)−fk(z)=n1(fn(z)−z) Or ∥∥∥∥∥n1(fn(z)−z)∥∥∥∥∥≤n1(∥f(z)∥+∥z∥)=n2∥z∥→0, donc n1(fn(z)−z)→0E.
r est bien une isométrie vectorielle de R3, et ker(r−id) est l’ensemble des vecteurs invariants par r, ici Vect(u). Cette limite est donc égale au projeté orthogonal de v sur Vect(u), égal à : ⟨v,∥u∥u⟩∥u∥u=3x+y+z(1,1,1).
Soit E un espace euclidien de dimension n. Soit F l’ensemble des applications continues de E dans R telles que pour tout x,y∈E avec x⊥y on a f(x+y)=f(x)+f(y).
Soit f∈F paire. Monter qu’il existe a∈R tel que pour tout x∈E, f(x)=a∥x∥2.
Soit f∈F impaire. Monter qu’il existe c∈E tel que pour tout x∈E, f(x)=⟨c,x⟩.
Déterminer F et sa dimension.
Réflexes
Assertion vraie pour tout couple de vecteurs orthogonaux 👉 Construire un maximum de vecteurs orthogonaux, base canonique, faire des dessins avec des triangles rectangles inscrits dans un cercle, etc. ; Tester l’identité sur ces vecteurs.
Continuité 👉 Passer à la limite dans f, calculer avec des entiers, des rationnels, et utiliser la densité des rationnels ?
Corrigé
Soit x,x′∈E des vecteurs orthogonaux de même norme. Alors ⟨x+x′,x−x′⟩=∥x∥2−∥x′∥2=0. Posons y=x+x′ et y′=x−x′, qui sont donc des vecteurs orthogonaux. On a donc : f(2x)f(2x′)=f(y)+f(y′)=f(y)+f(−y′). Utilisons maintenant l’hypothèse que f est paire : il vient f(y′)=f(−y′). Ainsi f(2x)=f(2x′). Comme x et x′ sont orthogonaux de norme et direction arbitraires, on en déduit que si on prend n’importe quel vecteur z′ orthogonal à z et de même norme que z, on a f(z)=f(z′). En particulier f est constante sur la base canonique (e1,⋯,en). Comme on a : f(i=1∑nαiei)=i=1∑nf(αiei), pour conclure il suffirait que f(αiei)=αi2f(ei) car f(e1)=⋯=f(en). Voyons humblement ce qu’on peut déjà faire.
On se donne x∈E et x′ un vecteur orthogonal à x et de même norme que x. Alors d’après ce qui précède : f(2x)=f(x+x′)+f(x−x′)=2f(x+x′)=2(f(x)+f(x′))=4f(x). Montrons par récurrence sur n≥2 que f(nx)=n2f(x). Le cas n=1 est immédiat et le cas n=2 est fait au paragraphe du dessus.
Prouvons l’hérédité : pour x′ orthogonal et de même norme que x, on remarque que les vecteurs x+nx′ et nx−x′ sont orthogonaux, donc f(x+nx′+nx−nx′)=f(x+nx′)+f(nx−x′)=f(x)+f(nx′)+f(nx)+f(x′). En utilisant l’hypothèse de récurrence et le fait que f(x)=f(x′), on obtient f(x+nx′+nx−x′)=2(n2+1)f(x). Mais d’un autre côté, on a f(x+nx′+nx−nx′)=f((n+1)x)+f((n−1)x′)=f((n+1)x)+(n−1)2f(x), toujours par l’hypothèse de récurrence. Il vient alors f((n+1)x)=(2(n2+1)−(n−1)2)f(x)=(n+1)2f(x). La suite semble plus simple… Pour tout x∈E et tout entier n≥1 on a f(x)=f(nnx)=n2f(nx), donc f(nx)=n21f(x). Etape suivante : si p/q est rationnel, on a f(qpx)=q21f(px)=q2p2f(x). Ainsi on a montré que f(λx)=λ2f(x) pour tout x∈E et λ∈Q (on a montré pour λ positif mais on prolonge par parité). Pour conclure, soit λ∈R et (λn) une suite de rationnels convergeant vers λ. La fonction λ↦f(λe1) est continue sur R, donc f(λe1)=n→∞limf(λne1)=n→∞limλn2f(e1)=λ2f(e1), ce qu’on voulait, et permet de conclure car ∥∥∥∥∥∥i=1∑nαiei∥∥∥∥∥∥2=i=1∑nαi2.
Exercice 412 ⭐️⭐️ Hyperplans stables, Spé/L2
Soit A∈Mn(R). Montrer que A est diagonalisable si et seulement si sa transposée AT est diagonalisable.
Soit F un sous-espace vectoriel stable par A. Montrer que F⊥ est stable par AT.
On suppose que A est diagonalisable dans Mn(R). On note (v1,…,vn) une base de diagonalisation pour AT et, pour 1≤i≤n, on pose Hi=vi⊥. Montrer que les Hi sont des hyperplans stables par A et que i=1⋂nHi={0}.
Réciproquement, suppose qu’il existe n hyperplans H1,…,Hn stables par A tels que i=1⋂nHi={0}. Montrer que A est diagonalisable.
Réflexes
Si on écrit proprement les définitions, on se rapproche de la solution (cela sonne comme un vieux proverbe).
Corrigé
Question assez classique… On peut par exemple remarquer que les polynômes annulateurs de A sont exactement ceux qui annulent AT. En particulier, A et AT ont le polynôme minimal et on sait que A (et donc AT) est diagonalisable si et seulement si celui-ci est scindé à racines simples sur R.
Soit x∈F⊥. Il s’agit de montrer que ATx∈F⊥, c’est-à-dire que ⟨ATx,z⟩=0 pour tout z∈F. Or on a : ⟨ATx,z⟩=⟨x,Az⟩=0. On a utilisé la définition d’un adjoint et le fait que x∈F⊥ et Az∈F.
Soit Di=vect(vi). On sait que Hi=Di⊥, et comme dim(Di)=1, on a dimHi=n−dim(Di)=n−1. Ainsi Hi est un hyperplan. La stabilité de Hi par A résulte du résultat de la question 2 appliqué à F et AT. Soit maintenant x∈i=1⋂nHi. On a ⟨x,vi⟩=0 pour tout 1≤i≤n. Par linéarité, on a pour toute combinaison linéaire : ⟨x,i=1∑nαivi⟩=0. Mais comme (v1,…,vn) engendre Rn, on a ⟨x,z⟩=0 pour tout z∈Rn, d’où on déduit que x=0.
Pour tout 1≤i≤n, on a Dim(Hi⊥)=1, il existe donc un vecteur vi tel que Hi=vi⊥. Or Hi est stable par A, donc par la question 2, Hi⊥ est stable par AT. En particulier, ATvi∈Vect(vi), donc ATvi=λivi pour une certaine constante λi∈R. Autrement dit, vi est un vecteur propre de AT associé à la valeur propre λi. Il reste à montrer que la famille (v1,…,vn) est libre. Supposons par exemple qu’on puisse écrire vn=i=1∑n−1αivi. Soit z=0 orthogonal à Vect(v1,…,vn−1). Un tel z existe pour des raisons de dimension, et on a z∈i=1⋂n−1Hi. On a aussi : ⟨z,vn⟩=i=1∑n−1αi⟨z,vi⟩=0, donc z∈Hn. On a ainsi montré que i=1⋂nHi={0}, ce qui est contradictoire. Ainsi la famille (v1,…,vn) est libre, c’est donc une base de Rn et on a vu qu’elle est formée de vecteurs propres pour AT. On vient de montrer que AT est diagonalisable, et par la question 1, on peut conclure que A est diagonalisable.
Soit A∈Mn(R) une matrice symétrique réelle. Soit (v1,…,vn) une base orthonormale de Rn diagonalisant A et λ1,…,λn les valeurs propres associées.
Montrer que A=i=1∑nλiviviT.
Montrer que (ComA)T=i=1∑n⎝⎛k=i∏λk⎠⎞viviT.
Montrer que, pour λ∈R, (Com(λI−A))T=i=1∑n⎝⎛k=i∏(λ−λk)⎠⎞viviT.
Soit Mj le j-ème mineur principal de A, i.e. la matrice A privée de sa j-ème ligne et j-ème colonne. Montrer que son polynôme caractéristique vaut : χMj(λ)=i=1∑n⎝⎛k=i∏(λ−λk)⎠⎞vi(j)2.
En déduire qu’on peut connaître, au signe près, les coefficients des vecteurs propres de A uniquement à partir des valeurs propres de A et de ses mineurs.
BIG Lucas
Cet exercice a été concocté à partir d’un article de recherche co-écrit par notre très cher Terry, mais il est aussi tombé à l’oral X 2020 (!) Vous trouverez sur ce site, réalisé par Big Lucas avec des étudiant(e)s passionné(e)s, une magnifique base de donnée d’exercices corrigés récents de haut niveau, en accès libre ! Voir aussi la page fb. Thanks and Congrats!!
Corrigé
On note B=i=1∑nλiviviT. Comme (v1,…,vn) est une base de Rn, pour montrer que A=B il suffit de montrer que Avj=Bvj pour tout 1≤j≤n. Or on a Avj=λjvj. De plus viTvj=⟨vi,vj⟩, donc viTvj vaut 1 si i=j et 0 sinon. Ainsi Bvj=λjvj(vjTvj)=λjvj et on a montré que Avj=Bvj.
Notons C=i=1∑n⎝⎛k=i∏λk⎠⎞viviT. Supposons d’abord que A est inversible. On a alors (ComA)T=det(A)A−1, il suffit alors de montrer que CA=det(A)I. Or on a : CA=i=1∑nj=1∑n⎝⎛k=i∏λk⎠⎞λjviviTvjvjT. Comme à la question précédente, on remarque que viTvj vaut 0 si i=j et 1 si i=j, donc CA=i=1∑n⎝⎛k=i∏λk⎠⎞λiviviT=(k=1∏nλk)i=1∑nviviT. On sait que det(A)=k=1∏nλk, et de plus en appliquant la première question à la matrice A=I, on montre que I=i=1∑nviviT.
Dans le cas où A n’est pas inversible, on peut raisonner par densité des matrices inversibles, et remarquer que les applications (ai,j)1≤i,j≤n↦(ComA)T et (ai,j)1≤i,j≤n↦i=1∑n⎝⎛k=i∏λk⎠⎞viviT sont continues. Si on n’est pas à l’aise avec la continuité des éléments propres par rapport aux coefficients, la question suivante permet de s’en sortir de façon plus élémentaire.
La matrice λI−A est diagonalisable dans la même base orthonormée (v1,…,vn) et ses valeurs propres associées sont λ−λ1,…,λ−λn. On peut donc appliquer le résultat de la question 2 pour conclure.
Dans l’équation matricielle prouvée à la question précédente, on regarde l’égalité entre les coefficients (j,j). Par définition de la comatrice, on sait que le coefficient (j,j) de Com(λI−A)T est exactement le déterminant du mineur det(λI−Mj). C’est donc la polynôme caractéristique de Mj évalué en λ. De plus, le produit viviT est une matrice carrée dont le coefficient (k,l) vaut vi(k)vi(l). En particulier, le coefficient (j,j) de i=1∑n⎝⎛k=i∏(λ−λk)⎠⎞viviT vaut i=1∑n⎝⎛k=i∏(λ−λk)⎠⎞vi(j)2, ce sui répond à la question.
La matrice Mj est symétrique réelle, donc diagonalisable. On note λ1(Mj),…,λn−1(Mj) ses valeurs propres (pas nécessairement distinctes). On a alors χMj(λ)=l=1∏n−1(λ−λl(Mj)). On applique le résultat de la question précédente à λ=λi : tous les termes de la somme de droite deviennent nuls, sauf un. On obtient : l=1∏n−1(λi−λl(Mj))=k=i∏(λi−λk)vi(j)2, et on a effectivement exprimé vi(j)2 (donc ∣vi(j)∣) uniquement en fonction des λi et des λl(Mj).
Remarque — Cette propriété assez méconnue a été “redécouverte” très récemment par, entre autres, le célèbre mathématicien Terry Tao. On peut trouver d’autres preuves ici.
Exercice 418 ⭐️⭐️ Transformation dans R3, Spé/L2
Déterminer géométriquement l’application f dont la matrice dans une base orthonormale directe est A=91⎝⎛7−44−418481⎠⎞.
Réflexes
La matrice A est symétrique, cela peut beaucoup aider !
Corrigé
Montrons tout d’abord que A est une matrice orthogonale. Cela se déduit des calculs suivants : −7.4−4.1+4.8=0,7.4−4.8+4.1=0,−4.4+1.8+8.1=0,
et 72+44+42=42+12+82=42+82+12=81=92.
On a donc bien A∈O3(R). De plus A est symétrique à coefficients réels, donc elle est diagonalisable dans une base orthonormale. Comme on a I=AAT=A2, on sait de plus que ses valeurs propres valent 1 ou −1. Enfin, comme tr(A)=1, on en déduit que 1 est valeur propre de multiplicité 2 et −1 est valeur propre de multiplicité 1 : il existe donc une base orthonormale (u,v,w) avec f(u)=u, f(v)=v et f(w)=−w. On peut alors interpréter f comme la symétrie de plan w⊥. Il reste à calculer w, pour cela on résout l’équation AW=−W, et on obtient w=31⎝⎛12−2⎠⎞. (Le coefficient 31 n’est là que pour avoir ∥w∥2=1).
Exercice 438 ⭐️⭐️ Orthgonal non supplémentaire, MP/L2
Soit E=C([−1,1],R) muni du produit scalaire défini par ⟨f,g⟩=∫−11f(t)g(t)dt. On pose F={f∈E:∀t∈[−1,0],f(t)=0}, et G={g∈E:∀t∈[0,1],g(t)=0}.
Montrer que ceci définit bien un produit scalaire sur E.
Montrer que F⊥=G.
Les sous-espaces vectoriels F et G sont-ils supplémentaires dans E ?
Réflexes
C’est comme une récitation de poésie. On déroule : bilinéaire symétrique définie-positive.
Double inclusion.
Ils sont en somme directe, mais la question à se poser : peut-on obtenir toute fonction h∈E en faisant une somme f+g, avec f∈F et g∈G ?
Corrigé
C’est un produit scalaire très classique alors on ne détaille pas tout ici. ∙ La symétrie, bilinéarité et la positivité sont assez immédiates. ∙ Soit f∈E tel que <f,f>=∫−11f2=0. Comme f2 est positive, continue sur [−1;1], on en déduit que : ∀t∈[−1;1],f(t)2=0, donc f(t)=0. Ainsi f=0E.
∙ On montre d’abord l’inclusion facile : F⊂G⊥.
Soit f∈F. Pour g∈G, fg est nulle sur [−1;0] et sur [0;1], donc <f,g>=∫−11fg=0. Ainsi f∈G⊥. ∙ Montrons maintenant que G⊥⊂F.
Soit f∈G⊥. On considère g:t↦{tf(t),0, si t≤0; si t>0..
Comme g∈G, on a ∫−11fg=∫−10tf(t)2dt=0. Or t↦tf(t)2 est négative et continue sur [−1;0], donc : ∀t∈[−1;0],tf(t)2=0. On en déduit que f s’annule sur [−1;0[. Comme f est continue on a également f(0)=0. Finalement f∈F.
Clairement pas, puisque F+G⊂{f∈E:f(0)=0}. On a donc F+G=E.
Remarque. Cet exercice illustre le fait que si F est un sous-e.v. de E préhilbertien, et que F n’est pas supposé de dimension finie, alors rien ne garantit que F⊕F⊥=E.
Exercice 454 ⭐️ Projecteurs orthogonaux, Sup/L1
Soit E un espace de dimension 3 et B=(,,k) une B.O.N. de E.
Déterminer la matrice dans la base B du projecteur orthogonal sur la droite vectorielle D dirigée par −3k.
De même pour le projecteur orthogonal sur le plan vectoriel P=Vect(−,+k).
Réflexes
On a une b.o.n. de F 👉 il existe une formule pour le projeté orthogonal d’un vecteur sur F.
Corrigé
Exercice 455 ⭐️ Orthonormalisation dans R2[X], Sup/L1
Pour P,Q∈R2[X], on pose (P,Q)=k=0∑2P(k)Q(k).
Montrer que (⋅,⋅) définit un produit scalaire sur R2[X].
Soit la droite vectorielle F=Vect(X). Donner une base orthogonale de F⊥
Orthonormaliser la famille (1,X,X2).
Réflexes
As usual
Gram-Schmidt !
Corrigé
Exercice 471 ⭐️ Spé/L2
Soit (E,<.,.>) un espace euclidien de dimension n, et (a,b) une famille libre de E.
Montrer que l’application ϕ:E→E définie par ϕ(x)=<x,b>a+<x,a>b est un endomorphisme de E. Déterminer son image et son noyau.
Trouver les valeurs propres de ϕ. L’endomorphisme ϕ est-il symétrique ?
Réflexes
Corrigé
Vérifier que pour x,y∈E et λ,μ∈R, ϕ(λx+μy)=λϕ(x)+μϕ(y).
Comme (a,b) est libre, ϕ(x)=0⇔<x,a>=<x,b>=0⇔x∈F⊥, où F=Vect(a,b). Ainsi ker(ϕ)=F⊥. ∀x∈[a;b], ϕ(x)∈F, donc im(ϕ)⊂F.
Par ailleurs dim(F)=2 et dim(im(ϕ))=n−dim(F⊥)=2, donc im(ϕ)=F.
Soit (e1,…,en−2) une base de F⊥, alors dans la base B=(e1,…,en−2,a,b) de E, ϕ a pour matrice M=(OOOA), où A=(<a,b>∥a∥2∥b∥2<a,b>).
On a χM(t)=tn−2((t−<a,b>)2−∥a∥2.∥b∥2)=tn−2(t−<a,b>−∥a∥.∥b∥)(t−<a,b>+∥a∥.∥b∥). Or d’après Cauchy-Schwarz (cas non colinéaire), <a,b>+∥a∥.∥b∥>0,et<a,b>−∥a∥.∥b∥<0. Donc sp(ϕ)={0,<a,b>+∥a∥.∥b∥,<a,b>−∥a∥.∥b∥}.
Pour x,y∈E, <ϕ(x),y>=<x,b>.<a,y>+<x,a>.<b,y>.
Cette expression est symétrique en x,y, donc ϕ est un endomorphisme symétrique.
Exercice 472 ⭐️ Spé/L2
Soit B=tAA avec A∈M5,10(R). B est-elle diagonalisable ? Admet-elle 0 comme valeur propre ?
Réflexes
De la transposée 👉 Théorème spectral
Corrigé
B∈M10(R), B est symétrique (car tB=tAt(tA)=B), et réelle, donc diagonalisable.
De plus rg(B)≤rg(tA)≤5 : en effet im(B)⊂im(tA).
Comme B est de taille 10, B n’est pas inversible et donc 0 est valeur propre de B.
Exercice 502 ⭐️⭐️ Cauchy Schwarz et intégrales, Spé/L2
On considère l’espace vectoriel E=C0([a,b],R) que l’on munit du produit scalaire ⟨f,g⟩=∫abf(t)g(t)dt.
Démontrer l’inégalité de Cauchy-Schwarz : pour toutes f,g∈E, on a ⟨f,g⟩2≤⟨f,f⟩⟨g,g⟩. Dans quel cas a-t-on égalité ?
Trouver la borne inférieure m=inf{∫abf(t)dt∫abf(t)1dt:f∈P} où P={f∈E:f>0} est l’ensemble des fonctions continues sur [a,b] et à valeurs strictement positives. Pour quelles fonctions f la borne est-elle atteinte ?
Réflexes
Aaaaarchi classique ! La preuve est tellement belle qu’il est interdit de l’oublier.
On cherche à se ramener à la question précédente : on reconnaît le “côté droit” de Cauchy-Schwarz, il ne reste plus qu’à reconstituer le “côté gauche”…
Corrigé
Voici la preuve la plus classique de l’inégalité de Cauchy-Schwarz : on considère la fonction P:R→R+ définie pour tout λ∈R par P(λ)=⟨f+λg,f+λg⟩. La fonction P est à valeurs positives et, en développant le produit scalaire, on remarque que c’est une fonction polynomiale : P(λ)=⟨f,f⟩+2λ⟨f,g⟩+λ2⟨g,g⟩. Comme P≥0, son discriminant est négatif ou nul, ce qui donne l’inégalité 4⟨f,g⟩−4⟨f,f⟩⟨g,g⟩≤0, et on trouve bien l’inégalité de Cauchy-Schwarz ! Il y a égalité lorsque le discriminant du polynôme est nul, c’est-à-dire lorsque le polynôme P possède une racine double. Cela équivaut à écrire qu’il existe λ∈R tel que ⟨f+λg,f+λg⟩=0, autrement dit que f+λg=0 pour un certain λ∈R. On en déduit qu’il y a égalité dans l’inégalité de Cauchy-Schwarz si et seulement si f et g sont colinéaires.
On considère les fonctions u:t→f(t) et v:t↦f(t)1, qui sont toutes les deux dans E. On a : ⟨u,u⟩=∫abf(t)dt,⟨v,v⟩=∫abf(t)1dt. D’après l’inégalité de Cauchy-Schwarz, on a alors ∫abf(t)dt∫abf(t)1dt≥==⟨u,v⟩2(∫abf(t)f(t)1dt)2(b−a)2. Ainsi on a m≤b−a. Pour montrer que m=b−a, il suffit de décrire le cas d’égalité : d’après la question précédente, on a égalité lorsque les fonctions f et f1 sont colinéaires, c’est-à-dire lorsque la fonction f est constante.
Exercice 544 ⭐️⭐️⭐️⭐️ Théorème Spectral, MP/L3
A toute matrice M∈Mn(R), on associe la quantité : J(M)=i=j∑mi,j2.
Soit A∈Sn(R). On considère l’application ϕ:On(R)→R+ définie pour tout P∈On(R) par : ϕ(P)=J(PTAP).
On suppose que a1,2=0. Montrer qu’il existe une matrice P∈On(R) de la forme P=(Rθ00In−2),avec Rθ=(cos(θ)−sin(θ)sin(θ)cos(θ)) telle que b1,2=0, où B=PTAP.
Montrer que pour de telles matrices on a J(B)<J(A).
On suppose maintenant qu’il existe des indices i0=j0 tels que ai,j=0. Montrer, sans calculs, qu’il existe Q∈On(R) telle que a~1,2=0, avec A~=QTAQ.
Déduire des questions précédentes que si ϕ atteint son minimum pour une certaine matrice P∈On(R), alors ϕ(P)=0.
Montrer que ϕ atteint effectivement son minimum sur On(R) et en déduire le théorème spectral (on montrera que On(R) est compact).
Réflexes
Corrigé
Les règles du produit matriciel donnent la formule suivante pour les coefficients de B : bi,j=k,l∑pk,ipl,jak,l. Ici on a i=1 et j=2. Après calculs on obtient donc : 2b1,2=sin(2θ)(a1,1−a1,2)+cos(2θ)a1,2. Il suffit alors de choisir θ tel que tan(2θ)=a1,1−a2,2a1,2 pour conclure. Si a1,1=a2,2, il suffit de choisir θ=4π.
Il s’agit de calculer les autres coefficients bi,j avec i=j. Tout d’abord remarquons que B est symétrique, donc b2,1=0. On calcule maintenant b1,j avec j≥3 : le seul coefficient pl,j non nul est pj,j=1 donc : b1,j=p1,1a1,j+p2,1a2,j=cos(θ)a1,j−sin(θ)a2,j. De la même façon on a : b2,j=sin(θ)a1,j+cos(θ)a2,j. Au final, on a b1,j2+b2,j2=a1,j2+a2,j2. Par symétrie, on a aussi, pour tout j≥3 : bj,12+bj,22=aj,12+aj,22. Si maintenant on a i≥3 et j≥3, alors bi,j=ai,j donc bi,j2=ai,j2. On a ainsi montré que : J(B)=J(A)−2a1,22<J(A).
Soit f l’endomorphsime associé à la matrice A dans la base canonique (e1,…,en). Alors ⟨f(ei0),ej0⟩=ai0,j0=0. La matrice A~ de f dans la base B=(ei0,ej0,e1,…,en) est alors telle que a~1,2=ai0,j0=0. De plus, on a A~=P−1AP où P est la matrice de passage de la base canonique à B. Or ces deux bases sont orthonormées, on sait alors que P∈On(R) comme voulu.
Raisonnons par l’absurde. Supposons qu’il existe P∈On(R) telle que ϕ(P)=On(R)min(ϕ)>0. Soit B=PTAP. Il existe alors un indice bio,j0=0 et d’après les deux questions précédentes, il existe Q1,Q2∈On(R) telles que ϕ(Q1Q2P)<ϕ(P), ce qui contredit la minimalité de ϕ(P).
Montrons que On(R) est une partie compacte de Mn(R). En effet, c’est une partie fermée, comme image réciproque du fermé {In} par l’application continue M↦MTM. De plus, On(R) est bornée, en effet, si on considère la norme ∥M∥=Tr(MTM), on a ∥M∥=1 pour tout M∈On(R). La fonction ϕ est continue sur le compact On(R), donc elle atteint son minimum en une certaine matrice P∈On(R). Supposons que ϕ(P)>0 : on aurait alors une contradiction d’après la question précédente. Ainsi il existe P∈On(R) telle que ϕ(P)=0, c’est-à-dire telle que PTAP est diagonale : c’est exactement l’énoncé du théorème spectral !!!
Exercice 545 ⭐️⭐️⭐️ Polynômes de Laguerre, Spé/L2
On se place sur E=R[X], muni du produit scalaire défini par ⟨P,Q⟩=∫0+∞P(x)Q(x)e−xdx.
On ne demande pas de montrer ici que ceci définit bien un produit scalaire.
On pose pour tout n∈N et x∈R : hn(x)=xne−x, et Ln(x)=n!exhn(n)(x).
En appliquant la formule de Leibniz, montrer que Ln est une fonction polynomiale. Préciser son degré et son coefficient dominant.
Calculer ⟨L0,Xn⟩, pour n∈N.
Montrer que pour tout k∈[[0,n]] il existe Qk∈R[X] tel que pour tout x∈R on ait hn(k)(x)=xn−ke−xQk(x).
Soit n∈N. Etablir que ∀P∈R[X],∀p∈[[0,n]],⟨Ln,P⟩=n!(−1)p∫0+∞hn(n−p)(x)P(p)(x)dx.
En déduire que (L0,L1,…,Ln) est une famille orthonormée pour le produit scalaire ⟨⋅,⋅⟩.
Réflexes
R.A.S.
Intégration par parties.
Leibniz.
Intégration par parties.
Appliquer le résultat précédent comme il faut pour calculer ⟨Lj,Li⟩.
Corrigé
D’après la formule de Leibniz, pour x∈R : Ln(x)=n!exk=0∑n(kn)(−1)kk!n!xke−x.Donc Ln(X)=k=0∑n(kn)k!(−1)kXk.
Ainsi deg(Ln)=n, et Ln a pour coefficient dominant n!(−1)n.
Le calcul de ⟨L0,Xn⟩=∫0+∞xne−xdx est un calcul classique à savoir faire.
Une IPP permet d’obtenir ∀n≥1,In=nIn−1(non détaillé ici).
Comme I0=1, on en déduit aisément par récurrence que ∀n∈N,In=n!.
D’après Leibniz, pour x∈R : exhn(k)(x)=i=0∑k(ik)(n−k+i)!(−1)in!xn−k+i.
D’où la propriété voulue en prenant Qk(X)=i=0∑k(ik)(n−k+i)!(−1)in!Xi.
Soit P∈R[X]. On démontre cette propriété par récurrence sur p.
Cas p=0. ⟨Ln,P⟩=n!1∫0+∞hn(n)(x)P(x)dx, par définition.
Supposons la propriété vérifiée à un rang p≤n−1. Alors, on peut faire une intégration par parties, justifiée par l’existence de limites finies dans le crochet : ⟨Ln,P⟩=n!(−1)p[hn(n−p−1)(x)P(p)(x)]0+∞−n!(−1)p∫0+∞hn(n−p−1)(x)P(p+1)(x)dx=n!(−1)p+1∫0+∞hn(n−(p+1))(x)P(p+1)(x)dx. Détails au sujet des limites :
hn(n−p−1)(0)=0 d’après 5. car n−p−1<n;
x→+∞limhn(n−p−1)(x)P(p)(x)=0 d’après 5. et par croissance comparée.
∙ Montrons que pour i<j, ⟨Lj,Li⟩=0.
On a deg(Li)=i. On peut exprimer ⟨Lj,Li⟩ avec 6. en remplaçant n par j et choisissant P=Li et p=i+1 (on a bien p≤j).
Comme Li(p) est alors la fonction nulle, cette expression donne ⟨Lj,Li⟩=0. ∙ De plus pour P=Ln, en choisissant p=n : P(n)(x)=dxndn(n!(−1)nxn)=(−1)n.
Donc ⟨Ln,Ln⟩=n!(−1)n∫0+∞(−1)nhn(0)(x)dx=n!1∫0+∞xne−xdx=1.
Exercice 546 ⭐️⭐️ Etude d’un endomorphisme, Spé/L2
Soient a,b deux vecteurs d’un espace vectoriel euclidien E de dimension n.
On suppose a et b normés, c’est-à-dire ∥a∥=∥b∥=1.
On définit l’endomorphisme f de E par : f:x↦x−⟨a,x⟩b.
Montrer que si a=b, alors ⟨a,b⟩<1 et en déduire que f est bijective, puis exprimer f−1.
Montrer que si a=b, alors f n’est pas bijective.
Montrer que f est diagonalisable si et seulement si a et b ne sont pas orthogonaux.
Réflexes
inégalité avec un p.s. 👉 Cauchy-Schwarz.
Ensuite, partir de f(x)=0E et essayer d’aboutir à x=0E.
Trouver un vectenur non nul dans ker(f).
Etude des éléments propres : écrire f(x)=λx, puis réfléchir aux solutions.
Corrigé
Supposons a=b.
On a ⟨a,b⟩≤∥a∥.∥b∥=1, or a et b ne sont pas positivement liés (sinon on aurait a=b car ils sont normés). Donc d’après le cas d’égalité dans Cauchy-Schwarz, l’inégalité ci-dessus est stricte.
Comme E est de dimension finie (euclidien), il suffit pour montrer que f est bijective de vérifier que ker(f)={0E}.
Soit x∈ker(f). On a x=⟨a,x⟩b.
En faisant le produit scalaire avec a des deux côtés, il vient ⟨a,x⟩=⟨a,x⟩⟨a,b⟩.
Donc (1−⟨a,b⟩)⟨a,x⟩=0, mais 1−⟨a,b⟩=0 donc ⟨a,x⟩=0.
Ainsi x=⟨a,x⟩b=0E. Ceci montre bien que ker(f)={0E}.
Soit y∈E. Le vecteur x=f−1(y) vérifie f(x)=x−⟨a,x⟩b=y.
En faisant le produit scalaire avec a des deux côtés, il vient ⟨a,x⟩(1−⟨a,b⟩)=⟨a,y⟩.
Donc ⟨a,x⟩=1−⟨a,b⟩⟨a,y⟩ et finalement : x=y+1−⟨a,b⟩⟨a,y⟩b. Conclusion. Pour tout y∈E, f−1(y)=y+1−⟨a,b⟩⟨a,y⟩b
Supposons a=b.
On peut remarquer que f(a)=a−⟨a,a⟩a=0E car ∥a∥=1.
Or a=0E (toujours car ∥a∥=1), donc ker(f)={0E} et donc f est non injective.
Etudions les éléments propres de f.
Soit x∈E et λ∈R. On a les implications : f(x)=λx⇒⟨a,x⟩b=(1−λ)x⇒⟨a,x⟩[⟨a,b⟩−(1−λ)]=0.Si x est un vecteur propre (non nul, donc) associé à une valeur propre λ∈R, on a donc λ=1−⟨a,b⟩ ou ⟨a,x⟩=0 (dans ce cas f(x)=x et donc λ=1).
Ainsi :
si ⟨a,b⟩=0, le spectre de f est {1}, et f(x)=x⇔⟨a,x⟩b=0E⇔⟨a,x⟩=0. Donc E1(f)=(Vect(a))⊥=E, et donc f n’est pas diagonalisable.
Si ⟨a,b⟩=0, alors 1 est toujours valeur propre avec dim(E1(f))=dim(Vect(a))⊥=n−1.
De plus f(b)=b−⟨a,b⟩b=(1−⟨a,b⟩)b, donc λ0=1−⟨a,b⟩ est valeur propre.
Comme dim(E1(f))=n−1, on a nécessairement dim(Eλ0(f))=1, et f est diagonalisable car la somme des dimensions des sous-espaces propres vaut n.
Exercice 580 ⭐️⭐️⭐️ Un parfum d’Einstein…, Spé/L2/L3
Dans R4, on définit la forme quadratique Φ par Φ(x,y,z,t)=t2−x2−y2−z2. Soient v et w deux vecteurs de R4 dont chacune des quatrième coordonnée est strictement positive, et tels que Φ(v) et Φ(w) sont aussi strictement positifs. Montrer qu’on a Φ(v+w)>0, ainsi que l’inégalité triangulaire inverse Φ(v+w)≥Φ(v)+Φ(w). Quels sont les cas d’égalité?
Corrigé
Les rotations sur les trois premières coordonnées préservent la forme quadratique. C’est aussi le cas des transformations suivantes (appelées tranformées de Lorentz en relativité): (x,y,z,t)↦(x,y,zcoshφ+tsinhφ,zsinhφ+tcoshφ) pour n’importe quel réel φ. Ces transformations préservent aussi le signe de t lorsque Φ(x,y,z,t)>0, car alors ∣tcoshφ∣>∣zcoshφ∣>∣zsinhφ∣. Par rotation, on peut se ramener au cas où v est de la forme (0,0,z,t), puis par transformation de Lorentz, avec tanhφ=−z/t (ce qui est possible car Φ(v)=t2−z2>0 et donc ∣z/t∣<1), on peut supposer v=(0,0,0,u) avec u>0. Une nouvelle rotation des trois premières coordonnées permet de supposer ensuite w=(0,0,z,s) où s>0, z≥0 et s2−z2>0, soit s>z≥0. On doit alors prouver que (s+u)2−z2−u−s2−z2>0. Cela est vrai car cette quantité est nulle pour z=0 et strictement croissante en z. Il y a égalité si et seulement si z=0, c’est à dire quand v et w sont alignés. Remarque: Cet exercice est directement inspiré de la théorie de la relativité restreinte d’Einstein. La condition Φ(v)>0 signifie que l’on peut suivre la direction v de l’espace-temps sans aller plus vite que la lumière. Le fait que la dernière coordonée soit strictement positive signifie que le vecteur va du passé vers le futur. L’inégalité triangulaire inverse signifie qu’entre un frère jumeau resté sur Terre et l’autre ayant voyagé très loin et très vite, le voyageur est plus jeune que le sédentaire lorsque les deux jumeaux se retrouvent (les voyages forment la jeunesse 😀).
Exercice 584 ⭐️⭐️⭐️⭐️ Racines sur le cercle unité, L3
Pour λ∈C\{0} et n≥2, on note Mn(λ) la matrice n×n telle que (Mn(λ))jk=λj−k pour tous 1≤j,k≤n.
On suppose que λ est un complexe de module 1. Montrer que Mn(λ) est une matrice hermitienne positive et donner son rang.
On suppose que λ est un complexe de module différent de 0 et 1. Montrer que Mn(λ)+Mn(λ−1) est hermitienne et donner son rang. Combien cette matrice a-t-elle de valeurs propres strictement positives et de valeurs propres strictement négatives ?
On considère un ensemble fini E de complexes non nuls, et des coefficents (αλ)λ∈E réels strictement positifs, tels que pour tout λ∈E, on a λ−1∈E et αλ−1=αλ. On note p le cardinal de E, et q le cardinal commun de E∩{z∈C,∣z∣<1} et de E∩{z∈C,∣z∣>1}. Pour un entier n≥2 donné, on pose P=λ∈E∑αλMn(λ). Montrer que P est une matrice hermitienne, et qu’il existe des sous-espaces vectoriels V et W de Cn de dimensions respectives au plus q et au plus p−q, tels que pour tout v∈Cn orthogonal à V, on a 1≤j,k≤n∑Pjkvjvk≥0, et pour tout w∈Cn orthogonal à W, on a 1≤j,k≤n∑Pjkwjwk≤0.
Montrer que P a au plus q valeurs propres strictement négatives, et au plus p−q valeurs propres strictement positives, en comptant les multiplicités.
On suppose que n≥p. Déterminer le rang de P.
En déduire que si n≥p, alors P a exactement q valeurs propres strictement négatives et p−q valeurs propres strictement positives, en comptant les multiplicités.
On considère un polynôme R=m=0∑ncmXm de degré n, à coefficients complexes, tels que c0=∣cn∣=1, et pour tout m∈{0,1,…,n}, cm=cncn−m. On définit la série formelle L:=−logR:=r=1∑∞r(−1)r(m=1∑ncmXm)r=:m=1∑∞mamXm.
Pour m<0, on pose am=a−m et a0=n, puis on considère la matrice A∈Mn(C) telle que Ajk=aj−k pour 1≤j,k≤n. Montrer que si λ est une racine du polynôme R, alors λ=0 et λ−1 est aussi une racine de R. Montrer que A est hermitienne, le nombre de valeurs propres négatives de A, comptées avec multiplicités, étant égal au nombre de racines distinctes de R de module strictement inférieur à 1, et aussi au nombre de racines distinctes de module strictement supérieur à 1. Montrer que le nombre de racines distinctes de R de module 1 est égal à la différence entre le nombre de valeurs propres strictement positives et le nombre de valeurs propres strictement négatives de A (comptées avec multiplicité).
Montrer que A est une matrice positive si et seulement si toutes les racines de R sont de module 1.
Pour c∈C, on considère le polynôme 1+cX+cX2+X3. Dans quels cas ce polynôme a toutes ses racines de module 1 ? Dans quels cas a-t-il des racines multiples ?
Corrigé
Le fait qu’on ait une matrice hermitienne découle du fait que λk−j=λj−k si ∣λ∣=1. Cette matrice est le produit vv∗ où v est le vecteur colonne de composantes (λj)1≤j≤n, donc son rang est au plus 1. Comme la trace de Mn(λ) est n, le rang de cette matrice hermitienne est exactement 1 et sa valeur propre non nulle est n, ce qui implique que Mn(λ) est une matrice positive.
Posons N=Mn(λ)+Mn(λ−1). On a Njk=λj−k+λk−j, et donc Nkj=Njk, ce qui prouve que N est hermitienne. Comme Mn(λ) et Mn(λ−1) sont de rang au plus 1 (voir plus haut), N est de rang au plus 2. Comme N est hermitienne, N est semblable à une matrice diagonale de la forme Diag(μ,ν,0,0,…,0) avec μ,ν∈R. La somme μ+ν est la trace de N, qui vaut 2n. Le produit μν est, aux conventions de signe près, le coefficient de degré n−2 du polynôme caractéristique de N, ce qui donne μν=1≤j<k≤n∑(NjjNkk−NjkNkj) soit μν=1≤j<k≤n∑(4−∣Njk∣2).
On a λj−k=rjkeiθjk avec rjk∈]0,∞[\{1} et θjk∈R, et λk−j=rjk−1eiθjk, ce qui donne ∣Njk∣=rjk+rjk−1>2. On en déduit que μν<0, et donc N est de rang 2, avec une valeur propre strictement positive et une valeur propre strictement négative.
La matrice P est une combinaison linéaire à coefficients positifs de p−2q matrices du type étudié en 1. et de q matrices du type étudié en 2. : pour chaque matrice Q de type 1., on a toujours 1≤j,k≤n∑Qjkvjvk≥0 et on a 1≤j,k≤n∑Qjkvjvk=0 sur l’orthogonal du vecteur propre de Q correspondant à la valeur propre non nulle de Q, qui est strictement positive. Pour chaque matrice Q de type 2., on a 1≤j,k≤n∑Qjkvjvk≥0 sur l’orthogonal du vecteur propre associé à la valeur propre strictement négative de Q, et 1≤j,k≤n∑Qjkvjvk≤0 sur l’orthogonal du vecteur propre associé à la valeur propre strictement positive de Q. En ajoutant toutes les matrices Q, on en déduit le résultat de l’énoncé, avec V égal à l’espace vectoriel engendré par les vecteurs propres associés aux valeurs propres strictement négatives des matrices de type 2., et W égal à l’espace vectoriel engendré par les vecteurs propres associés aux valeurs propres strictement positives des matrices de types 1. et 2.
Si P a r valeurs propres strictement négatives, on a un espace F de dimension r tel que pour tout v∈F\{0}, 1≤j,k≤n∑Pjkwjwk<0. L’intersection de F et de l’orthogonal de V est alors réduite au vecteur nul, ce qui implique que la somme de leurs dimensions est au plus n: r+(n−q)≤n. On a donc r≤q. On raisonne de même pour les valeurs propres strictement positives, avec W au lieu de V.
On a P=λ∈E∑αλvλ(vλ−1)T, vλ étant le vecteur colonne de composantes (λj−1)1≤j≤n, et (vλ−1)T le vecteur ligne transposé de vλ−1. Comme p≤n, les vecteurs lignes (vλ−1)T sont des lignes d’une matrice de Vandermonde, donc ils sont indépendants. Pour tout λ0∈E, il existe donc des vecteurs colonnes annulant (vλ−1)T pout tout λ=λ0, mais n’annulant pas (vλ0−1)T. On en déduit que vλ0 est dans l’image de P. Comme les vecteurs vλ0 sont des colonnes d’une matrice de Vandermonde, ils sont indépendants, et donc l’image de P contient p vecteurs indépendants, ce qui implique que P est de rang au moins p. Comme P est la somme de p matrices de rang 1, P est de rang exactement p.
Si le résultat indiqué était inexact, P serait de rang strictement inférieur à p d’après 4., ce qui contredit 5.
On a pour λ1,…,λn∈C, la factorisation R=s=1∏n(1−λsX). Comme cn=0, on a λs=0 pour tout s∈{1,…,n}. La symétrie entre les coefficients donne R(X)=cnXnR(X−1), donc R=cns=1∏n(X−λs). Des deux factorisations de R, on en déduit que si λ est l’inverse d’une racine de R, alors λ−1 est aussi l’inverse d’une racine, de même multiplicité. On a clairement la même chose en remplaçant les inverses de racines par les racines. On écrit maintenant, en prenant le logarithme de la factorisation de R: L=m=1∑∞mXms=1∑nλsm, ce qui donne am=s=1∑nλsm pour m≥1. La invariance de l’ensemble des racines, prises avec multiplicité, par la transformation λ↦λ−1 montre que am=s=1∑nλsm aussi pour m<0 tandis que la relation est évidente pour m=0. Ceci implique que A=s=1∑nMn(λs)=λ∈E∑αλMn(λ),E étant l’ensemble des inverses de racines de R et αλ étant la multiplicité de λ. On conclut alors facilement en utilisant le résultat de la question 6.
A est positive si et seulement si le nombre de valeurs propres stricement négatives est nul, donc par 7., si et seulement s’il n’y a pas d’inverse de racine de R de module strictement inférieur à 1, ni de racine de module strictement supérieur à 1.
On a L=−(cX+cX2)+21(cX+cX2)2+o(X2), o(X2) désignant une série dont tous les termes non nuls sont de degré 3 ou plus. On en déduit L=−cX+(c2/2−c)X2+o(X2), a1=−c, a2=c2−2c, et finalement A=⎝⎛3−cc2−2c−c3−cc2−2c−c3⎠⎞.
Le déterminant de A vaut 27+(−c)2(c2−2c)+(−c)2(c2−2c)−3∣c∣2−3∣c2−2c∣2−3∣c∣2 soit D:=det(A)=27−∣c∣4−18∣c∣2+8ℜ(c3)
Si D>0, A a trois valeurs propres non nulles, 0 ou 2 étant négatives. Par 7., il y a au moins autant de valeurs propres positives que négatives, donc le deuxième cas n’est pas possible: A est définie positive et 1+cX+cX2+X3 a trois racines distinctes sur le cercle unité.
Si D<0, A a trois valeurs propres non nulles, une étant négative. Donc il y a une racine du polynôme de module inférieur à 1, une racine de module supérieur à 1 et une racine de module 1.
Si D=0, A est semblable à Diag(μ,ν,0) pour des réels μ et ν. On a μν=2(9−∣c∣2)+(9−∣c2−2c∣2)=27−∣c∣4−6∣c∣2+4ℜ(c3).
Comme D=0, 8ℜ(c3)=∣c∣4+18∣c∣2−27 et μν=21(27+6∣c∣2−∣c∣4)=2(3+∣c∣2)(9−∣c∣2).
On observe que 0=D≤27−∣c∣4−18∣c∣2+8∣c∣3=(3−∣c∣)3(1+∣c∣),
ce qui implique ∣c∣≤3. Si ∣c∣<3, μν>0, A est positive de rang 2, ce qui prouve que le polynôme a une racine double et une racine simple, toutes deux de module 1. Le cas ∣c∣=3 ne peut se produire que si D≤27−∣c∣4−18∣c∣2+8∣c∣3 est une égalité, soit 8c3∈R+. Ceci n’a lieu que pour c=3ω, avec ω∈{1,j,j2} racine cubique de l’unité. Le polynôme est alors (1+ωX)3 et on a une racine triple.
Pour résumer, 1+cX+cX2+X3 a toutes ses racines de module 1 si et seulement si 27−∣c∣4−18∣c∣2+8ℜ(c3)≥0: si l’inégalité est stricte, les trois racines sont simples, s’il y a égalité et c3=27, il y a une racine simple et une racine double, si c3=27 il y a une racine triple. Si on a 27−∣c∣4−18∣c∣2+8ℜ(c3)<0, il y a une racine du polynôme de module inférieur à 1, une racine de module supérieur à 1 et une racine de module 1, nécessairement toutes simples. La courbe des points du plan d’affixe c telle que D=27−∣c∣4−18∣c∣2+8ℜ(c3) est nul s’appelle deltoïde.