Soit A∈Mn(C). On note χA son polynôme caractéristique.
Montrer que det(exp(A))=expTr(A).
Montrer que pour tout x∈/Sp(A), Tr(xIn−A)−1=χA(x)χA′(x).
Réflexes
Pas d’information sur A 👉 On trigonalise la matrice dans C.
Corrigé
On trigonalise la matrice dans C, que l’on note encore A.
On a les valeurs propres complexes λi sur la diagonale de A. Sur la diagonale de Ak, on a les λik, et sur celle de eA=k≥0∑k!Ak, on a donc les eλi. Ainsi det(exp(A))=eλ1⋯eλn=eλ1+⋯+λn=expTr(A).
De même, sur la diagonale de (xIn−A), on a les (x−λi), et donc sur celle de (xIn−A)−1 on a les (x−λi)−1 si x=λi pour tout i.
Ainsi, en écrivant χA(x)=(x−λ1)⋯(x−λn), on obtient Tr(xIn−A)−1=x−λ11+⋯+x−λn1=χA(x)χA′(x), d’après une décomposition en fraction rationnelle bien connue (cf Fiche de cours Polynômes).
Exercice 2 ⭐️ Endomorphismes qui commutent, Spé/L2/Classique
Soit u et v deux endomorphismes de Cn qui commutent. Montrer que les s-ev propres de l’un sont stables par l’autre. Montrer qu’ils ont au moins un vecteur propre en commun.
Corrigé
Soit λ une valeur propre de u, alors Ker(u−λId)={0}. Soit x∈Ker(u−λId), non nul. On a u(v(x))=v(u(x))=v(λx)=λv(x), donc v(x)∈Ker(u−λId), ce qui montre que Ker(u−λId) est stable par v.
Comme le polynôme caractéristique de u est scindé sur C, u admet au moins une valeur propre λ∈C. Comme Ker(u−λId) est stable par v, on déduit que v induit sur Ker(u−λId) un endomorphisme. Ce dernier possède alors au moins une valeur propre et donc aussi un vecteur propre x, qui appartient par définition au sous-espace propre Ker(u−λId). Ainsi x est un bien vecteur propre commun à u et v.
Exercice 3 ⭐️⭐️ Ap=I2, Mines MP, Spé/L2
Soit A∈M2(Z) telle que detA=1. On suppose qu’il existe p≥1 tel que Ap=I2.
Montrer que A12=I2.
Réflexes
Polynôme annulateur scindé à racines simples 👉 Matrice diagonalisable !
Valeurs propres, trace, det ?
Corrigé
Un polynôme annulateur de A est Xp−1. Comme il est scindé à racines simples dans C, A est diagonalisable dans C.
Les racines du polynôme caractéristique χA doivent donc être des racines p−ième de l’unité. Comme χA∈R[X] est de degré 2, il a deux racines complexes conjuguées λ=eiθ et λ=e−iθ.
De plus on a Tr(A)=eiθ+e−iθ=2cos(θ)∈Z car χA∈Z[X]. Donc cos(θ)∈{−1,−1/2,0,1/2,1}. On peut donc faire tous les cas possibles pour θ (mod 2π) : {π,2π/3,π/2,π/3,0}. On obtient alors les différents ordres α de A possibles qui sont 2,3,4,6 ou 1 (on veut le plus petit entier non nul α tel que (eiθ)α=eiαθ=1, i.e. αθ=2π). Dans tous les cas A12=I2.
Exercice 4 ⭐️⭐️ Centrale
Soit A∈GL2(C). L’équation Xn=A admet-elle toujours une solution dans GL2(C) ?
Réflexes
Peu d’information sur A 👉 Réduire A, i.e. trigonaliser ou diagonaliser.
Corrigé
On va d’abord réduire A pour y voir plus clair. De deux choses l’une :
Soit A n’a qu’une valeur propre λ∈C, et alors soit A=λId, soit A est semblable à (λ01λ) ;
ou bien A a deux valeurs propres distinctes λ1=λ2, et la matrice est diagonalisable, donc semblable à (λ100λ2).
Dans le cas 2), on cherche des solutions sous la forme X=(z100z2), i.e. on veut z1n=λ1 et z2n=λ2. Ces deux équations ont bien des solutions dans C en utilisant des racines n−ième de l’unité. C’est gagné !
Dans le cas 1), il est naturel de chercher des solutions sous la forme X=(z0az).
On a X2=(z0az)(z0az)=(z202zaz2), et en continuant on peut conjecturer et prouver par récurrence que Xn=(zn0nzn−1azn). On résout donc d’abord zn=λ. Comme A∈GL2(C), on a λ=0 et donc z=0. Il suffit donc de poser a=nzn−11 pour conclure. Jusqu’à présent on a résolu l’équation en X à partir des matrices réduites de A, qu’on notera P−1AP. Dans le cas général, les solutions s’écrivent alors PXP−1 car (PXP−1)n=PXnP−1.
Exercice 5 ⭐️⭐️⭐️ Dimension du commutant, Spé/L2
Soit A∈Mn(C) diagonalisable. On pose C(A)={B∈Mn(C),BA=AB}. Calculer dimC(A) et montrer dimC(A)≥n.
Indications
Matrice diagonalisable 👉 écrire la diagonalisation, puis examiner le problème dans la nouvelle base (ici il s’agit d’écrire la formule de changement de base pour les matrices A et B en question).
Corrigé
Notons λ1,…,λp les valeurs propres distinctes de A.
On note aussi Eλi le sous espace propre associé à λi, et di sa dimension.
Soit B une base de Cn adaptée à Eλ1⊕⋯⊕Eλp, et P la matrice de passage de la base canonique vers B. Alors on a P−1AP=D, avec par blocs : D=⎝⎛λ1Id1⋱λpIdp⎠⎞.
On a BA=AB⇔BPDP−1=PDP−1B⇔(P−1BP)D=D(P−1BP)⇔B′D=DB′, en posant B′=P−1BP. Montrons qu’on a l’équivalence entre :
(i) B′D=DB′,
(ii) B′ est de la forme ⎝⎛M1⋱Mp⎠⎞, avec Mi∈Mdi(C) pour i=1,…,p.
Supposons (i). Alors les sous-espaces propres de D sont stables par B′, ce qui montre que B′ est de cette forme.
Supposons (ii). Alors B′D=DB′=⎝⎛λ1M1⋱λpMp⎠⎞.
Conclusion. C(A) est l’image par l’isomorphisme M↦PMP−1, de l’espace vectoriel des matrices de la forme ⎝⎛M1⋱Mp⎠⎞. Ainsi dimC(A)=d12+⋯+dp2. Comme di≥1 on a au passage dimC(A)≥d1+⋯+dp=n.
Exercice 6 ⭐️⭐️⭐️⭐️ ENS, MP/Agreg
Soit n<m. Montrer que GLn(R) et GLm(R) ne sont pas isomorphes.
Réflexes
A et B pas isomorphe 👉 Trouver une sous-structure dans A qui n’est pas (à isomorphisme près bien sûr) dans B.
Corrigé
Ici, on parle de groupe, donc on va chercher un sous-groupe de GLm(R) qui n’est pas dans GLn(R). Toujours penser aux choses les plus simples : pour un groupe, on peut penser à un sous groupe cyclique, ou un sous-groupe qu’avec des éléments d’ordre 2 (on peut difficilement faire moins 😃) ; pour des matrices, on peut penser à des matrices de rang 1, ou à des matrices diagonales. On peut faire un bon compromis avec des matrices diagonales avec des 1 ou −1. Dans GLm(R), ces matrices sont d’ordre 2 et elles forment un sous-groupe H d’ordre (de cardinal) 2m.
Supposons qu’il existe un isomorphisme f de GLm(R) dans GLn(R). Alors G=f(H) est un sous-groupe commutatif de GLn(R) d’ordre 2m. Soit S∈G, alors S2=In. Ainsi S est diagonalisable car annulé par un polynôme scindé à racines simples, et ses valeurs propres sont dans {−1,1}. Tous les éléments de G commutent, donc ils sont diagonalisables dans une même base. Donc tous les éléments de G s’écrivent PMP−1 où M est diagonale avec des 1 ou −1 sur la diagonale. Ainsi 2m=∣G∣≤2n, ce qui contredit n<m !
Exercice 7 ⭐️⭐️ Droite et hyperplan stables, Spé/L2/Classique
Soit E un C−espace vectoriel de dimension fini et u∈L(E).
Montrer que u admet une droite stable et un hyperplan stable.
Corrigé
Comme le polynôme caractéristique de u est scindé sur C, u admet au moins une valeur propre λ∈C, et donc un vecteur propre, qui engendre une droite stable.
Soit A la matrice de u dans la base canonique de Cn. Pour la même raison que précédemment, la matrice AT admet une valeur propre μ∈C. Soit X un vecteur (colonne) propre associé, i.e. ATX=μX. On a aussi XTA=μXT et donc pour tout vecteur colonne Y, XTAY=μXTY. On en déduit que si XTY=0 alors XT(AY)=0. Cela signifie que l’hyperplan {Y∈Cn,XTY=0} est stable par A.
Exercice 8 ⭐️ Spé/L2
Soit A∈Mn(C), a∈C et b∈C∗. Déterminer les valeurs propres et les sous-ev propres de B=aIn+bA en fonction de ceux de A. Quand B est-elle diagonalisable ?
Corrigé
Soit λ∈C. Comme b=0, on a, pour X∈Cn, (aIn+bA−λIn)X=0⟺(bA−(λ−a)In)X=0⟺(A−bλ−aIn)X=0,
ce qui montre que Ker(B−λIn)=Ker(A−bλ−aIn), d’où λ∈Sp(B)⟺bλ−a∈Sp(A).
On peut en déduire : A diagonalisable ⟺B diagonalisable.
Exercice 9 ⭐️ Spectre et polynôme annulateur, MP/ECS2/L2/Classique
Soit A,B∈Mn(R) et P un polynôme annulateur non nul de A.
Montrer que si P(B) est inversible alors Sp(A)∩Sp(B)=∅.
Corrigé
Supposons par l’absurde que Sp(A)∩Sp(B)=∅ et soit λ∈Sp(A)∩Sp(B). Alors AX=λX et BY=λY pour des vecteurs propres X et Y non nuls. On a P(A)X=P(λ)X=0 car P est un polynôme annulateur de A. Donc P(λ)=0. Mais on a aussi P(B)Y=P(λ)Y, donc P(B)Y=0. Comme P(B) est inversible, il vient Y=0, ce qui est impossible car Y est un vecteur propre.
Exercice 10 ⭐️ Spé/L2
Soit ϕ une forme linéaire non nulle sur E=Rn et e un vecteur non nul de E.
Soit f∈L(E) défini par f(x)=x+ϕ(x)e, x∈E.
Montrer que : f est diagonalisable ⟺ϕ(e)=0.
Corrigé
Remarquons que f(x)=x⟺ϕ(x)=0, donc Ker(f−Id)=Kerϕ.
Par le théorème du rang, comme ϕ:Rn→R, dimKerϕ=n−1 et donc 1 est valeur propre de f et son sous-espace propre associé est de dimension n−1. De plus f(e)=(1+ϕ(e))e. Ainsi si ϕ(e)=0, alors 1+ϕ(e)=1 est une autre valeur propre que 1, et donc f est diagonalisable.
Réciproquement, si f est diagonalisable, elle possède une valeur propre λ=1, i.e. il existe y=0 et y∈/Kerϕ tel que f(y)=λy. Donc (λ−1)y=ϕ(y)e, et en appliquant ϕ aux 2 membres, on obtient, car ϕ(y)=0, ϕ(e)=λ−1=0.
Exercice 11 ⭐️⭐️⭐️ AB−BA=A, Spé/L2
Soit A et B deux matrices carrées telles AB−BA=A. Montrer que A est nilpotente.
Réflexes
Relation entre A et B 👉 Faire des petits calculs pour se donner des idées : A2=⋯, AB=⋯, etc.
Corrigé
Il faut montrer que An=0 pour un certain n. On ne voit pas très bien ce qu’il faut faire, donc on fait des petits calculs pour se donner des idées. Le plus naturel : A2ABA2=ABA−BA2=A+BA=(I+B)A=A(AB−A)−BA2=A2B−A2−BA2
La dernière ligne donne 2A2=A2B−BA2, et vu l’hypothèse, ça sent la récurrence. En effet on a 2A3=A2BA−BA3 et il suffit encore de remplacer BA par AB−A. On vous laisse montrer proprement que pour tout k≥1, kAk=AkB−BAk. Cela peut suggérer plusieurs pistes :
On continue sur la généralisation : on peut en déduire que, pour tout polynôme P∈K[X], on a AP′(A)=P(A)B−BP(A). En particulier, si P est le polynôme minimal de A, on a AP′(A)=0. Le polynôme Q(X)=XP′(X) annule A et est de même degré que le polynôme minimal de A, on en déduit qu’il existe une constante c telle que Q(X)=cP(X). En observant le coefficient dominant, on montre que c=deg(P). Notons k le degré de P. On écrit P(X)=i=0∑kaiXi avec ak=1. On a alors : 0=kP(X)−Q(X)=i=0∑k(k−i)aiXı^.
En identifiant les coefficients, on en déduit que ai=0 dès que i<k. On peut aussi résoudre xP′(x)=kP(x), i.e. log(P(x))=klog(x), et P(x)=xk. Ainsi P(X)=Xk, donc A est nilpotente.
La relation peut aussi faire penser à une relation aux valeurs propres, vecteurs propres : ϕ(Ak)=kAk, où ϕ(M)=MB−BM, et ça tombe bien, ϕ est un endomorphisme de Mn(R). Si Ak n’est nulle pour aucun k, alors ϕ possède une infinité de valeurs propres, i.e. tous les entiers. Et ceci n’est pas possible sur un e.v. de dimension fini, ici Mn(R). Donc il existe k tel que Ak=0.
C’est pas magnifique les maths ?! Cette relation a généré deux idées qui conduisent à des preuves complètement différentes !
Exercice 12 ⭐️⭐️ Mines MP
Soit A∈Mn(C). On suppose qu’il existe un polynôme P tel que P(A) est diagonalisable et P′(A) est inversible.
Montrer que A est diagonalisable.
Réflexes
Exercice théorique sur la diagonalisation 👉 “Il existe un polynôme annulateur scindé à racines simples”.
Corrigé
Comme P(A) est diagonalisable, il existe un polynôme Q scindé à racines simples tel que Q(P(A))=0, et on veut en trouver un pour A. Des candidats naturels sont les Q∘P. Prenons comme Q le polynôme minimal de P(A). Ses racines (complexes) sont exactement les valeurs propres de P(A). En trigonalisant A dans C, on voit que les valeurs propres de P(A) sont les P(λi) où les λi sont les valeurs propres de A. Comme Q est à racines simples, on a Q′(P(λi))=0. Les valeurs propres de P′(A) sont les P′(λi), et comme P′(A) est inversible, on a P′(λi)=0. Ainsi Q′(P(λi))P′(λi)=0, et donc (Q∘P)′(λi)=0. Notons que les racines de Q∘P sont exactement les λi. Par suite, Q∘P est un polynôme scindé (sur C) à racines simples et qui annule A, donc A est diagonalisable.
Soit A∈Mn(R) et notons P(X)=det(XIn−A)=Xn+c1Xn−1+c2Xn−2+⋯+cn−1X+cn.
En notant λ1,…,λn les racines de P, calculer k=1∑nX−λkP(X) de deux manières différentes.
Montrer que pour tout 1≤k≤n, ck=k!(−1)kdet⎝⎜⎜⎜⎜⎜⎜⎜⎜⎛tr(A)tr(A2)tr(A3)⋮tr(Ak−1)tr(Ak)1tr(A)tr(A2)⋮tr(Ak−2)tr(Ak−1)02tr(A)⋮⋯⋯003⋱⋯⋯⋯⋯⋱⋱tr(A)tr(A2)0000k−1tr(A)⎠⎟⎟⎟⎟⎟⎟⎟⎟⎞.
Réflexes
Expression des coefficients d’un polynôme en fonction de ses racines ;
Tr(Ak) 👉 Expression en fonction des valeurs propres.
Corrigé
1er réflexe : On exprime les coefficients ck du polynôme P(X) en fonction des racines de ce dernier (c’est-à-dire les valeurs propres de A). Le lien est donné par les polynômes symétriques élémentaires en les variables λ1,…,λn : cn−k=(−1)kσk=(−1)kσk(λ1,…,λn)=(−1)k1≤i1<⋯<ik≤n∑j=1∏kλij.
2nd réflexe : On exprime également les quantités Tr(Ak) en fonction des valeurs propres λ1,…,λn. On sait que A est semblable à une matrice triangulaire dont les coefficients diagonaux valent λ1,…,λn, donc Ak est semblable à une matrice triangulaire avec λ1k,…,λnk pour coefficients diagonaux, donc Tr(Ak)=λ1k+⋯+λnk=Sk. Les Sk sont aussi des polynômes symétriques en les λ1,…,λn. Les relations entre les σk et les Sk sont bien comprises, et souvent résumées sous la forme de l’identité de Newton. On peut imaginer que l’idée du concepteur de l’exercice est la suivante :
La première question permet d’établir l’identité de Newton, par une méthode assez originale.
La deuxième question revient à exprimer les σk uniquement en terme des quantités Sk.
On se rend compte qu’on oublie vite le cadre matriciel posé dans l’exercice, en se ramenant à un exercice sur les polynômes. L’intérêt de ce cadre matriciel réside dans l’interprétation que l’on peut faire du résultat final : la formule prouvée à la deuxième question permet de calculer les coefficients du polynôme caractéristique de A à l’aide des traces des n premières puissances de A, ce qui en termes de calculs est très économe.
On calcule tout d’abord : i=1∑nX−λiP(X)=i=1∑nj=i∏(X−λj)=P′(X).
Or P(X)=k=0∑ncn−kXk (avec cn=1), donc i=1∑nX−λiP(X)=k=0∑nkcn−kXk−1.
On obtient une autre formule en se plaçant dans le cadre des séries formelles : i=1∑nX−λiP(X)=i=1∑nXP(X)l=0∑∞(Xλi)l=l=0∑∞P(X)X−l−1Sl.=p=0∑nl=0∑∞cn−pSlXp−l−1=k=0∑∞⎝⎛p−l=k∑cn−pSl⎠⎞Xk−1.
En identifiant terme à terme les coefficients des séries formelles, on obtient les formules de Newton : ∀1≤k≤n,(n−k)ck=l=0∑kck−lSl. On peut encore simplifier l’expression en remarquant que S0=n, et donc ∀1≤k≤n,−kck=l=1∑kck−lSl.
Les formules de Newton nous fournissent un système de n équations en les n inconnues c1,…,cn. On peut écrire matriciellement : ⎝⎜⎜⎜⎜⎜⎜⎛1S1S2⋮Sn01S1⋮Sn−1⋯02⋱⋯⋯⋯0⋱⋯⋯⋯⋯⋱S1000⋮−n⎠⎟⎟⎟⎟⎟⎟⎞⎝⎜⎜⎜⎜⎛1c1⋮cn⎠⎟⎟⎟⎟⎞=⎝⎜⎜⎜⎜⎛10⋮0⎠⎟⎟⎟⎟⎞. Le déterminant de la matrice (que l’on appelle A) est simple à calculer, puisqu’elle est triangulaire : celui-ci vaut n!. La formule de Cramer permet alors d’obtenir une expression des ck en fonction des Si. On a : ck=det(A)det(Ak),1≤k≤n, où Ak est la matrice obtenue en remplaçant la k+1-ème colonne de A par le vecteur colonne ⎝⎜⎜⎜⎜⎛10⋮0⎠⎟⎟⎟⎟⎞. On peut calculer le déterminant de Ak en développant par rapport à la k+1-ème colonne, on obtient que le calcul de ce déterminant se ramène à celui du déterminant de la matrice diagonale par blocs det(Ak)=(−1)kdet(MkPk0Dk), où Mk est exactement la matrice donnée dans l’énoncé, et Dk est la matrice diagonale Dk=⎝⎜⎜⎜⎜⎜⎜⎜⎛k+1S1S2⋮Sn0k+2S1⋮⋯00⋱⋯⋯⋯⋯⋮⋱S10000n⎠⎟⎟⎟⎟⎟⎟⎟⎞, qui est de déterminant det(Dk)=k!n!, et on conclut facilement.
Exercice 14 ⭐️ Spé/L2
Soit x,y∈R et A=(0y−12x). Déterminer une CNS pour que A soit diagonalisable dans R.
Corrigé
On a tr(A)=2x et det(A)=y, donc le discriminant du polynôme caractéristique χ est Δ=4x2−4y.
Si Δ>0 i.e. x2>y alors χ a 2 racines réelles distinctes et A est diagonalisable dans R.
Si χ a une racine double i.e. Δ=0 et donc x2=y, alors : soit A est diagonalisable et donc A=λI2, ce qui ne peut pas être le cas, soit A n’est pas diagonalisable.
Si x2<y alors χ a deux racines complexes conjuguées, et donc A est diagonalisable dans C, mais pas dans R.
Exercice 101 ⭐️ Spé/L2
Soit D1 et D2 deux matrices carrées diagonales dont les éléments diagonaux sont positifs et telles que D12 et D22 sont semblables. Montrer que D1 et D2 sont semblables.
Indication
Le point clé est d’étudier à quelle condition deux matrices diagonales sont semblables.
En algèbre linéaire beaucoup de propriétés sont conservées par similitude : déterminant, trace, valeurs propres, polynôme caractéristique, dimensions des sous-espaces propres…
Corrigé
Nous commençons par montrer que deux matrices diagonales M=Diag(λ1,…,λn) et N=Diag(μ1,…,μn) sont semblables ssi il existe σ∈Sn tel que ∀i∈[[1,n]],λσ(i)=μi, autrement dit ssi les coefficients diagonaux de M et de N sont les mêmes à une permutation près.
Supposons cette condition vérifiée, notons f et g les endomorphismes canoniquement associés à M et N, et ϕ l’automorphisme de Rn tel que ∀i∈[[1,n]],ϕ(ei)=eσ(i), où (e1,…,en) est la base canonique de Rn. Alors on vérifie que ∀i∈[[1,n]],ϕ−1∘f∘ϕ(ei)=λσ(i)ei, donc P−1MP=N, où P est la matrice canoniquement associée à ϕ.
Réciproquement, si M et N sont semblables alors elles ont mêmes valeurs propres donc {λ1,…,λn}={μ1,…,μn}. De plus pour α∈Sp(M)=Sp(N), on a dim(Eα(M))=dim(Eα(N)), donc le nombre d’apparitions de α dans les listes (λ1,…,λn) et (μ1,…,μn) sont égaux.
Conclusion. Si on note D1=Diag(a1,…,an) et D2=Diag(b1,…,bn), D12 et D22 sont diagonales. Donc l’hypothèse entraîne qu’il existe σ∈Sn tel que ∀i∈[[1,n]],(aσ(i))2=(bi)2.
Comme tous ces coefficients sont positifs on a donc aσ(i)=bi, et donc D1 et D2 sont semblables.
Exercice 276 ⭐️⭐️⭐️ Caractérisation topologique de propriété algébrique, X MP 2019, L2/L3
Pour M∈Mn(C), on note S(M)={PMP−1,P∈GLn(C)}.
Montrer : ∀ε>0,∃Mε∈S(M)/∀i=j,∣Mε(i,j)∣⩽ε.
Prouver : M est diagonalisable ⟺S(M) est fermé.
Montrer : M est nilpotente ⟺0Mn(C)∈S(M).
(Enoncé d’après RMS)
Réflexes
On a une matrice dans Mn(C) et on ne sait pas quoi faire 👉 Trigonaliser pour voir ce qui se passe !
Question théorique sur la diagonalisation 👉 Il existe un polynôme annulateur scindé à racines simples.
Corrigé
Comme M∈Mn(C), on peut la trigonaliser : il existe Q∈GLn(C) telle que M=Q−1TQ, avec T triangulaire supérieure. Soit D=diag(d1,…,dn) où les coefficients di>0 seront choisis plus tard. Donc D est inversible et D−1TD∈S(M). On peut calculer rapidement les coefficients de cette matrice : (D−1TD)i,j=didjTij. Soit A′=max(∣Ti,j∣:i<j) et A=max(A′,ε). On choisit di=Ai−1εi−1 de telle sorte que ∀i<j,∣∣∣(D−1TD)i,j∣∣∣=Aj−iεj−i∣Ti,j∣≤Aε∣Ti,j∣≤ε. Comme T est triangulaire supérieure, on a (D−1TD)i,j=0 pour tout i>j. On a donc trouvé un élément de S(M) dont les coefficients hors-diagonaux sont petits.
Supposons que S(M) est fermé. D’après la question 1) il existe une suite Mm∈S(M) qui tend vers une matrice diagonale D. Comme S(M) est fermé, on en déduit D∈S(M), ce qui veut dire que M est diagonalisable.
Réciproquement, supposons M diagonalisable. Donc il existe un polynôme P annulateur de M scindé à racines simples. Considérons une suite Mm∈S(M), i.e. Mm=QmMQm−1, tendant vers A∈Mn(C). On a P(Mm)=0 car Mmk=QmMkQm−1 et P(M)=0. Comme l’application X↦P(X), Mn(C)→Mn(C), est continue, on en déduit P(A)=0, et donc A est diagonalisable. De la même façon, on a la limite des polynômes caractéristiques : χMm→χA. Comme χMm=χM, il vient χA=χM, donc A et M ont les mêmes valeurs propres. Or elles sont aussi toutes les deux diagonalisables. Par conséquent elles sont semblables. Ainsi A∈S(M), ce qui permet de conclure que S(M) est fermé.
Soit ε>0 et M une matrice nilpotente. Comme M n’a que 0 comme valeur propre, on en déduit que M est semblable à une matrice M′ triangulaire supérieure avec des zéros sur la diagonale. D’après la construction de la question 1) il existe donc Mε∈S(M′)=S(M)/∀i,j,∣Mε(i,j)∣≤ε (en effet on peut rendre petits par changement de base les coefficients hors diagonaux, et les coefficients de la diagonale de M′ sont déjà nuls). En prenant pour norme ∥⋅∥ sur Mn(C) la norme du sup du module de tous les coefficients, on en déduit ∥Mε∥≤ε, et donc 0∈S(M).
Réciproquement, supposons que 0∈S(M), donc il existe une suite Mm∈S(M) tendant vers 0 (on prend la norme qu’on veut car en dimension finie elles sont toutes équivalentes). On a donc l’égalité des polynômes caractéristiques χMm=χM. Par continuité de l’application A↦χA (elle est polynomiale en les coefficients de A), il vient χ0=χM. Or χ0(X)=Xn=χM(X). Ainsi M n’a que 0 comme valeur propre, donc est semblable à une matrice triangulaire supérieure avec que des 0 sur la diagonale. Donc M est nilpotente (On peut aussi invoquer directement le théorème de Cayley-Hamilton : χM(M)=0=Mn).
Exercice 277 ⭐️⭐️ Mines MP 2017, L2/L3
Soient α et β deux réels. On considère l’endomorphisme Φ:Mn(R)→Mn(R) défini par Φ(M)=αM+βMt.
Montrer que Φ est diagonalisable.
Trouver les valeurs propres et les sous-espaces propres de Φ, ainsi que leur dimension.
En déduire tr(Φ) et det(Φ).
Réflexes
Prouver la diagonalisabilité avant de chercher les éléments propres 👉 Chercher un polynôme annulateur !
Corrigé
Vu la forme assez simple de Φ, on peut espérer lui trouver un polynôme annulateur pas trop compliqué… Essayons : Φ2(M)=Φ(αM+βMt)=(α2+β2)M+2αβMt, donc Φ2(M)=2αΦ(M)+(α2−β2)M. L’endomorphisme Φ est donc annulé par le polynôme P(X)=X2−2αX+(α2−β2). Les racines de ce polynôme valent α+β et α−β. Si β=0, les deux racines sont distinctes : on a trouvé un polynôme scindé à racines simples qui annule Φ, on en déduit que Φ est diagonalisable. Le cas où β=0 est très simple : en effet, on a Φ(M)=αM, donc Φ est déjà diagonale dans toute base, c’est une homothétie !
D’après la question précédente, les seules valeurs propres possibles pour Φ sont α+β et α−β. On recherche les vecteurs propres dans ces deux cas : Φ(M)=(α+β)M⇔βM=βMt. Si on suppose β=0 (cf question précédente), on en déduit que le sous-espace propre associé à la valeur propre α+β est l’espace Sn(R) des matrices symétriques. De la même façon (toujours avec β=0), on a Φ(M)=(α−β)M si et seulement si M est dans l’espace An(R) des matrices antisymétriques. Comme les espaces propres sont en somme directe, on obtient le résultat suivant : Mn(R)=An(R)⊕Sn(R). Le calcul des dimensions des sous-espaces est classique. On peut remarquer que l’ensemble des matrices de la forme Eij−Eji, avec 1≤i<j≤n est de cardinal 2n(n−1) et forme une famille libre d’éléments de An(R). De même, l’ensemble des matrices de la forme Eij+Eji, avec 1≤i≤j≤n est de cardinal 2n(n+1) et forme une famille libre d’éléments de Sn(R). Comme An(R) et Sn(R) sont en somme directe, on a trouvé une famille libre dans M(R) de cardinal 2n(n−1)+2n(n+1)=n2=dim(Mn(R)), c’est donc une base de Mn(R) adaptée à la décomposition. Ainsi dim(An(R))=2n(n−1) et dim(Sn(R))=2n(n+1).
On connaît les valeurs propres de Φ ainsi que leur multiplicité, on peut donc en déduire : tr(Φ)=2n(n+1)(α+β)+2n(n−1)(α−β)=n2α+nβ et det(Φ)=(α+β)2n(n+1)(α−β)2n(n−1).
Exercice 285 ⭐️⭐️⭐️ X MP 2017, L2/L3
Soient A1,…,An des matrices nilpotentes de Mn(R) qui commutent deux à deux.
Montrer que A1⋯An=0.
Réflexes
Matrices qui commutent 👉 Im et sous-ev propres de l’un stable par l’autre ;
Matrices nilpotentes 👉 Prendre des puissances ; l’ordre de nilpotence n’excède pas n.
Corrigé
Preuve classique :
Moralement, en composant par des endomorphismes qui diminue le rang à chaque fois (un endomorphisme nilpotent n’est pas surjectif), on va bien finir par arriver à {0}. Autant faut-il pouvoir le justifier ! C’est la commutativité qui va jouer un rôle clé, et que u nilpotent restreint à un s-ev stable est encore nilpotent, donc non surjectif.
On continue de noter avec des lettres capitales les endomorphismes associés.
On pose Ik=Im(Bk) avec Bk=AkAk−1⋯A1, 1≤k≤n. Soit k≥2. Par hypothèse, Ak commute avec Bk−1. Soit y∈Ik−1, alors y=Bk−1x, d’où Aky=AkBk−1x=Bk−1(Akx), et donc Aky∈Ik−1. Ainsi Ak(Ik−1)⊂Ik−1. Cette inclusion est stricte car Ak restreint à Ik−1 est encore nilpotent donc non surjectif.
On remarque que Ak(Ik−1)=Ik⊂Ik−1. On a donc une suite strictement décroissante de sous-espaces vectoriels (pour l’inclusion) tant qu’ils ne valent pas {0}, donc leur dimension est une suite strictement décroissante d’entiers tant qu’ils ne valent pas 0, partant de rg(A1)≤n. Ainsi au bout d’un certain k0≤n, Ik0={0}. D’où le résultat.
Une autre preuve basée sur la combinatoire :
Pour une famille de réels t1,…,tn, on va montrer tout d’abord que B=i=1∑ntiAi est nilpotente. La propriété de commutativité des Ai permet d’écrire que, pour N≥1, BN=(p1,…,pn)∈PN∑i=1∏ntipiAipi. La somme est prise sur l’ensemble PN des n-uplets p1,…,pn d’entiers naturels (éventuellement nuls) dont la somme vaut N. Si on choisit N suffisamment grand, ici N≥n(n−1)+1, alors pour chaque élément (p1,…,pn)∈PN il existe au moins une coordonnée pi supérieure ou égale à n. Or on a Ain=0 car Ai est nilpotente et de dimension n. On a donc BN=0 : B est bien une matrice nilpotente.
Or l’ordre de nilpotence d’une matrice dans Mn(R) est inférieur à la dimension n, on en déduit donc que Bn=0, ce qui est beaucoup plus fort ! Et on peut toujours écrire Bn=(p1,…,pn)∈Pn∑i=1∏ntipiAipi=0. Des résultats généraux permettent de conclure que i=1∏nAipi=0 pour tout (p1,…,pn)∈Pn, en particulier pour (p1,…,pn)=(1,…,1), ce qui permet de conclure. On peut donner une preuve un peu plus détaillée : la fonction Q:Rn→Mn(R) définie par Q(t1,…,tn)=(p1,…,pn)∈Pn∑i=1∏ntipiAipi est identiquement nulle sur Rn, en particulier on a (∂t1⋯∂tn∂nQ)(0,…,0)=0=i=1∏nAi.
Une preuve en “une ligne” :
Avec un peu de culture, Farid Begdadi (MP* Thiers, nov. 2020) a proposé cette solution :
Les Ak commutent deux à deux, donc ils sont co-trigonalisables dans C en des matrices triangulaires supérieures avec des 0 sur la diagonale car ils sont nilpotents. En multipliant de telles matrices, la 1ère surdiagonale, de A1 disons, se décale (en changeant) vers le haut, et donc au bout de n multiplications, on finit par obtenir la matrice nulle.
Pas mal, hein ? 😜
Remarque : Le décalage de la surdiagonale ici correspondant à la stricte décroissance du rang dans la preuve “classique”.
Soit A∈Mn(C). Soit P∈C[X]. Montrer l’équivalence : P(A)nilpotente⟺∀λ∈Sp(A),P(λ)=0.
Réflexes
On est sur C 👉 On peut scinder les polynômes !
Corrigé
On suppose que P(A) est nilpotente, c’est-à-dire qu’il existe r≥1 tel que Pr(A)=0. Soit λ une valeur propre de A et X un vecteur propre non nul associé à A. On a AX=λX, et on montre par récurrence que AkX=λkX pour tout k≥1, puis par linéarité que Q(A)(X)=Q(λ)X pour tout Q∈C[X]. En particulier, on a 0=Pr(A)X=(P(λ))rX. Comme X est non nul, on en déduit que (P(λ))r=0, donc que P(λ)=0.
Réciproquement, on suppose que P(λ)=0 pour toute valeur propre de A. Notons Sp(A)={λ1,…,λp}. On peut factoriser P dans C[X] de la façon suivante : P(X)=Q(X)i=1∏p(X−λi), avec Q∈C[X] (les λi peuvent aussi être racines de Q, mais ce n’est pas important pour la suite). On peut aussi factoriser dans C[X] le polynôme minimal de A : on sait qu’il existe des exposants r1,…,rp≥1 tels que πA(X)=i=1∏p(X−λi)ri. Si on choisit r≥max(r1,…,rp), on a Pr(X)=πA(X)Qr(X)i=1∏p(X−λi)r−ri, donc πA divise Pr, donc Pr est un polynôme annulateur de A. Ainsi P(A) est nilpotente.
Soit A∈Mn(R) une matrice symétrique réelle. Soit (v1,…,vn) une base orthonormale de Rn diagonalisant A et λ1,…,λn les valeurs propres associées.
Montrer que A=i=1∑nλiviviT.
Montrer que (ComA)T=i=1∑n⎝⎛k=i∏λk⎠⎞viviT.
Montrer que, pour λ∈R, (Com(λI−A))T=i=1∑n⎝⎛k=i∏(λ−λk)⎠⎞viviT.
Soit Mj le j-ème mineur principal de A, i.e. la matrice A privée de sa j-ème ligne et j-ème colonne. Montrer que son polynôme caractéristique vaut : χMj(λ)=i=1∑n⎝⎛k=i∏(λ−λk)⎠⎞vi(j)2.
En déduire qu’on peut connaître, au signe près, les coefficients des vecteurs propres de A uniquement à partir des valeurs propres de A et de ses mineurs.
BIG Lucas
Cet exercice a été concocté à partir d’un article de recherche co-écrit par notre très cher Terry, mais il est aussi tombé à l’oral X 2020 (!) Vous trouverez sur ce site, réalisé par Big Lucas avec des étudiant(e)s passionné(e)s, une magnifique base de donnée d’exercices corrigés récents de haut niveau, en accès libre ! Voir aussi la page fb. Thanks and Congrats!!
Corrigé
On note B=i=1∑nλiviviT. Comme (v1,…,vn) est une base de Rn, pour montrer que A=B il suffit de montrer que Avj=Bvj pour tout 1≤j≤n. Or on a Avj=λjvj. De plus viTvj=⟨vi,vj⟩, donc viTvj vaut 1 si i=j et 0 sinon. Ainsi Bvj=λjvj(vjTvj)=λjvj et on a montré que Avj=Bvj.
Notons C=i=1∑n⎝⎛k=i∏λk⎠⎞viviT. Supposons d’abord que A est inversible. On a alors (ComA)T=det(A)A−1, il suffit alors de montrer que CA=det(A)I. Or on a : CA=i=1∑nj=1∑n⎝⎛k=i∏λk⎠⎞λjviviTvjvjT. Comme à la question précédente, on remarque que viTvj vaut 0 si i=j et 1 si i=j, donc CA=i=1∑n⎝⎛k=i∏λk⎠⎞λiviviT=(k=1∏nλk)i=1∑nviviT. On sait que det(A)=k=1∏nλk, et de plus en appliquant la première question à la matrice A=I, on montre que I=i=1∑nviviT.
Dans le cas où A n’est pas inversible, on peut raisonner par densité des matrices inversibles, et remarquer que les applications (ai,j)1≤i,j≤n↦(ComA)T et (ai,j)1≤i,j≤n↦i=1∑n⎝⎛k=i∏λk⎠⎞viviT sont continues. Si on n’est pas à l’aise avec la continuité des éléments propres par rapport aux coefficients, la question suivante permet de s’en sortir de façon plus élémentaire.
La matrice λI−A est diagonalisable dans la même base orthonormée (v1,…,vn) et ses valeurs propres associées sont λ−λ1,…,λ−λn. On peut donc appliquer le résultat de la question 2 pour conclure.
Dans l’équation matricielle prouvée à la question précédente, on regarde l’égalité entre les coefficients (j,j). Par définition de la comatrice, on sait que le coefficient (j,j) de Com(λI−A)T est exactement le déterminant du mineur det(λI−Mj). C’est donc la polynôme caractéristique de Mj évalué en λ. De plus, le produit viviT est une matrice carrée dont le coefficient (k,l) vaut vi(k)vi(l). En particulier, le coefficient (j,j) de i=1∑n⎝⎛k=i∏(λ−λk)⎠⎞viviT vaut i=1∑n⎝⎛k=i∏(λ−λk)⎠⎞vi(j)2, ce sui répond à la question.
La matrice Mj est symétrique réelle, donc diagonalisable. On note λ1(Mj),…,λn−1(Mj) ses valeurs propres (pas nécessairement distinctes). On a alors χMj(λ)=l=1∏n−1(λ−λl(Mj)). On applique le résultat de la question précédente à λ=λi : tous les termes de la somme de droite deviennent nuls, sauf un. On obtient : l=1∏n−1(λi−λl(Mj))=k=i∏(λi−λk)vi(j)2, et on a effectivement exprimé vi(j)2 (donc ∣vi(j)∣) uniquement en fonction des λi et des λl(Mj).
Remarque — Cette propriété assez méconnue a été “redécouverte” très récemment par, entre autres, le célèbre mathématicien Terry Tao. On peut trouver d’autres preuves ici.
Soit A∈M5(R) telle que A3=A2−2A. La matrice A est-elle inversible ?
Réflexes
On voit un polynôme annulateur 👉 Valeurs propres qui sont racines ; Scindé à racines simples ?
Inversible ? 👉 Supposer A inversible et faire des calculs avec l’inverse.
Corrigé
Suivant nos réflexes, supposons A inversible. On peut donc simplifier l’égalité A3=A2−2A en A2=A−2In, et hop on a un nouveau polynôme annulateur : Q(X)=X2−X+2. Il est de degré 2, donc on peut regarder facilement ses racines. Son discriminant est (−1)2−4⋅1⋅2=−7<0, donc Q a deux racines complexes conjuguées non réelles.
Est-ce cohérent avec les hypothèses ? On a A∈M5(R), donc le polynôme caractéristique est de degré 5, donc impair, et alors A a forcément une valeur propre réelle α (le graphe d’un polynôme de degré impair coupe nécessairement l’axe réel, TVI !). Or α doit être aussi racine d’un polynôme annulateur, par exemple Q. Contradiction car α∈R !
Conclusion : A n’est pas inversible.
Exercice 525 ⭐️ χAB=χBA, MP/L2
Soient A,B∈Mn(K). On souhaite prouver que χAB=χBA.
Démontrer ce résultat si A ou B est inversible.
Dans le cas général, on considère les matrices de M2n(K) : M=(BAO−BO),N=(OO−BAB),P=(InAOIn).
Vérifier que PN=MP et conclure.
Réflexes
Essayer de passer de AB à BA en utilisant la matrice A−1.
N et M semblables 👉 Même polynôme caractéristique !
Corrigé
Supposons par exemple A inversible. Alors χAB=det(XIn−AB)=det(A(XIn−BA)A−1)=det(A)det(XIn−BA)det(A−1)=det(XIn−BA)=χBA.
Le calcul par blocs donne en effet PN=MP=(OO−BO).
Comme P est inversible, N et M sont semblables et donc χN=χM.
Or χN=XnχAB et χM=XnχBA. K[X] étant intègre, l’égalité XnχAB=XnχBA donne χAB=χBA.
Exercice 526 ⭐️⭐️ Un polynôme annulateur donne des informations, MP/L2
Soit A∈Mn(R), n≥1.
Soit P∈R[X]. Rappeler pourquoi, si ω est une racine de P de multiplicité m, alors ω est aussi racine de P de multiplicité m.
On suppose que A3−3A−4In=0. Montrer que det(A)>0.
On suppose que A2+A+In=0. Montrer que n est pair.
On suppose que A3+A2+A=0. Montrer que rg(A) est pair.
On suppose que A3+A2+A=0. Montrer que tr(A)∈Z−.
Indications
Tout polynôme annulateur a un ensemble de racines qui contient les valeurs propres.
La donnée des valeurs propres, à son tour, donne des informations sur le déterminant, le rang, la trace.
Corrigé
Si P est à coefficients réels alors ∀k∈N,P(k)(ω)=P(k)(ω).
Si ω est une racine de P de multiplicité s alors P(k)(ω)=0 pour k<m, et P(m)(ω)=0.
Ainsi P(k)(ω)=0 pour k<m, et P(m)(ω)=0. D’où la conclusion.
L’étude des variations de Q:x↦x3−3x−4 sur R donne l’existence d’une unique racine réelle α>0. Elle n’est pas double car les racines de Q′ sont 1 et −1 qui ne sont pas racines de Q. χA étant scindé dans C il a donc trois racines distinctes : α, z et z avec z∈/R, z et z ayant même multiplicité m. Conclusion.det(A)=αzmzm=α∣z∣2m>0 (on a bien z=0 car Q(0)=0).
Le polynôme X2+X+In=0 possède deux racines j et j. χA est scindé dans C, donc ses racines sont exactement j et j, de même multiplicité m.
Donc χA=(X−j)m(X−j)m, donc n=deg(χA)=2a=m.
X3+X2+X a pour racines 0, j et j. Donc les racines de χA sont incluses dans {0,j,j}.
Soit m1 la multiplicité de 0 en tant que racine de χA (en convenant que m1=0 si 0 n’est pas racine).
Soit m2 la multiplicité de j (et de j) en tant que racine de χA (avec la même remarque). χA est scindé dans C, donc m1+2m2=n.
Or A est diagonalisable (polynôme annulateur scindé à racines simples).
Donc m1=dim(kerA), et par théorème du rang, rg(A)=n−m1=2m2.
Avec les mêmes notations, tr(A)=m2j+m2j=−m2∈Z−.
Exercice 603 ⭐️⭐️ Mines PC 2019, Spé
Soit D∈Mn(R) la matrice diagonale de coefficients diagonaux 1,2,…,n.
Déterminer les matrices M telles que : MD=DM et M est semblable à D.
Réflexes
Matrices qui commutent 👉 Quel résultat de cours a t-on à ce sujet ?
Corrigé
Soit M une matrice qui vérifie ces deux conditions. Comme D et M commutent, les sous-espaces propres de D sont stables par M, or les sous-espaces propres de D sont les droites engendrées par les ek, vecteurs de la base canonique de Rn. Ainsi les ek sont vecteurs propres pour M, autrement dit M est diagonale. Soit m1,…,mn ses coefficients diagonaux. Comme M et D sont semblables, on a Sp(M)=Sp(D), donc {m1,…,mn}={1,…,n}.
Réciproquement, si M est une matrice diagonale de coefficients diagonaux 1,…,n à une permutation près, alors M commute évidemment avec D. De plus M est diagonalisable (car diagonale), et en choisissant des vecteurs propres dans le bon ordre, on obtient une matrice de passage P telle que P−1MP=D (remarque : P est une matrice dite matrice de permutation).
En conclusion, les matrices qui répondent au problème sont les matrices diagonales de coefficients diagonaux 1,…,n à une permutation près.
Exercice 606 ⭐️⭐️⭐️ Un endomorphisme de L(E), Spé
Soit p un projecteur, non nul et distinct de l’identité, d’un K-e.v. E de dimension n.
On suppose dans cette question que u∈L(E) est un endomorphisme vérifiant u=u∘p−p∘u. Montrer que p∘u=0, que u=u∘p, puis en déduire que u2=0 et Im(u)⊂Ker(p)⊂Ker(u).
Étudier la réciproque.
Justifier que ϕ défini sur L(E) par ϕ(u)=u∘p−p∘u n’est pas injectif et décrire son noyau.
Montrer que ϕ est diagonalisable et donner ses valeurs propres.
Montrer que L(E)=Ker(ϕ)⊕Im(ϕ).
Réflexes
Essayer d’exploiter p∘p=p
Lien entre noyau et injectivité.
Etude des vecteurs propres de ϕ. Pour y voir plus clair on peut décider de formuler le problème matriciellement, en travaillant par blocs, où les blocs sont adaptés aux supplémentaires Ker(p) et Im(p).
Se déduit de la question précédente.
Corrigé
On compose par p à gauche, à droite : p∘u=p∘u∘p−p∘u,u∘p=u∘p−p∘u∘p. Ces deux égalités donnent p∘u=0, puis en remplaçant dans l’égalité de l’énoncé : u=u∘p.
On a aussi u2=u∘p∘u=0, car p∘u=0.
Enfin l’égalité p∘u=0 donne aisément Im(u)⊂Ker(p), et l’égalité u=u∘p donne aisément Ker(p)⊂Ker(u).
Montrons la réciproque. Comme Ker(p) et Im(p) sont supplémentaires il suffit de vérifier l’égalité u(x)=u∘p(x)−p∘u(x), séparément pour x∈Ker(p) et pour x∈Im(p). Comme p∘u, c’est plus simplement l’égalité u(x)=u∘p(x) qu’il s’agit de vérifier
Si x∈Ker(p), alors u(x)=0 car ker(p)⊂ker(u), et on a u(p(x))=0, donc l’égalité a lieu;
Si x∈Im(p), alors p(x)=x donc u(p(x))=u(x).
Le noyau de ϕ contient par exemple idE donc il n’est pas réduit à 0L(E). Ainsi ϕ n’est pas injectif. Par définition ker(ϕ) est constitué des endomorphismes qui commutent avec p. Remarque. Pour aller plus loin, le cours nous permet d’affirmer que ce sont aussi les endomorphismes u qui stabilisent les sous-espaces propores de p, à savoir Ker(p) et Im(p). Cette observation n’était peut-être pas attendue dans cette question mais sera utile dans la suite.
On fixe une base (e1,…,er,er+1,…,en) adaptée à la décomposition E=Ker(p)⊕Im(p), et on note avec une majuscule les matrices associées aux endomorphismes. L’application qui à un endomorphisme associe sa matrice étant un isomorphisme, elle conserve les dimensions.
D’après ce qui précède,
u∈E1(ϕ) ssi U est de la forme (par blocs) : (O∗OO).
u∈E0(ϕ) ssi U est de la forme (par blocs) : (∗OO∗).
Enfin on remarque de la même manière qu’en 1., qu’on a u∘p−p∘u=−u ssi : Im(u)⊂Im(p)⊂Ker(u), de sorte que u∈E−1(ϕ) ssi U est de la forme (par blocs) : (OO∗O). Conclusion. La somme des dimensions de ces 3 sous-espaces propres vaut : dim(E−1(ϕ))+dim(E0(ϕ))+dim(E1(ϕ))=2r(n−r)+r2+(n−r)2=n2=dim(L(E)) et donc ϕ est bien diagonalisable, avec au passage Sp(ϕ)={−1,0,1}.
Remarque. Cette propriété qu’on nous demande de vérifier pour ϕ est en fait vérifiée plus généralement par tous les endomorphismes diagonalisables !
On vérifie en effet facilement que : Im(ϕ)=E−1(ϕ)⊕E1(ϕ)(∗) ce qui permet de conclure que L(E)=E0(ϕ)⊕Im(ϕ)=Ker(ϕ)⊕Im(ϕ).
Montrons (*) dans un cadre plus général (tant qu’à faire 😉) : soit E un K-e.v. de dimension finie et f∈L(E), diagonalisable.
Montrons que Im(f)=λ∈Sp(f),λ=0∑Eλ(f).
Pour un vecteur x∈E, on peut écrire son unique décomposition selon les sous-espaces propres : x=x0+λ∈Sp(f),λ=0∑xλ.
On a ϕ(x)=λ∈Sp(f),λ=0∑λxλ, ce qui montre l’inclusion Im(f)⊂λ∈Sp(f),λ=0∑Eλ(f).
Si x0=0 alors x=ϕ⎝⎛λ∈Sp(f),λ=0∑λ1xλ⎠⎞, ce qui montre l’autre inclusion.