Réduction

Exercice 1 ⭐️⭐️ MP/L2

Soit AMn(C)\displaystyle A\in M_n(\mathbb C). On note χA\displaystyle \chi_A son polynôme caractéristique.

  1. Montrer que det(exp(A))=expTr(A)\displaystyle \det(\exp(A))=\exp{\rm Tr(A)}.
  2. Montrer que pour tout xSp(A)\displaystyle x\notin {\rm Sp}(A), Tr(xInA)1=χA(x)χA(x)\displaystyle {\rm Tr}(xI_n-A)^{-1}=\frac{\chi'_A(x)}{\chi_A(x)}.

Pas d’information sur A\displaystyle A 👉 On trigonalise la matrice dans C\displaystyle \mathbb C.

  1. On trigonalise la matrice dans C\displaystyle \mathbb C, que l’on note encore A\displaystyle A.
    On a les valeurs propres complexes λi\displaystyle \lambda_i sur la diagonale de A\displaystyle A. Sur la diagonale de Ak\displaystyle A^k, on a les λik\displaystyle \lambda_i^k, et sur celle de eA=k0Akk!\displaystyle e^A=\sum_{k\ge0}\frac{A^k}{k!}, on a donc les eλi\displaystyle e^{\lambda_i}. Ainsi det(exp(A))=eλ1eλn=eλ1++λn=expTr(A)\displaystyle \det(\exp(A))=e^{\lambda_1}\cdots e^{\lambda_n}=e^{\lambda_1+\cdots+\lambda_n}=\exp{\rm Tr(A)}.
  2. De même, sur la diagonale de (xInA)\displaystyle (x I_n-A), on a les (xλi)\displaystyle (x-\lambda_i), et donc sur celle de (xInA)1\displaystyle (x I_n-A)^{-1} on a les (xλi)1\displaystyle (x-\lambda_i)^{-1} si xλi\displaystyle x\neq \lambda_i pour tout i\displaystyle i.
    Ainsi, en écrivant χA(x)=(xλ1)(xλn)\displaystyle \chi_A(x)=(x-\lambda_1)\cdots (x-\lambda_n), on obtient Tr(xInA)1=1xλ1++1xλn=χA(x)χA(x)\displaystyle {\rm Tr}(xI_n-A)^{-1}=\frac{1}{x-\lambda_1}+\cdots +\frac{1}{x-\lambda_n}=\frac{\chi'_A(x)}{\chi_A(x)}, d’après une décomposition en fraction rationnelle bien connue (cf Fiche de cours Polynômes).

Exercice 2 ⭐️ Endomorphismes qui commutent, Spé/L2/Classique

Soit u\displaystyle u et v\displaystyle v deux endomorphismes de Cn\displaystyle \C^n qui commutent. Montrer que les s-ev propres de l’un sont stables par l’autre. Montrer qu’ils ont au moins un vecteur propre en commun.

Soit λ\displaystyle \lambda une valeur propre de u\displaystyle u, alors Ker(uλId){0}\displaystyle {\rm Ker}(u-\lambda Id)\neq \{0\}. Soit xKer(uλId)\displaystyle x\in {\rm Ker}(u-\lambda Id), non nul. On a u(v(x))=v(u(x))=v(λx)=λv(x)\displaystyle u(v(x))=v(u(x))=v(\lambda x)=\lambda v(x), donc v(x)Ker(uλId)\displaystyle v(x)\in {\rm Ker}(u-\lambda Id), ce qui montre que Ker(uλId)\displaystyle {\rm Ker}(u-\lambda Id) est stable par v\displaystyle v.

Comme le polynôme caractéristique de u\displaystyle u est scindé sur C\displaystyle \C, u\displaystyle u admet au moins une valeur propre λC\displaystyle \lambda\in\C. Comme Ker(uλId)\displaystyle {\rm Ker}(u-\lambda Id) est stable par v\displaystyle v, on déduit que v\displaystyle v induit sur Ker(uλId)\displaystyle {\rm Ker}(u-\lambda Id) un endomorphisme. Ce dernier possède alors au moins une valeur propre et donc aussi un vecteur propre x\displaystyle x, qui appartient par définition au sous-espace propre Ker(uλId)\displaystyle {\rm Ker}(u-\lambda Id). Ainsi x\displaystyle x est un bien vecteur propre commun à u\displaystyle u et v\displaystyle v.

Exercice 3 ⭐️⭐️ Ap=I2\displaystyle A^p=I_2, Mines MP, Spé/L2

Soit AM2(Z)\displaystyle A\in M_2(\Z) telle que detA=1\displaystyle \det A=1. On suppose qu’il existe p1\displaystyle p\ge1 tel que Ap=I2\displaystyle A^p=I_2.
Montrer que A12=I2\displaystyle A^{12}=I_2.

  • Polynôme annulateur scindé à racines simples 👉 Matrice diagonalisable !
  • Valeurs propres, trace, det ?

Un polynôme annulateur de A\displaystyle A est Xp1\displaystyle X^p-1. Comme il est scindé à racines simples dans C\displaystyle \mathbb C, A\displaystyle A est diagonalisable dans C\displaystyle \C.
Les racines du polynôme caractéristique χA\displaystyle \chi_A doivent donc être des racines p\displaystyle p-ième de l’unité. Comme χAR[X]\displaystyle \chi_A\in \R[X] est de degré 2\displaystyle 2, il a deux racines complexes conjuguées λ=eiθ\displaystyle \lambda=e^{i\theta} et λ=eiθ\displaystyle \overline{\lambda}=e^{-i\theta}.
De plus on a Tr(A)=eiθ+eiθ=2cos(θ)Z\displaystyle Tr(A)=e^{i\theta}+e^{-i\theta}=2\cos(\theta)\in \Z car χAZ[X]\displaystyle \chi_A\in \Z[X]. Donc cos(θ){1,1/2,0,1/2,1}.\cos(\theta)\in\{-1,-1/2,0,1/2,1\}. On peut donc faire tous les cas possibles pour θ\displaystyle \theta (mod 2π\displaystyle 2\pi) : {π,2π/3,π/2,π/3,0}.\{\pi,2\pi/3,\pi/2,\pi/3,0\}. On obtient alors les différents ordres α\displaystyle \alpha de A\displaystyle A possibles qui sont 2,3,4,6\displaystyle 2,3,4,6 ou 1\displaystyle 1 (on veut le plus petit entier non nul α\displaystyle \alpha tel que (eiθ)α=eiαθ=1\displaystyle (e^{i\theta})^\alpha=e^{i\alpha\theta}=1, i.e. αθ=2π\displaystyle \alpha\theta=2\pi). Dans tous les cas A12=I2\displaystyle A^{12}=I_2.

Exercice 4 ⭐️⭐️ Centrale

Soit AGL2(C)\displaystyle A\in GL_2(\mathbb C). L’équation Xn=A\displaystyle X^n=A admet-elle toujours une solution dans GL2(C)\displaystyle GL_2(\mathbb C) ?

Peu d’information sur A\displaystyle A 👉 Réduire A\displaystyle A, i.e. trigonaliser ou diagonaliser.

On va d’abord réduire A\displaystyle A pour y voir plus clair. De deux choses l’une :

  1. Soit A\displaystyle A n’a qu’une valeur propre λC\displaystyle \lambda\in\mathbb C, et alors soit A=λId\displaystyle A=\lambda Id, soit A\displaystyle A est semblable à (λ10λ)\displaystyle \left(\begin{matrix} \lambda & 1 \\ 0 & \lambda \end{matrix}\right) ;
  2. ou bien A\displaystyle A a deux valeurs propres distinctes λ1λ2\displaystyle \lambda_1\neq\lambda_2, et la matrice est diagonalisable, donc semblable à (λ100λ2)\displaystyle \left(\begin{matrix} \lambda_1 & 0 \\ 0 & \lambda_2 \end{matrix}\right).

Dans le cas 2), on cherche des solutions sous la forme X=(z100z2)\displaystyle X=\left(\begin{matrix} z_1 & 0 \\ 0 & z_2 \end{matrix}\right), i.e. on veut z1n=λ1\displaystyle z_1^n=\lambda_1 et z2n=λ2\displaystyle z_2^n=\lambda_2. Ces deux équations ont bien des solutions dans C\displaystyle \C en utilisant des racines n\displaystyle n-ième de l’unité. C’est gagné !
Dans le cas 1), il est naturel de chercher des solutions sous la forme X=(za0z)\displaystyle X=\left(\begin{matrix} z & a \\ 0 & z \end{matrix}\right).
On a X2=(za0z)(za0z)=(z22za0z2)\displaystyle X^2=\left(\begin{matrix} z & a \\ 0 & z \end{matrix}\right)\left(\begin{matrix} z & a \\ 0 & z \end{matrix}\right)=\left(\begin{matrix} z^2 & 2za \\ 0 & z^2 \end{matrix}\right), et en continuant on peut conjecturer et prouver par récurrence que Xn=(znnzn1a0zn)\displaystyle X^n=\left(\begin{matrix} z^n & nz^{n-1}a \\ 0 & z^n \end{matrix}\right). On résout donc d’abord zn=λ\displaystyle z^n=\lambda. Comme AGL2(C)\displaystyle A\in GL_2(\mathbb C), on a λ0\displaystyle \lambda\neq0 et donc z0\displaystyle z\neq0. Il suffit donc de poser a=1nzn1\displaystyle a=\frac{1}{nz^{n-1}} pour conclure. Jusqu’à présent on a résolu l’équation en X\displaystyle X à partir des matrices réduites de A\displaystyle A, qu’on notera P1AP\displaystyle P^{-1}AP. Dans le cas général, les solutions s’écrivent alors PXP1\displaystyle PXP^{-1} car (PXP1)n=PXnP1\displaystyle (PXP^{-1})^n=PX^nP^{-1}.

Exercice 5 ⭐️⭐️⭐️ Dimension du commutant, Spé/L2

Soit AMn(C)\displaystyle A\in M_n(\mathbb C) diagonalisable. On pose C(A)={BMn(C),BA=AB}\displaystyle \mathcal C(A)=\{B\in M_n(\mathbb C), BA=AB\}. Calculer dim C(A)\displaystyle {\rm dim}\ \mathcal C(A) et montrer dim C(A)n\displaystyle {\rm dim}\ \mathcal C(A) \ge n.

Matrice diagonalisable 👉 écrire la diagonalisation, puis examiner le problème dans la nouvelle base (ici il s’agit d’écrire la formule de changement de base pour les matrices A\displaystyle A et B\displaystyle B en question).

Notons λ1,,λp\displaystyle \lambda_1,\dots,\lambda_p les valeurs propres distinctes de A\displaystyle A.
On note aussi Eλi\displaystyle E_{\lambda_i} le sous espace propre associé à λi\displaystyle \lambda_i, et di\displaystyle d_i sa dimension.
Soit B\displaystyle \mathcal B une base de Cn\displaystyle \mathbb C^n adaptée à Eλ1Eλp\displaystyle E_{\lambda_1}\oplus \cdots\oplus E_{\lambda_p}, et P\displaystyle P la matrice de passage de la base canonique vers B\displaystyle \mathcal B. Alors on a P1AP=D\displaystyle P^{-1}AP=D, avec par blocs : D=(λ1Id1λpIdp).D=\begin{pmatrix} \lambda_1 I_{d_1} & &\\ & \ddots & \\ &&\lambda_p I_{d_p} \end{pmatrix}.
On a BA=ABBPDP1=PDP1B(P1BP)D=D(P1BP)BD=DB,\begin{aligned} BA=AB & \Leftrightarrow BPDP^{-1}=PDP^{-1}B\\ & \Leftrightarrow (P^{-1}BP)D=D(P^{-1}BP)\\ & \Leftrightarrow B'D=DB', \end{aligned} en posant B=P1BP\displaystyle B' = P^{-1}BP. Montrons qu’on a l’équivalence entre :
(i) BD=DB\displaystyle B'D=DB',
(ii) B\displaystyle B' est de la forme (M1Mp),\displaystyle \begin{pmatrix} M_1 & &\\ & \ddots & \\ &&M_p \end{pmatrix}, avec MiMdi(C)\displaystyle M_i\in M_{d_i}(\mathbb C) pour i=1,,p\displaystyle i=1,\dots,p.

  • Supposons (i). Alors les sous-espaces propres de D\displaystyle D sont stables par B\displaystyle B', ce qui montre que B\displaystyle B' est de cette forme.
  • Supposons (ii). Alors BD=DB=(λ1M1λpMp)\displaystyle B'D=DB'=\begin{pmatrix} \lambda_1M_1 & &\\ & \ddots & \\ &&\lambda_pM_p \end{pmatrix}.

Conclusion. C(A)\displaystyle \mathcal C(A) est l’image par l’isomorphisme MPMP1\displaystyle M\mapsto PMP^{-1}, de l’espace vectoriel des matrices de la forme (M1Mp)\displaystyle \begin{pmatrix} M_1 & &\\ & \ddots & \\ &&M_p \end{pmatrix}. Ainsi dimC(A)=d12++dp2\displaystyle \dim \mathcal C(A)=d_1^2+\dots+d_p^2. Comme di1\displaystyle d_i\ge 1 on a au passage dimC(A)d1++dp=n.\displaystyle \dim \mathcal C(A)\ge d_1+\dots+d_p=n.

Exercice 6 ⭐️⭐️⭐️⭐️ ENS, MP/Agreg

Soit n<m\displaystyle n<m. Montrer que GLn(R)\displaystyle GL_n(\R) et GLm(R)\displaystyle GL_m(\R) ne sont pas isomorphes.

A\displaystyle A et B\displaystyle B pas isomorphe 👉 Trouver une sous-structure dans A\displaystyle A qui n’est pas (à isomorphisme près bien sûr) dans B\displaystyle B.

Ici, on parle de groupe, donc on va chercher un sous-groupe de GLm(R)\displaystyle GL_m(\R) qui n’est pas dans GLn(R)\displaystyle GL_n(\R). Toujours penser aux choses les plus simples : pour un groupe, on peut penser à un sous groupe cyclique, ou un sous-groupe qu’avec des éléments d’ordre 2\displaystyle 2 (on peut difficilement faire moins 😃) ; pour des matrices, on peut penser à des matrices de rang 1\displaystyle 1, ou à des matrices diagonales. On peut faire un bon compromis avec des matrices diagonales avec des 1\displaystyle 1 ou 1\displaystyle -1. Dans GLm(R)\displaystyle GL_m(\R), ces matrices sont d’ordre 2\displaystyle 2 et elles forment un sous-groupe H\displaystyle H d’ordre (de cardinal) 2m\displaystyle 2^m.

Supposons qu’il existe un isomorphisme f\displaystyle f de GLm(R)\displaystyle GL_m(\R) dans GLn(R)\displaystyle GL_n(\R). Alors G=f(H)\displaystyle G=f(H) est un sous-groupe commutatif de GLn(R)\displaystyle GL_n(\R) d’ordre 2m\displaystyle 2^m. Soit SG\displaystyle S\in G, alors S2=In\displaystyle S^2=I_n. Ainsi S\displaystyle S est diagonalisable car annulé par un polynôme scindé à racines simples, et ses valeurs propres sont dans {1,1}\displaystyle \{-1,1\}. Tous les éléments de G\displaystyle G commutent, donc ils sont diagonalisables dans une même base. Donc tous les éléments de G\displaystyle G s’écrivent PMP1\displaystyle PMP^{-1}M\displaystyle M est diagonale avec des 1\displaystyle 1 ou 1\displaystyle -1 sur la diagonale. Ainsi 2m=G2n\displaystyle 2^m=|G|\le 2^n, ce qui contredit n<m\displaystyle n<m !

Exercice 7 ⭐️⭐️ Droite et hyperplan stables, Spé/L2/Classique

Soit E\displaystyle E un C\displaystyle \C-espace vectoriel de dimension fini et uL(E)\displaystyle u\in\mathcal L(E).
Montrer que u\displaystyle u admet une droite stable et un hyperplan stable.

Comme le polynôme caractéristique de u\displaystyle u est scindé sur C\displaystyle \C, u\displaystyle u admet au moins une valeur propre λC\displaystyle \lambda\in\C, et donc un vecteur propre, qui engendre une droite stable.

Soit A\displaystyle A la matrice de u\displaystyle u dans la base canonique de Cn\displaystyle \C^n. Pour la même raison que précédemment, la matrice AT\displaystyle A^T admet une valeur propre μC\displaystyle \mu\in\C. Soit X\displaystyle X un vecteur (colonne) propre associé, i.e. ATX=μX\displaystyle A^TX=\mu X. On a aussi XTA=μXT\displaystyle X^TA=\mu X^T et donc pour tout vecteur colonne Y\displaystyle Y, XTAY=μXTY\displaystyle X^TAY=\mu X^TY. On en déduit que si XTY=0\displaystyle X^TY=0 alors XT(AY)=0\displaystyle X^T(AY)=0. Cela signifie que l’hyperplan {YCn, XTY=0}\displaystyle \{Y\in \C^n, \ X^TY=0\} est stable par A\displaystyle A.

Exercice 8 ⭐️ Spé/L2

Soit AMn(C)\displaystyle A\in M_n(\C), aC\displaystyle a\in\C et bC\displaystyle b\in\C^*. Déterminer les valeurs propres et les sous-ev propres de B=aIn+bA\displaystyle B = aI_n+bA en fonction de ceux de A. Quand B\displaystyle B est-elle diagonalisable ?

Soit λC\displaystyle \lambda\in\C. Comme b0\displaystyle b\neq0, on a, pour XCn\displaystyle X\in \C^n,
(aIn+bAλIn)X=0    (bA(λa)In)X=0    (AλabIn)X=0\displaystyle (aI_n +bA−\lambda I_n)X = 0 \iff (bA−(\lambda−a)I_n)X = 0 \iff \left(A-\frac{\lambda-a}{b}I_n\right)X=0,
ce qui montre que Ker(BλIn)=Ker(AλabIn)\displaystyle {\rm Ker}(B − \lambda I_n) = {\rm Ker}\left(A-\frac{\lambda-a}{b}I_n\right), d’où λSp(B)    λabSp(A)\displaystyle \lambda \in Sp(B) \iff \frac{\lambda-a}{b} \in Sp(A).
On peut en déduire : A\displaystyle A diagonalisable     \displaystyle \iff B\displaystyle B diagonalisable.

Exercice 9 ⭐️ Spectre et polynôme annulateur, MP/ECS2/L2/Classique

Soit A,BMn(R)\displaystyle A,B\in M_n(\R) et P\displaystyle P un polynôme annulateur non nul de A\displaystyle A.
Montrer que si P(B)\displaystyle P(B) est inversible alors Sp(A)Sp(B)=\displaystyle Sp(A)\cap Sp(B) = \emptyset.

Supposons par l’absurde que Sp(A)Sp(B)\displaystyle Sp(A)\cap Sp(B) \neq \emptyset et soit λSp(A)Sp(B)\displaystyle \lambda\in Sp(A)\cap Sp(B). Alors AX=λX\displaystyle AX=\lambda X et BY=λY\displaystyle BY=\lambda Y pour des vecteurs propres X\displaystyle X et Y\displaystyle Y non nuls. On a P(A)X=P(λ)X=0\displaystyle P(A)X=P(\lambda) X=0 car P\displaystyle P est un polynôme annulateur de A\displaystyle A. Donc P(λ)=0\displaystyle P(\lambda)=0. Mais on a aussi P(B)Y=P(λ)Y\displaystyle P(B)Y=P(\lambda) Y, donc P(B)Y=0\displaystyle P(B)Y=0. Comme P(B)\displaystyle P(B) est inversible, il vient Y=0\displaystyle Y=0, ce qui est impossible car Y\displaystyle Y est un vecteur propre.

Exercice 10 ⭐️ Spé/L2

Soit ϕ\displaystyle \phi une forme linéaire non nulle sur E=Rn\displaystyle E=\R^n et e\displaystyle e un vecteur non nul de E\displaystyle E.
Soit fL(E)\displaystyle f\in \mathcal L(E) défini par f(x)=x+ϕ(x)e\displaystyle f(x) = x + \phi(x)e, xE\displaystyle x\in E.
Montrer que : f\displaystyle f est diagonalisable     \displaystyle \iff ϕ(e)0\displaystyle \phi(e)\neq 0.

Remarquons que f(x)=x    ϕ(x)=0\displaystyle f(x)=x \iff \phi(x)=0, donc Ker(fId)=Kerϕ\displaystyle {\rm Ker}(f-Id)=Ker \phi.
Par le théorème du rang, comme ϕ:RnR\displaystyle \phi:\R^n\to\R, dim Ker ϕ=n1\displaystyle {\rm dim\ Ker}\ \phi=n-1 et donc 1\displaystyle 1 est valeur propre de f\displaystyle f et son sous-espace propre associé est de dimension n1\displaystyle n-1. De plus f(e)=(1+ϕ(e))e\displaystyle f(e)=(1+\phi(e))e. Ainsi si ϕ(e)0\displaystyle \phi(e)\neq 0, alors 1+ϕ(e)1\displaystyle 1+\phi(e)\neq 1 est une autre valeur propre que 1\displaystyle 1, et donc f\displaystyle f est diagonalisable.
Réciproquement, si f\displaystyle f est diagonalisable, elle possède une valeur propre λ1\displaystyle \lambda \neq 1, i.e. il existe y0\displaystyle y\neq 0 et yKerϕ\displaystyle y\notin Ker \phi tel que f(y)=λy\displaystyle f(y)=\lambda y. Donc (λ1)y=ϕ(y)e\displaystyle (\lambda-1)y=\phi(y)e, et en appliquant ϕ\displaystyle \phi aux 2 membres, on obtient, car ϕ(y)0\displaystyle \phi(y)\neq0, ϕ(e)=λ10\displaystyle \phi(e)=\lambda-1\neq 0.

Exercice 11 ⭐️⭐️⭐️ ABBA=A\displaystyle AB-BA=A, Spé/L2

Soit A\displaystyle A et B\displaystyle B deux matrices carrées telles ABBA=A\displaystyle AB-BA=A. Montrer que A\displaystyle A est nilpotente.

Relation entre A\displaystyle A et B\displaystyle B 👉 Faire des petits calculs pour se donner des idées : A2=\displaystyle A^2=\cdots, AB=\displaystyle AB=\cdots, etc.

Il faut montrer que An=0\displaystyle A^n=0 pour un certain n\displaystyle n. On ne voit pas très bien ce qu’il faut faire, donc on fait des petits calculs pour se donner des idées. Le plus naturel :
A2=ABABA2AB=A+BA=(I+B)AA2=A(ABA)BA2=A2BA2BA2\begin{aligned}{} A^2&=ABA-BA^2\\\\ AB&=A+BA\\ &=(I+B)A\\\\ A^2&=A(AB-A)-BA^2\\ &=A^2B-A^2-BA^2\\ \end{aligned}

La dernière ligne donne 2A2=A2BBA2\displaystyle 2A^2=A^2B-BA^2, et vu l’hypothèse, ça sent la récurrence. En effet on a 2A3=A2BABA3\displaystyle 2A^3=A^2BA-BA^3 et il suffit encore de remplacer BA\displaystyle BA par ABA\displaystyle AB-A. On vous laisse montrer proprement que pour tout k1\displaystyle k\ge1, kAk=AkBBAk\displaystyle kA^k=A^kB-BA^k. Cela peut suggérer plusieurs pistes :

  1. On continue sur la généralisation : on peut en déduire que, pour tout polynôme PK[X]\displaystyle P \in \mathbb{K[X]}, on a AP(A)=P(A)BBP(A)\displaystyle A P'(A)=P(A)B-BP(A). En particulier, si P\displaystyle P est le polynôme minimal de A\displaystyle A, on a AP(A)=0\displaystyle AP'(A) = 0. Le polynôme Q(X)=XP(X)\displaystyle Q(X)=XP'(X) annule A\displaystyle A et est de même degré que le polynôme minimal de A\displaystyle A, on en déduit qu’il existe une constante c\displaystyle c telle que Q(X)=cP(X)\displaystyle Q(X)=cP(X). En observant le coefficient dominant, on montre que c=deg(P)\displaystyle c={\rm deg(P)}. Notons k\displaystyle k le degré de P\displaystyle P. On écrit P(X)=i=0kaiXi\displaystyle P(X) = \sum_{i=0}^k a_iX^i avec ak=1\displaystyle a_k= 1. On a alors : 0=kP(X)Q(X)=i=0k(ki)aiXı^.\displaystyle 0 = kP(X)- Q(X) = \sum_{i=0}^k (k-i) a_i X^î.
    En identifiant les coefficients, on en déduit que ai=0\displaystyle a_i = 0 dès que i<k\displaystyle i<k. On peut aussi résoudre xP(x)=kP(x)\displaystyle xP'(x)=kP(x), i.e. log(P(x))=klog(x)\displaystyle \log(P(x))=k\log(x), et P(x)=xk\displaystyle P(x)=x^k. Ainsi P(X)=Xk\displaystyle P(X)=X^k, donc A\displaystyle A est nilpotente.
  2. La relation peut aussi faire penser à une relation aux valeurs propres, vecteurs propres : ϕ(Ak)=kAk\displaystyle \phi(A^k)=kA^k, où ϕ(M)=MBBM\displaystyle \phi(M)=MB-BM, et ça tombe bien, ϕ\displaystyle \phi est un endomorphisme de Mn(R)\displaystyle M_n(\mathbb R). Si Ak\displaystyle A^k n’est nulle pour aucun k\displaystyle k, alors ϕ\displaystyle \phi possède une infinité de valeurs propres, i.e. tous les entiers. Et ceci n’est pas possible sur un e.v. de dimension fini, ici Mn(R)\displaystyle M_n(\mathbb R). Donc il existe k\displaystyle k tel que Ak=0\displaystyle A^k=0.

C’est pas magnifique les maths ?! Cette relation a généré deux idées qui conduisent à des preuves complètement différentes !

Exercice 12 ⭐️⭐️ Mines MP

Soit AMn(C)\displaystyle A \in M_n(\mathbb C). On suppose qu’il existe un polynôme P\displaystyle P tel que P(A)\displaystyle P(A) est diagonalisable et P(A)\displaystyle P'(A) est inversible.
Montrer que A\displaystyle A est diagonalisable.

Exercice théorique sur la diagonalisation 👉 “Il existe un polynôme annulateur scindé à racines simples”.

Comme P(A)\displaystyle P(A) est diagonalisable, il existe un polynôme Q\displaystyle Q scindé à racines simples tel que Q(P(A))=0\displaystyle Q(P(A))=0, et on veut en trouver un pour A\displaystyle A. Des candidats naturels sont les QP\displaystyle Q\circ P. Prenons comme Q\displaystyle Q le polynôme minimal de P(A)\displaystyle P(A). Ses racines (complexes) sont exactement les valeurs propres de P(A)\displaystyle P(A). En trigonalisant A\displaystyle A dans C\displaystyle \mathbb C, on voit que les valeurs propres de P(A)\displaystyle P(A) sont les P(λi)\displaystyle P(\lambda_i) où les λi\displaystyle \lambda_i sont les valeurs propres de A\displaystyle A. Comme Q\displaystyle Q est à racines simples, on a Q(P(λi))0\displaystyle Q'(P(\lambda_i))\neq 0. Les valeurs propres de P(A)\displaystyle P'(A) sont les P(λi)\displaystyle P'(\lambda_i), et comme P(A)\displaystyle P'(A) est inversible, on a P(λi)0\displaystyle P'(\lambda_i)\neq 0. Ainsi Q(P(λi))P(λi)0\displaystyle Q'(P(\lambda_i))P'(\lambda_i)\neq 0, et donc (QP)(λi)0\displaystyle (Q\circ P)'(\lambda_i)\neq 0. Notons que les racines de QP\displaystyle Q\circ P sont exactement les λi\displaystyle \lambda_i. Par suite, QP\displaystyle Q\circ P est un polynôme scindé (sur C\displaystyle \mathbb C) à racines simples et qui annule A\displaystyle A, donc A\displaystyle A est diagonalisable.

Exercice 13 ⭐️⭐️⭐️⭐️ Coefficients Polynôme Caractéristique, Trace, Ulm MP 2019

Soit AMn(R)\displaystyle A \in M_n(\R) et notons P(X)=det(XInA)=Xn+c1Xn1+c2Xn2++cn1X+cn.\displaystyle P(X) = \det(XI_n-A) = X^n + c_1 X^{n-1}+c_2 X^{n-2}+ \cdots +c_{n-1}X+c_n.

  1. En notant λ1,,λn\displaystyle \lambda_1,\ldots,\lambda_n les racines de P\displaystyle P, calculer k=1nP(X)Xλk\displaystyle \sum_{k=1}^n \frac{P(X)}{X-\lambda_k} de deux manières différentes.
  2. Montrer que pour tout 1kn\displaystyle 1 \le k \le n,
    ck=(1)kk!det(tr(A)1000tr(A2)tr(A)200tr(A3)tr(A2)tr(A)300tr(Ak1)tr(Ak2)tr(A)k1tr(Ak)tr(Ak1)tr(A2)tr(A)).c_k = \frac{(-1)^k}{k!} det\left(\begin{array}{cccccc} tr(A) & 1 & 0 & 0 & \cdots & 0 \\ tr(A^2) & tr(A) & 2 & 0 & \cdots & 0 \\ tr(A^3) & tr(A^2) & tr(A) & 3 & \ddots & 0 \\ \vdots & \vdots & \vdots & \ddots & \ddots & 0 \\ tr(A^{k-1}) & tr(A^{k-2}) & \cdots & \cdots & tr(A) & k-1 \\ tr(A^k) & tr(A^{k-1}) & \cdots & \cdots & tr(A^2) & tr(A)\end{array}\right).
  • Expression des coefficients d’un polynôme en fonction de ses racines ;
  • Tr(Ak)\displaystyle Tr(A^k) 👉 Expression en fonction des valeurs propres.

1er réflexe : On exprime les coefficients ck\displaystyle c_k du polynôme P(X)\displaystyle P(X) en fonction des racines de ce dernier (c’est-à-dire les valeurs propres de A\displaystyle A). Le lien est donné par les polynômes symétriques élémentaires en les variables λ1,,λn\displaystyle \lambda_1,\ldots,\lambda_n :
cnk=(1)kσk=(1)kσk(λ1,,λn)=(1)k1i1<<iknj=1kλij.c_{n-k} = (-1)^k \sigma_k = (-1)^k \sigma_k(\lambda_1,\ldots,\lambda_n) = (-1)^k \sum_{1\le i_1 < \cdots < i_k \le n} \prod_{j=1}^k \lambda_{i_j}.

2nd réflexe : On exprime également les quantités Tr(Ak)\displaystyle Tr(A^k) en fonction des valeurs propres λ1,,λn\displaystyle \lambda_1,\ldots,\lambda_n. On sait que A\displaystyle A est semblable à une matrice triangulaire dont les coefficients diagonaux valent λ1,,λn\displaystyle \lambda_1,\ldots,\lambda_n, donc Ak\displaystyle A^k est semblable à une matrice triangulaire avec λ1k,,λnk\displaystyle \lambda_1^k,\ldots,\lambda_n^k pour coefficients diagonaux, donc
Tr(Ak)=λ1k++λnk=Sk.Tr(A^k) = \lambda_1^k+\cdots+\lambda_n^k = S_k. Les Sk\displaystyle S_k sont aussi des polynômes symétriques en les λ1,,λn\displaystyle \lambda_1,\ldots,\lambda_n. Les relations entre les σk\displaystyle \sigma_k et les Sk\displaystyle S_k sont bien comprises, et souvent résumées sous la forme de l’identité de Newton. On peut imaginer que l’idée du concepteur de l’exercice est la suivante :

  • La première question permet d’établir l’identité de Newton, par une méthode assez originale.
  • La deuxième question revient à exprimer les σk\displaystyle \sigma_k uniquement en terme des quantités Sk\displaystyle S_k.

On se rend compte qu’on oublie vite le cadre matriciel posé dans l’exercice, en se ramenant à un exercice sur les polynômes. L’intérêt de ce cadre matriciel réside dans l’interprétation que l’on peut faire du résultat final : la formule prouvée à la deuxième question permet de calculer les coefficients du polynôme caractéristique de A\displaystyle A à l’aide des traces des n\displaystyle n premières puissances de A\displaystyle A, ce qui en termes de calculs est très économe.

  1. On calcule tout d’abord : i=1nP(X)Xλi=i=1nji(Xλj)=P(X).\sum_{i=1}^n \frac{P(X)}{X-\lambda_i} = \sum_{i=1}^n \prod_{j \neq i} (X-\lambda_j) = P'(X) .

Or P(X)=k=0ncnkXk\displaystyle P(X) = \sum_{k=0}^n c_{n-k} X^k (avec cn=1\displaystyle c_n=1), donc
i=1nP(X)Xλi=k=0nkcnkXk1.\sum_{i=1}^n \frac{P(X)}{X-\lambda_i} = \sum_{k=0}^n k c_{n-k} X^{k-1} .
On obtient une autre formule en se plaçant dans le cadre des séries formelles : i=1nP(X)Xλi=i=1nP(X)Xl=0(λiX)l=l=0P(X)Xl1Sl.\sum_{i=1}^n \frac{P(X)}{X-\lambda_i} = \sum_{i=1}^n \frac{P(X)}{X} \sum_{l=0}^\infty \left(\frac{\lambda_i}{X}\right)^l = \sum_{l=0}^\infty P(X) X^{-l-1} S_l. =p=0nl=0cnpSlXpl1=k=0(pl=kcnpSl)Xk1.= \sum_{p=0}^n \sum_{l=0}^\infty c_{n-p} S_l X^{p-l-1} = \sum_{k=0}^\infty \left(\sum_{p-l = k} c_{n-p} S_l \right) X^{k-1}.
En identifiant terme à terme les coefficients des séries formelles, on obtient les formules de Newton :
1kn , (nk)ck=l=0kcklSl.\forall 1 \leq k \leq n \ , \ (n-k) c_k = \sum_{l=0}^k c_{k-l} S_{l}. On peut encore simplifier l’expression en remarquant que S0=n\displaystyle S_0=n, et donc 1kn , kck=l=1kcklSl.\forall 1 \leq k \leq n \ , \ - k c_k = \sum_{l=1}^k c_{k-l} S_{l}.

  1. Les formules de Newton nous fournissent un système de n\displaystyle n équations en les n\displaystyle n inconnues c1,,cn\displaystyle c_1,\ldots,c_n. On peut écrire matriciellement :
    (100S1100S2S1200SnSn1S1n)(1c1cn)=(100).\left(\begin{array}{ccc} 1 & 0 & \cdots & \cdots & \cdots & 0 \\ S_1 & 1 & 0 & \cdots & \cdots & 0 \\ S_2 & S_1 & 2 & 0 & \cdots & 0 \\ \vdots & \vdots & \ddots & \ddots & \ddots & \vdots \\ S_n & S_{n-1} & \cdots & \cdots & S_1 & -n \end{array}\right) \left(\begin{array}{c} 1 \\ c_1 \\ \vdots \\ c_n \end{array}\right) = \left(\begin{array}{c} 1 \\ 0 \\ \vdots \\ 0 \end{array}\right). Le déterminant de la matrice (que l’on appelle A\displaystyle A) est simple à calculer, puisqu’elle est triangulaire : celui-ci vaut n!\displaystyle n!. La formule de Cramer permet alors d’obtenir une expression des ck\displaystyle c_k en fonction des Si\displaystyle S_i. On a : ck=det(Ak)det(A), 1kn,c_k = \frac{\det(A_k)}{\det(A)},\ 1 \le k \le n,Ak\displaystyle A_k est la matrice obtenue en remplaçant la k+1\displaystyle k+1-ème colonne de A\displaystyle A par le vecteur colonne (100)\displaystyle \left(\begin{array}{c} 1 \\ 0 \\ \vdots \\ 0 \end{array}\right). On peut calculer le déterminant de Ak\displaystyle A_k en développant par rapport à la k+1\displaystyle k+1-ème colonne, on obtient que le calcul de ce déterminant se ramène à celui du déterminant de la matrice diagonale par blocs
    det(Ak)=(1)kdet(Mk0PkDk),\det(A_k) = (-1)^k \det \left( \begin{array}{cc} M_k & 0 \\ P_k & D_k \end{array}\right),Mk\displaystyle M_k est exactement la matrice donnée dans l’énoncé, et Dk\displaystyle D_k est la matrice diagonale
    Dk=(k+1000S1k+200S2S100SnS1n),D_k = \left(\begin{array}{ccccc} k+1 & 0 & 0 & \cdots & 0 \\ S_1 & k+2 & 0 &\cdots & 0 \\ S_2 & S_1 & \ddots & \vdots & 0 \\ \vdots & \vdots & \cdots & \ddots & 0 \\ S_n & \cdots & \cdots & S_1 & n \end{array}\right), qui est de déterminant det(Dk)=n!k!,\displaystyle \det(D_k) = \frac{n!}{k!}, et on conclut facilement.

Exercice 14 ⭐️ Spé/L2

Soit x,yR\displaystyle x,y\in\R et A=(01y2x)\displaystyle A = \begin{pmatrix} 0 & -1\\ y & 2 x\\ \end{pmatrix}. Déterminer une CNS pour que A\displaystyle A soit diagonalisable dans R\displaystyle \R.

On a tr(A)=2x\displaystyle {\rm tr}(A)=2x et det(A)=y\displaystyle \det(A)=y, donc le discriminant du polynôme caractéristique χ\displaystyle \chi est Δ=4x24y\displaystyle \Delta=4x^2-4y.
Si Δ>0\displaystyle \Delta>0 i.e. x2>y\displaystyle x^2>y alors χ\displaystyle \chi a 2 racines réelles distinctes et A\displaystyle A est diagonalisable dans R\displaystyle \R.
Si χ\displaystyle \chi a une racine double i.e. Δ=0\displaystyle \Delta=0 et donc x2=y\displaystyle x^2=y, alors : soit A\displaystyle A est diagonalisable et donc A=λI2\displaystyle A=\lambda I_2, ce qui ne peut pas être le cas, soit A\displaystyle A n’est pas diagonalisable.
Si x2<y\displaystyle x^2<y alors χ\displaystyle \chi a deux racines complexes conjuguées, et donc A\displaystyle A est diagonalisable dans C\displaystyle \mathbb C, mais pas dans R\displaystyle \R.

Exercice 101 ⭐️ Spé/L2

Soit D1\displaystyle D_1 et D2\displaystyle D_2 deux matrices carrées diagonales dont les éléments diagonaux sont positifs et telles que D12\displaystyle D_1^2 et D22\displaystyle D_2^2 sont semblables. Montrer que D1\displaystyle D_1 et D2\displaystyle D_2 sont semblables.

Le point clé est d’étudier à quelle condition deux matrices diagonales sont semblables.
En algèbre linéaire beaucoup de propriétés sont conservées par similitude : déterminant, trace, valeurs propres, polynôme caractéristique, dimensions des sous-espaces propres…

Nous commençons par montrer que deux matrices diagonales M=Diag(λ1,,λn)\displaystyle M=\mathrm{Diag}(\lambda_1,\dots,\lambda_n) et N=Diag(μ1,,μn)\displaystyle N=\mathrm{Diag}(\mu_1,\dots,\mu_n) sont semblables ssi il existe σSn\displaystyle \sigma\in \mathfrak S_n tel que i[ ⁣[1,n] ⁣], λσ(i)=μi\displaystyle \forall i\in[\![1,n]\!],~\lambda_{\sigma(i)}=\mu_i, autrement dit ssi les coefficients diagonaux de M\displaystyle M et de N\displaystyle N sont les mêmes à une permutation près.

  • Supposons cette condition vérifiée, notons f\displaystyle f et g\displaystyle g les endomorphismes canoniquement associés à M\displaystyle M et N\displaystyle N, et ϕ\displaystyle \phi l’automorphisme de Rn\displaystyle \R^n tel que i[ ⁣[1,n] ⁣], ϕ(ei)=eσ(i)\displaystyle \forall i\in[\![1,n]\!],~\phi(e_i)=e_{\sigma(i)}, où (e1,,en)\displaystyle (e_1,\dots,e_n) est la base canonique de Rn\displaystyle \R^n. Alors on vérifie que i[ ⁣[1,n] ⁣],  ϕ1fϕ(ei)=λσ(i)ei,\forall i\in[\![1,n]\!],~~\phi^{-1}\circ f\circ \phi(e_i)=\lambda_{\sigma(i)}e_i, donc P1MP=N\displaystyle P^{-1}MP=N, où P\displaystyle P est la matrice canoniquement associée à ϕ\displaystyle \phi.
  • Réciproquement, si M\displaystyle M et N\displaystyle N sont semblables alors elles ont mêmes valeurs propres donc {λ1,,λn}={μ1,,μn}\displaystyle \{\lambda_1,\dots,\lambda_n\} = \{\mu_1,\dots,\mu_n\}. De plus pour αSp(M)=Sp(N)\displaystyle \alpha\in\mathrm{Sp}(M)=\mathrm{Sp}(N), on a dim(Eα(M))=dim(Eα(N))\displaystyle \dim(E_{\alpha}(M))=\dim(E_{\alpha}(N)), donc le nombre d’apparitions de α\displaystyle \alpha dans les listes (λ1,,λn)\displaystyle (\lambda_1,\dots,\lambda_n) et (μ1,,μn)\displaystyle (\mu_1,\dots,\mu_n) sont égaux.

Conclusion. Si on note D1=Diag(a1,,an)\displaystyle D_1=\mathrm{Diag}(a_1,\dots,a_n) et D2=Diag(b1,,bn)\displaystyle D_2=\mathrm{Diag}(b_1,\dots,b_n), D12\displaystyle D_1^2 et D22\displaystyle D_2^2 sont diagonales. Donc l’hypothèse entraîne qu’il existe σSn\displaystyle \sigma\in \mathfrak S_n tel que i[ ⁣[1,n] ⁣], (aσ(i))2=(bi)2\displaystyle \forall i\in[\![1,n]\!],~(a_{\sigma(i)})^2=(b_i)^2.
Comme tous ces coefficients sont positifs on a donc aσ(i)=bi\displaystyle a_{\sigma(i)}=b_i, et donc D1\displaystyle D_1 et D2\displaystyle D_2 sont semblables.

Exercice 276 ⭐️⭐️⭐️ Caractérisation topologique de propriété algébrique, X MP 2019, L2/L3

Pour MMn(C)\displaystyle M \in \mathcal{M}_n(\mathbb{C}), on note S(M)={PMP1, PGLn(C)}\displaystyle S(M)=\{ PMP^{-1},\ P \in \mathrm{GL}_n(\mathbb C)\}.

  1. Montrer : ε>0,MεS(M) / ij, Mε(i,j)ε\displaystyle \forall \varepsilon > 0, \exists\, M_\varepsilon \in S(M)\ /\ \forall i\neq j, \ |M_{\varepsilon}(i,j)| \leqslant \varepsilon.
  2. Prouver : M\displaystyle M est diagonalisable     S(M)\displaystyle \iff S(M) est fermé.
  3. Montrer : M\displaystyle M est nilpotente     0Mn(C)S(M)\displaystyle \iff 0_{\mathcal{M}_n(\mathbb{C})} \in \overline{S(M)}.

(Enoncé d’après RMS)

  1. On a une matrice dans Mn(C)\displaystyle \mathcal{M}_n(\mathbb{C}) et on ne sait pas quoi faire 👉 Trigonaliser pour voir ce qui se passe !
  2. Question théorique sur la diagonalisation 👉 Il existe un polynôme annulateur scindé à racines simples.
  1. Comme MMn(C)\displaystyle M \in \mathcal{M}_n(\mathbb{C}), on peut la trigonaliser : il existe QGLn(C)\displaystyle Q \in GL_n(\mathbb{C}) telle que M=Q1TQ\displaystyle M = Q^{-1}TQ, avec T\displaystyle T triangulaire supérieure. Soit D=diag(d1,,dn)\displaystyle D = {\rm diag}(d_1,\ldots,d_n) où les coefficients di>0\displaystyle d_i>0 seront choisis plus tard. Donc D\displaystyle D est inversible et D1TDS(M)\displaystyle D^{-1} T D \in S(M). On peut calculer rapidement les coefficients de cette matrice : (D1TD)i,j=djdiTij.(D^{-1} T D) _{i,j}= \frac{d_j}{d_i} T_{ij}. Soit A=max(Ti,j:i<j)\displaystyle A' = \max(|T_{i,j}| : i<j) et A=max(A,ε)\displaystyle A=\max(A',\varepsilon). On choisit di=εi1Ai1\displaystyle d_i = \frac{\varepsilon^{i-1}}{A^{i-1}} de telle sorte que i<j , (D1TD)i,j=εjiAjiTi,jεATi,jε.\forall i<j \ , \ \left| (D^{-1} T D) _{i,j} \right|= \frac{\varepsilon^{j-i}}{A^{j-i}} |T_{i,j}| \le \frac{\varepsilon}{A} |T_{i,j}| \le \varepsilon. Comme T\displaystyle T est triangulaire supérieure, on a (D1TD)i,j=0\displaystyle (D^{-1} T D) _{i,j} = 0 pour tout i>j\displaystyle i>j. On a donc trouvé un élément de S(M)\displaystyle S(M) dont les coefficients hors-diagonaux sont petits.
  2. Supposons que S(M)\displaystyle S(M) est fermé. D’après la question 1) il existe une suite MmS(M)\displaystyle M_m\in S(M) qui tend vers une matrice diagonale D\displaystyle D. Comme S(M)\displaystyle S(M) est fermé, on en déduit DS(M)\displaystyle D\in S(M), ce qui veut dire que M\displaystyle M est diagonalisable.
    Réciproquement, supposons M\displaystyle M diagonalisable. Donc il existe un polynôme P\displaystyle P annulateur de M\displaystyle M scindé à racines simples. Considérons une suite MmS(M)\displaystyle M_m\in S(M), i.e. Mm=QmMQm1\displaystyle M_m=Q_mMQ_m^{-1}, tendant vers AMn(C)\displaystyle A\in \mathcal{M}_n(\C). On a P(Mm)=0\displaystyle P(M_m)=0 car Mmk=QmMkQm1\displaystyle M_m^k=Q_m M^kQ_m^{-1} et P(M)=0\displaystyle P(M)=0. Comme l’application XP(X)\displaystyle X\mapsto P(X), Mn(C)Mn(C)\displaystyle \mathcal{M}_n(\C)\to \mathcal{M}_n(\C), est continue, on en déduit P(A)=0\displaystyle P(A)=0, et donc A\displaystyle A est diagonalisable. De la même façon, on a la limite des polynômes caractéristiques : χMmχA\displaystyle \chi_{M_m}\to\chi_A. Comme χMm=χM\displaystyle \chi_{M_m}=\chi_{M}, il vient χA=χM\displaystyle \chi_{A}=\chi_{M}, donc A\displaystyle A et M\displaystyle M ont les mêmes valeurs propres. Or elles sont aussi toutes les deux diagonalisables. Par conséquent elles sont semblables. Ainsi AS(M)\displaystyle A\in S(M), ce qui permet de conclure que S(M)\displaystyle S(M) est fermé.
  3. Soit ε>0\displaystyle \varepsilon>0 et M\displaystyle M une matrice nilpotente. Comme M\displaystyle M n’a que 0\displaystyle 0 comme valeur propre, on en déduit que M\displaystyle M est semblable à une matrice M\displaystyle M' triangulaire supérieure avec des zéros sur la diagonale. D’après la construction de la question 1) il existe donc MεS(M)=S(M) / i,j, Mε(i,j)ε\displaystyle M_\varepsilon \in S(M')=S(M)\ /\ \forall i, j, \ |M_{\varepsilon}(i,j)| \le\varepsilon (en effet on peut rendre petits par changement de base les coefficients hors diagonaux, et les coefficients de la diagonale de M\displaystyle M' sont déjà nuls). En prenant pour norme \displaystyle \|\cdot\| sur Mn(C)\displaystyle \mathcal{M}_n(\C) la norme du sup\displaystyle \sup du module de tous les coefficients, on en déduit Mεε\displaystyle \|M_\varepsilon\|\le \varepsilon, et donc 0S(M)\displaystyle 0\in \overline{S(M)}.
    Réciproquement, supposons que 0S(M)\displaystyle 0\in \overline{S(M)}, donc il existe une suite MmS(M)\displaystyle M_m\in \overline{S(M)} tendant vers 0\displaystyle 0 (on prend la norme qu’on veut car en dimension finie elles sont toutes équivalentes). On a donc l’égalité des polynômes caractéristiques χMm=χM\displaystyle \chi_{M_m}=\chi_M. Par continuité de l’application AχA\displaystyle A\mapsto \chi_A (elle est polynomiale en les coefficients de A\displaystyle A), il vient χ0=χM\displaystyle \chi_{0}=\chi_M. Or χ0(X)=Xn=χM(X)\displaystyle \chi_0(X)=X^n=\chi_M(X). Ainsi M\displaystyle M n’a que 0\displaystyle 0 comme valeur propre, donc est semblable à une matrice triangulaire supérieure avec que des 0\displaystyle 0 sur la diagonale. Donc M\displaystyle M est nilpotente (On peut aussi invoquer directement le théorème de Cayley-Hamilton : χM(M)=0=Mn\displaystyle \chi_M(M)=0=M^n).

Exercice 277 ⭐️⭐️ Mines MP 2017, L2/L3

Soient α\displaystyle \alpha et β\displaystyle \beta deux réels. On considère l’endomorphisme Φ:Mn(R)Mn(R)\displaystyle \Phi : \mathcal{M}_n(\R) \rightarrow \mathcal{M}_n(\R) défini par Φ(M)=αM+βMt.\Phi(M) = \alpha M + \beta M^t.

  1. Montrer que Φ\displaystyle \Phi est diagonalisable.
  2. Trouver les valeurs propres et les sous-espaces propres de Φ\displaystyle \Phi, ainsi que leur dimension.
  3. En déduire tr(Φ)\displaystyle {\rm tr}(\Phi) et det(Φ)\displaystyle \det(\Phi).
  1. Prouver la diagonalisabilité avant de chercher les éléments propres 👉 Chercher un polynôme annulateur !
  1. Vu la forme assez simple de Φ\displaystyle \Phi, on peut espérer lui trouver un polynôme annulateur pas trop compliqué… Essayons : Φ2(M)=Φ(αM+βMt)=(α2+β2)M+2αβMt,\Phi^2(M) = \Phi(\alpha M + \beta M^t) = (\alpha^2+\beta^2) M + 2\alpha \beta M^t, donc Φ2(M)=2αΦ(M)+(α2β2)M.\Phi^2(M) = 2 \alpha \Phi(M) + (\alpha^2-\beta^2)M. L’endomorphisme Φ\displaystyle \Phi est donc annulé par le polynôme P(X)=X22αX+(α2β2).P(X) = X^2-2\alpha X +(\alpha^2-\beta^2). Les racines de ce polynôme valent α+β\displaystyle \alpha+\beta et αβ\displaystyle \alpha-\beta. Si β0\displaystyle \beta \neq 0, les deux racines sont distinctes : on a trouvé un polynôme scindé à racines simples qui annule Φ\displaystyle \Phi, on en déduit que Φ\displaystyle \Phi est diagonalisable. Le cas où β=0\displaystyle \beta=0 est très simple : en effet, on a Φ(M)=αM\displaystyle \Phi(M) = \alpha M, donc Φ\displaystyle \Phi est déjà diagonale dans toute base, c’est une homothétie !
  2. D’après la question précédente, les seules valeurs propres possibles pour Φ\displaystyle \Phi sont α+β\displaystyle \alpha+\beta et αβ\displaystyle \alpha-\beta. On recherche les vecteurs propres dans ces deux cas : Φ(M)=(α+β)MβM=βMt.\Phi(M) = (\alpha+\beta)M \Leftrightarrow \beta M = \beta M^t. Si on suppose β0\displaystyle \beta \neq 0 (cf question précédente), on en déduit que le sous-espace propre associé à la valeur propre α+β\displaystyle \alpha+\beta est l’espace Sn(R)\displaystyle \mathcal{S}_n(\R) des matrices symétriques. De la même façon (toujours avec β0\displaystyle \beta \neq 0), on a Φ(M)=(αβ)M\displaystyle \Phi(M) = (\alpha-\beta)M si et seulement si M\displaystyle M est dans l’espace An(R)\displaystyle \mathcal{A}_n(\R) des matrices antisymétriques. Comme les espaces propres sont en somme directe, on obtient le résultat suivant : Mn(R)=An(R)Sn(R).\mathcal{M}_ n(\R) = \mathcal{A}_ n(\R) \oplus \mathcal{S} _ n(\R). Le calcul des dimensions des sous-espaces est classique. On peut remarquer que l’ensemble des matrices de la forme EijEji\displaystyle E_{ij}-E_{ji}, avec 1i<jn\displaystyle 1\le i<j \le n est de cardinal n(n1)2\displaystyle \frac{n(n-1)}{2} et forme une famille libre d’éléments de An(R)\displaystyle \mathcal{A} _ n(\R). De même, l’ensemble des matrices de la forme Eij+Eji\displaystyle E_{ij}+E_{ji}, avec 1ijn\displaystyle 1\le i \le j \le n est de cardinal n(n+1)2\displaystyle \frac{n(n+1)}{2} et forme une famille libre d’éléments de Sn(R)\displaystyle \mathcal{S} _ n(\R). Comme An(R)\displaystyle \mathcal{A} _ n(\R) et Sn(R)\displaystyle \mathcal{S} _ n(\R) sont en somme directe, on a trouvé une famille libre dans M(R)\displaystyle \mathcal{M} _ (\R) de cardinal n(n1)2+n(n+1)2=n2=dim(Mn(R))\displaystyle \frac{n(n-1)}{2} + \frac{n(n+1)}{2} = n^2 = {\dim}(\mathcal{M}_n(\R)), c’est donc une base de Mn(R)\displaystyle \mathcal{M}_n(\R) adaptée à la décomposition. Ainsi dim(An(R))=n(n1)2\displaystyle {\rm dim}(\mathcal{A}_n(\R)) = \frac{n(n-1)}{2} et dim(Sn(R))=n(n+1)2\displaystyle {\rm dim}(\mathcal{S}_n(\R)) = \frac{n(n+1)}{2}.
  3. On connaît les valeurs propres de Φ\displaystyle \Phi ainsi que leur multiplicité, on peut donc en déduire : tr(Φ)=n(n+1)2(α+β)+n(n1)2(αβ)=n2α+nβ{\rm tr}(\Phi) = \frac{n(n+1)}{2}(\alpha+\beta) + \frac{n(n-1)}{2}(\alpha-\beta) = n^2 \alpha + n\beta et det(Φ)=(α+β)n(n+1)2(αβ)n(n1)2.\det(\Phi) = (\alpha+\beta)^{\frac{n(n+1)}{2}}(\alpha-\beta)^{\frac{n(n-1)}{2}}.

Exercice 285 ⭐️⭐️⭐️ X MP 2017, L2/L3

Soient A1,,An\displaystyle A_1,\ldots,A_n des matrices nilpotentes de Mn(R)\displaystyle \mathcal{M}_n(\R) qui commutent deux à deux.
Montrer que A1An=0.\displaystyle A_1 \cdots A_n = 0.

  • Matrices qui commutent 👉 Im\displaystyle {\rm Im} et sous-ev propres de l’un stable par l’autre ;
  • Matrices nilpotentes 👉 Prendre des puissances ; l’ordre de nilpotence n’excède pas n\displaystyle n.

Preuve classique :
Moralement, en composant par des endomorphismes qui diminue le rang à chaque fois (un endomorphisme nilpotent n’est pas surjectif), on va bien finir par arriver à {0}\displaystyle \{0\}. Autant faut-il pouvoir le justifier ! C’est la commutativité qui va jouer un rôle clé, et que u\displaystyle u nilpotent restreint à un s-ev stable est encore nilpotent, donc non surjectif.

On continue de noter avec des lettres capitales les endomorphismes associés.
On pose Ik=Im(Bk)\displaystyle I_k={\rm Im}(B_k) avec Bk=AkAk1A1\displaystyle B_k=A_kA_{k-1}\cdots A_1, 1kn\displaystyle 1\le k\le n. Soit k2\displaystyle k\ge2. Par hypothèse, Ak\displaystyle A_k commute avec Bk1\displaystyle B_{k-1}. Soit yIk1\displaystyle y\in I_{k-1}, alors y=Bk1x\displaystyle y=B_{k-1}x, d’où Aky=AkBk1x=Bk1(Akx)\displaystyle A_k y=A_kB_{k-1}x=B_{k-1}(A_kx), et donc AkyIk1\displaystyle A_k y\in I_{k-1}. Ainsi Ak(Ik1)Ik1\displaystyle A_k(I_{k-1})\subset I_{k-1}. Cette inclusion est stricte car Ak\displaystyle A_k restreint à Ik1\displaystyle I_{k-1} est encore nilpotent donc non surjectif.
On remarque que Ak(Ik1)=IkIk1\displaystyle A_k(I_{k-1})=I_k\subset I_{k-1}. On a donc une suite strictement décroissante de sous-espaces vectoriels (pour l’inclusion) tant qu’ils ne valent pas {0}\displaystyle \{0\}, donc leur dimension est une suite strictement décroissante d’entiers tant qu’ils ne valent pas 0\displaystyle 0, partant de rg(A1)n\displaystyle {\rm rg }(A_1)\le n. Ainsi au bout d’un certain k0n\displaystyle k_0\le n, Ik0={0}\displaystyle I_{k_0}=\{0\}. D’où le résultat.

Une autre preuve basée sur la combinatoire :
Pour une famille de réels t1,,tn\displaystyle t_1,\ldots,t_n, on va montrer tout d’abord que B=i=1ntiAi\displaystyle B = \sum_{i=1}^n t_i A_i est nilpotente. La propriété de commutativité des Ai\displaystyle A_i permet d’écrire que, pour N1\displaystyle N \ge 1, BN=(p1,,pn)PNi=1ntipiAipi.B^N = \sum_{(p_1,\ldots,p_n) \in P_N} \prod_{i=1}^n t_i^{p_i} A_i^{p_i}. La somme est prise sur l’ensemble PN\displaystyle P_N des n\displaystyle n-uplets p1,,pn\displaystyle p_1,\ldots,p_n d’entiers naturels (éventuellement nuls) dont la somme vaut N\displaystyle N. Si on choisit N\displaystyle N suffisamment grand, ici Nn(n1)+1\displaystyle N \ge n(n-1)+1, alors pour chaque élément (p1,,pn)PN\displaystyle (p_1,\ldots,p_n) \in P_N il existe au moins une coordonnée pi\displaystyle p_i supérieure ou égale à n\displaystyle n. Or on a Ain=0\displaystyle A_i^n=0 car Ai\displaystyle A_i est nilpotente et de dimension n\displaystyle n. On a donc BN=0\displaystyle B^N = 0 : B\displaystyle B est bien une matrice nilpotente.

Or l’ordre de nilpotence d’une matrice dans Mn(R)\displaystyle \mathcal{M}_n(\R) est inférieur à la dimension n\displaystyle n, on en déduit donc que Bn=0\displaystyle B^n = 0, ce qui est beaucoup plus fort ! Et on peut toujours écrire Bn=(p1,,pn)Pni=1ntipiAipi=0.B^n = \sum_{(p_1,\ldots,p_n) \in P_n} \prod_{i=1}^n t_i^{p_i} A_i^{p_i} = 0. Des résultats généraux permettent de conclure que i=1nAipi=0\displaystyle \prod_{i=1}^n A_i^{p_i} = 0 pour tout (p1,,pn)Pn\displaystyle (p_1,\ldots,p_n) \in P_n, en particulier pour (p1,,pn)=(1,,1)\displaystyle (p_1,\ldots,p_n) = (1,\ldots,1), ce qui permet de conclure. On peut donner une preuve un peu plus détaillée : la fonction Q:RnMn(R)\displaystyle Q : \R^n \rightarrow\mathcal{M}_n(\R) définie par Q(t1,,tn)=(p1,,pn)Pni=1ntipiAipiQ(t_1,\ldots,t_n)= \sum_{(p_1,\ldots,p_n) \in P_n} \prod_{i=1}^n t_i^{p_i} A_i^{p_i} est identiquement nulle sur Rn\displaystyle \R^n, en particulier on a (nt1tnQ)(0,,0)=0=i=1nAi.\displaystyle \left(\frac{\partial^n}{\partial t_1 \cdots \partial t_n} Q \right)(0,\ldots,0) = 0 = \prod_{i=1}^n A_i.

Une preuve en “une ligne” :
Avec un peu de culture, Farid Begdadi (MP* Thiers, nov. 2020) a proposé cette solution :
Les Ak\displaystyle A_k commutent deux à deux, donc ils sont co-trigonalisables dans C\displaystyle \C en des matrices triangulaires supérieures avec des 0\displaystyle 0 sur la diagonale car ils sont nilpotents. En multipliant de telles matrices, la 1\displaystyle 1ère surdiagonale, de A1\displaystyle A_1 disons, se décale (en changeant) vers le haut, et donc au bout de n\displaystyle n multiplications, on finit par obtenir la matrice nulle.
Pas mal, hein ? 😜

Remarque : Le décalage de la surdiagonale ici correspondant à la stricte décroissance du rang dans la preuve “classique”.

Exercice 286 ⭐️⭐️ P(A)\displaystyle P(A) nilpotente, Mines MP 2017, MP/L2

Soit AMn(C)\displaystyle A \in \mathcal{M}_n(\mathbb{C}). Soit PC[X]\displaystyle P \in \mathbb{C}[X]. Montrer l’équivalence : P(A) nilpotenteλSp(A) , P(λ)=0.P(A) \ {\rm nilpotente} \Longleftrightarrow \forall \lambda \in {\rm Sp}(A) \ , \ P(\lambda)=0.

On est sur C\displaystyle \C 👉 On peut scinder les polynômes !

On suppose que P(A)\displaystyle P(A) est nilpotente, c’est-à-dire qu’il existe r1\displaystyle r \ge 1 tel que Pr(A)=0\displaystyle P^r(A) = 0. Soit λ\displaystyle \lambda une valeur propre de A\displaystyle A et X\displaystyle X un vecteur propre non nul associé à A\displaystyle A. On a AX=λX\displaystyle AX=\lambda X, et on montre par récurrence que AkX=λkX\displaystyle A^k X = \lambda^k X pour tout k1\displaystyle k \ge 1, puis par linéarité que Q(A)(X)=Q(λ)X\displaystyle Q(A)(X) = Q(\lambda)X pour tout QC[X]\displaystyle Q \in \mathbb{C}[X]. En particulier, on a 0=Pr(A)X=(P(λ))rX\displaystyle 0 = P^r(A)X =( P(\lambda))^r X. Comme X\displaystyle X est non nul, on en déduit que (P(λ))r=0\displaystyle (P(\lambda))^r = 0, donc que P(λ)=0\displaystyle P(\lambda)=0.

Réciproquement, on suppose que P(λ)=0\displaystyle P(\lambda)=0 pour toute valeur propre de A\displaystyle A. Notons Sp(A)={λ1,,λp}\displaystyle {\rm Sp}(A) = \{\lambda_1,\ldots,\lambda_p\}. On peut factoriser P\displaystyle P dans C[X]\displaystyle \mathbb{C}[X] de la façon suivante : P(X)=Q(X)i=1p(Xλi),P(X) = Q(X) \prod_{i=1}^p (X-\lambda_i), avec QC[X]\displaystyle Q \in \mathbb{C}[X] (les λi\displaystyle \lambda_i peuvent aussi être racines de Q\displaystyle Q, mais ce n’est pas important pour la suite). On peut aussi factoriser dans C[X]\displaystyle \mathbb{C}[X] le polynôme minimal de A\displaystyle A : on sait qu’il existe des exposants r1,,rp1\displaystyle r_1,\ldots,r_p \ge 1 tels que πA(X)=i=1p(Xλi)ri.\pi_A(X) = \prod_{i=1}^p (X-\lambda_i)^{r_i}. Si on choisit rmax(r1,,rp)\displaystyle r \ge \max(r_1,\ldots,r_p), on a Pr(X)=πA(X)Qr(X)i=1p(Xλi)rri,P^r(X) = \pi_A(X) Q^r(X) \prod_{i=1}^p (X-\lambda_i)^{r-r_i}, donc πA\displaystyle \pi_A divise Pr\displaystyle P^r, donc Pr\displaystyle P^r est un polynôme annulateur de A\displaystyle A. Ainsi P(A)\displaystyle P(A) est nilpotente.

Exercice 417 ⭐️⭐️⭐️ Identité Valeur propre – Vecteur propre, Matrice symétrique, MP/L3

Soit AMn(R)\displaystyle A \in M_n(\R) une matrice symétrique réelle. Soit (v1,,vn)\displaystyle (v_1,\ldots,v_n) une base orthonormale de Rn\displaystyle \R^n diagonalisant A\displaystyle A et λ1,,λn\displaystyle \lambda_1,\ldots,\lambda_n les valeurs propres associées.

  1. Montrer que A=i=1nλiviviT\displaystyle A=\sum_{i=1}^n \lambda_i v_i v_i^{T}.
  2. Montrer que (ComA)T=i=1n(kiλk)viviT\displaystyle ({\rm Com} A)^T = \sum_{i=1}^n \left( \prod_{k\neq i} \lambda_k \right) v_i v_i^T.
  3. Montrer que, pour λR\displaystyle \lambda \in \R, (Com(λIA))T=i=1n(ki(λλk))viviT.({\rm Com} (\lambda I-A))^T = \sum_{i=1}^n \left( \prod_{k\neq i} (\lambda - \lambda_k) \right) v_i v_i^T.
  4. Soit Mj\displaystyle M_j le j\displaystyle j-ème mineur principal de A\displaystyle A, i.e. la matrice A\displaystyle A privée de sa j\displaystyle j-ème ligne et j\displaystyle j-ème colonne. Montrer que son polynôme caractéristique vaut : χMj(λ)=i=1n(ki(λλk))vi(j)2.\chi_{M_j}(\lambda) = \sum_{i=1}^n \left( \prod_{k\neq i} (\lambda - \lambda_k) \right) v_{i}(j)^2.
  5. En déduire qu’on peut connaître, au signe près, les coefficients des vecteurs propres de A\displaystyle A uniquement à partir des valeurs propres de A\displaystyle A et de ses mineurs.

Cet exercice a été concocté à partir d’un article de recherche co-écrit par notre très cher Terry, mais il est aussi tombé à l’oral X 2020 (!) Vous trouverez sur ce site, réalisé par Big Lucas avec des étudiant(e)s passionné(e)s, une magnifique base de donnée d’exercices corrigés récents de haut niveau, en accès libre ! Voir aussi la page fb. Thanks and Congrats!!

  1. On note B=i=1nλiviviT\displaystyle B = \sum_{i=1}^n \lambda_i v_i v_i^{T}. Comme (v1,,vn)\displaystyle (v_1,\ldots,v_n) est une base de Rn\displaystyle \R^n, pour montrer que A=B\displaystyle A=B il suffit de montrer que Avj=Bvj\displaystyle A v_j = B v_j pour tout 1jn\displaystyle 1 \le j \le n. Or on a Avj=λjvj\displaystyle A v_j = \lambda_j v_j. De plus viTvj=vi,vj\displaystyle v_i^T v_j = \langle v_i,v_j \rangle, donc viTvj\displaystyle v_i^T v_j vaut 1\displaystyle 1 si i=j\displaystyle i=j et 0\displaystyle 0 sinon. Ainsi Bvj=λjvj(vjTvj)=λjvj\displaystyle B v_j = \lambda_j v_j (v_j^T v_j) = \lambda_j v_j et on a montré que Avj=Bvj\displaystyle A v_j=B v_j.
  2. Notons C=i=1n(kiλk)viviT\displaystyle C = \sum_{i=1}^n \left( \prod_{k\neq i} \lambda_k \right) v_i v_i^T. Supposons d’abord que A\displaystyle A est inversible. On a alors (ComA)T=det(A)A1\displaystyle ({\rm Com} A)^T = \det(A) A^{-1}, il suffit alors de montrer que CA=det(A)I\displaystyle C A = \det(A) I. Or on a : CA=i=1nj=1n(kiλk)λjviviTvjvjT.CA = \sum_{i=1}^n \sum_{j=1}^n \left( \prod_{k\neq i} \lambda_k \right) \lambda_j v_i v_i^T v_j v_j^T. Comme à la question précédente, on remarque que viTvj\displaystyle v_i^T v_j vaut 0\displaystyle 0 si ij\displaystyle i \neq j et 1\displaystyle 1 si i=j\displaystyle i=j, donc CA=i=1n(kiλk)λiviviT=(k=1nλk)i=1nviviT.CA = \sum_{i=1}^n\left( \prod_{k\neq i} \lambda_k \right) \lambda_i v_i v_i^T = \left( \prod_{k=1}^n \lambda_k \right) \sum_{i=1}^n v_i v_i^T. On sait que det(A)=k=1nλk\displaystyle \det(A) = \prod_{k=1}^n \lambda_k, et de plus en appliquant la première question à la matrice A=I\displaystyle A=I, on montre que I=i=1nviviT\displaystyle I = \sum_{i=1}^n v_i v_i^T.
    Dans le cas où A\displaystyle A n’est pas inversible, on peut raisonner par densité des matrices inversibles, et remarquer que les applications (ai,j)1i,jn(ComA)T\displaystyle (a_{i,j})_{1 \le i,j \le n} \mapsto ({\rm Com} A)^T et (ai,j)1i,jni=1n(kiλk)viviT\displaystyle (a_{i,j})_{1 \le i,j \le n} \mapsto \sum_{i=1}^n \left( \prod_{k\neq i} \lambda_k \right) v_i v_i^T sont continues. Si on n’est pas à l’aise avec la continuité des éléments propres par rapport aux coefficients, la question suivante permet de s’en sortir de façon plus élémentaire.
  3. La matrice λIA\displaystyle \lambda I - A est diagonalisable dans la même base orthonormée (v1,,vn)\displaystyle (v_1,\ldots,v_n) et ses valeurs propres associées sont λλ1,,λλn\displaystyle \lambda-\lambda_1,\ldots,\lambda-\lambda_n. On peut donc appliquer le résultat de la question 2\displaystyle 2 pour conclure.
  4. Dans l’équation matricielle prouvée à la question précédente, on regarde l’égalité entre les coefficients (j,j)\displaystyle (j,j). Par définition de la comatrice, on sait que le coefficient (j,j)\displaystyle (j,j) de Com(λIA)T\displaystyle {\rm Com(\lambda I - A)}^T est exactement le déterminant du mineur det(λIMj)\displaystyle \det(\lambda I - M_j). C’est donc la polynôme caractéristique de Mj\displaystyle M_j évalué en λ\displaystyle \lambda. De plus, le produit viviT\displaystyle v_i v_i^T est une matrice carrée dont le coefficient (k,l)\displaystyle (k,l) vaut vi(k)vi(l)\displaystyle v_{i}(k) v_{i}(l). En particulier, le coefficient (j,j)\displaystyle (j,j) de i=1n(ki(λλk))viviT\displaystyle \sum_{i=1}^n \left( \prod_{k\neq i} (\lambda - \lambda_k) \right) v_i v_i^T vaut i=1n(ki(λλk))vi(j)2\displaystyle \sum_{i=1}^n \left( \prod_{k\neq i} (\lambda - \lambda_k) \right) v_i(j)^2, ce sui répond à la question.
  5. La matrice Mj\displaystyle M_j est symétrique réelle, donc diagonalisable. On note λ1(Mj),,λn1(Mj)\displaystyle \lambda_1(M_j),\ldots,\lambda_{n-1}(M_j) ses valeurs propres (pas nécessairement distinctes). On a alors χMj(λ)=l=1n1(λλl(Mj))\displaystyle \chi_{M_j}(\lambda) = \prod_{l=1}^{n-1} \left(\lambda-\lambda_l(M_j) \right). On applique le résultat de la question précédente à λ=λi\displaystyle \lambda = \lambda_i : tous les termes de la somme de droite deviennent nuls, sauf un. On obtient : l=1n1(λiλl(Mj))=ki(λiλk)vi(j)2,\prod_{l=1}^{n-1} \left(\lambda_i-\lambda_l(M_j) \right) = \prod_{k \neq i} (\lambda_i - \lambda_k) v_{i}(j)^2, et on a effectivement exprimé vi(j)2\displaystyle v_{i}(j)^2 (donc vi(j)\displaystyle |v_i(j)|) uniquement en fonction des λi\displaystyle \lambda_i et des λl(Mj)\displaystyle \lambda_l(M_j).

Remarque — Cette propriété assez méconnue a été “redécouverte” très récemment par, entre autres, le célèbre mathématicien Terry Tao. On peut trouver d’autres preuves ici.

Exercice 484 ⭐️⭐️ Polynôme annulateur, Mines PSI, Spé/L2

Soit AM5(R)\displaystyle A\in M_5(\R) telle que A3=A22A\displaystyle A^3=A^2-2A. La matrice A\displaystyle A est-elle inversible ?

  • On voit un polynôme annulateur 👉 Valeurs propres qui sont racines ; Scindé à racines simples ?
  • Inversible ? 👉 Supposer A\displaystyle A inversible et faire des calculs avec l’inverse.

Suivant nos réflexes, supposons A\displaystyle A inversible. On peut donc simplifier l’égalité A3=A22A\displaystyle A^3=A^2-2A en A2=A2In\displaystyle A^2=A-2I_n, et hop on a un nouveau polynôme annulateur : Q(X)=X2X+2\displaystyle Q(X)=X^2-X+2. Il est de degré 2\displaystyle 2, donc on peut regarder facilement ses racines. Son discriminant est (1)2412=7<0\displaystyle (-1)^2-4\cdot1\cdot2=-7<0, donc Q\displaystyle Q a deux racines complexes conjuguées non réelles.

Est-ce cohérent avec les hypothèses ? On a AM5(R)\displaystyle A\in M_5(\R), donc le polynôme caractéristique est de degré 5\displaystyle 5, donc impair, et alors A\displaystyle A a forcément une valeur propre réelle α\displaystyle \alpha (le graphe d’un polynôme de degré impair coupe nécessairement l’axe réel, TVI !). Or α\displaystyle \alpha doit être aussi racine d’un polynôme annulateur, par exemple Q\displaystyle Q. Contradiction car αR\displaystyle \alpha\in\R !

Conclusion : A\displaystyle A n’est pas inversible.

Exercice 525 ⭐️ χAB=χBA\displaystyle \chi_{AB}=\chi_{BA}, MP/L2

Soient A,BMn(K)\displaystyle A,B\in\mathcal M_n(\mathbb K). On souhaite prouver que χAB=χBA\displaystyle \chi_{AB}=\chi_{BA}.

  1. Démontrer ce résultat si A\displaystyle A ou B\displaystyle B est inversible.
  2. Dans le cas général, on considère les matrices de M2n(K)\displaystyle \mathcal M_{2n}(\mathbb K) :
    M=(BABOO),N=(OBOAB),P=(InOAIn).M=\begin{pmatrix} BA & -B\\ O & O\\ \end{pmatrix},\quad N=\begin{pmatrix} O & -B\\ O & AB\\ \end{pmatrix} ,\quad P=\begin{pmatrix} I_n & O\\ A & I_n\\ \end{pmatrix}.
    Vérifier que PN=MP\displaystyle PN=MP et conclure.
  1. Essayer de passer de AB\displaystyle AB à BA\displaystyle BA en utilisant la matrice A1\displaystyle A^{-1}.
  2. N\displaystyle N et M\displaystyle M semblables 👉 Même polynôme caractéristique !
  1. Supposons par exemple A\displaystyle A inversible. Alors
    χAB=det(XInAB)=det(A(XInBA)A1)=det(A)det(XInBA)det(A1)=det(XInBA)=χBA.\begin{aligned} \chi_{AB}=\det(XI_n-AB)& =\det(A(XI_n-BA)A^{-1})\\ &=\det(A)\det(XI_n-BA)\det(A^{-1})\\ &=\det(XI_n-BA)=\chi_{BA}. \end{aligned}
  2. Le calcul par blocs donne en effet PN=MP=(OBOO)\displaystyle PN=MP=\begin{pmatrix} O & -B\\ O & O\\ \end{pmatrix}.
    Comme P\displaystyle P est inversible, N\displaystyle N et M\displaystyle M sont semblables et donc χN=χM\displaystyle \chi_N=\chi_M.
    Or χN=XnχAB\displaystyle \chi_N=X^n\chi_{AB} et χM=XnχBA\displaystyle \chi_M=X^n\chi_{BA}.
    K[X]\displaystyle \mathbb K[X] étant intègre, l’égalité XnχAB=XnχBA\displaystyle X^n\chi_{AB}=X^n\chi_{BA} donne χAB=χBA\displaystyle \chi_{AB}=\chi_{BA}.

Exercice 526 ⭐️⭐️ Un polynôme annulateur donne des informations, MP/L2

Soit AMn(R)\displaystyle A\in\mathcal M_n(\R), n1\displaystyle n\geq 1.

  1. Soit PR[X]\displaystyle P\in\R[X]. Rappeler pourquoi, si ω\displaystyle \omega est une racine de P\displaystyle P de multiplicité m\displaystyle m, alors ω\displaystyle \overline{\omega} est aussi racine de P\displaystyle P de multiplicité m\displaystyle m.
  2. On suppose que A33A4In=0\displaystyle A^3-3A-4I_n=0. Montrer que det(A)>0\displaystyle \det(A)>0.
  3. On suppose que A2+A+In=0\displaystyle A^2+A+I_n=0. Montrer que n\displaystyle n est pair.
  4. On suppose que A3+A2+A=0\displaystyle A^3+A^2+A=0. Montrer que rg(A)\displaystyle \mathrm{rg}(A) est pair.
  5. On suppose que A3+A2+A=0\displaystyle A^3+A^2+A=0. Montrer que tr(A)Z\displaystyle \mathrm{tr}(A)\in\Z^-.

Tout polynôme annulateur a un ensemble de racines qui contient les valeurs propres.
La donnée des valeurs propres, à son tour, donne des informations sur le déterminant, le rang, la trace.

  1. Si P\displaystyle P est à coefficients réels alors kN, P(k)(ω)=P(k)(ω)\displaystyle \forall k\in\N,~P^{(k)}(\overline\omega)=\overline{P^{(k)}(\omega)}.
    Si ω\displaystyle \omega est une racine de P\displaystyle P de multiplicité s\displaystyle s alors P(k)(ω)=0\displaystyle P^{(k)}(\omega)=0 pour k<m\displaystyle k<m, et P(m)(ω)=0\displaystyle P^{(m)}(\omega)=0.
    Ainsi P(k)(ω)=0\displaystyle P^{(k)}(\overline\omega)=0 pour k<m\displaystyle k<m, et P(m)(ω)=0\displaystyle P^{(m)}(\overline\omega)=0. D’où la conclusion.
  2. L’étude des variations de Q:xx33x4\displaystyle Q:x\mapsto x^3-3x-4 sur R\displaystyle \R donne l’existence d’une unique racine réelle α>0\displaystyle \alpha>0. Elle n’est pas double car les racines de Q\displaystyle Q' sont 1\displaystyle 1 et 1\displaystyle -1 qui ne sont pas racines de Q\displaystyle Q.
    χA\displaystyle \chi_A étant scindé dans C\displaystyle \C il a donc trois racines distinctes : α\displaystyle \alpha, z\displaystyle z et z\displaystyle \overline z avec zR\displaystyle z\notin\R, z\displaystyle z et z\displaystyle \overline z ayant même multiplicité m\displaystyle m.
    Conclusion. det(A)=αzmzm=αz2m>0\displaystyle \det(A)=\alpha z^m\overline z^m=\alpha|z|^{2m}>0 (on a bien z0\displaystyle z\ne 0 car Q(0)0\displaystyle Q(0)\ne 0).
  3. Le polynôme X2+X+In=0\displaystyle X^2+X+I_n=0 possède deux racines j\displaystyle j et j\displaystyle \overline j.
    χA\displaystyle \chi_A est scindé dans C\displaystyle \C, donc ses racines sont exactement j\displaystyle j et j\displaystyle \overline j, de même multiplicité m\displaystyle m.
    Donc χA=(Xj)m(Xj)m\displaystyle \chi_A=(X-j)^m(X-\overline j)^m, donc n=deg(χA)=2a=m\displaystyle n=\deg(\chi_A)=2a=m.
  4. X3+X2+X\displaystyle X^3+X^2+X a pour racines 0\displaystyle 0, j\displaystyle j et j\displaystyle \overline j. Donc les racines de χA\displaystyle \chi_A sont incluses dans {0,j,j}\displaystyle \{0,j,\overline j\}.
    Soit m1\displaystyle m_1 la multiplicité de 0\displaystyle 0 en tant que racine de χA\displaystyle \chi_A (en convenant que m1=0\displaystyle m_1=0 si 0\displaystyle 0 n’est pas racine).
    Soit m2\displaystyle m_2 la multiplicité de j\displaystyle j (et de j\displaystyle \overline j) en tant que racine de χA\displaystyle \chi_A (avec la même remarque).
    χA\displaystyle \chi_A est scindé dans C\displaystyle \C, donc m1+2m2=n\displaystyle m_1+2m_2=n.
    Or A\displaystyle A est diagonalisable (polynôme annulateur scindé à racines simples).
    Donc m1=dim(kerA)\displaystyle m_1=\dim(\ker A), et par théorème du rang, rg(A)=nm1=2m2\displaystyle \mathrm{rg}(A)=n-m_1=2m_2.
  5. Avec les mêmes notations, tr(A)=m2j+m2j=m2Z\displaystyle \mathrm{tr}(A)=m_2j+m_2\overline{j}=-m_2\in\Z^-.

Exercice 603 ⭐️⭐️ Mines PC 2019, Spé

Soit DMn(R)\displaystyle D\in\mathcal M_n(\R) la matrice diagonale de coefficients diagonaux 1,2,,n\displaystyle 1,2,\dots,n.
Déterminer les matrices M\displaystyle M telles que : MD=DM\displaystyle MD=DM et M\displaystyle M est semblable à D\displaystyle D.

Matrices qui commutent 👉 Quel résultat de cours a t-on à ce sujet ?

Soit M\displaystyle M une matrice qui vérifie ces deux conditions. Comme D\displaystyle D et M\displaystyle M commutent, les sous-espaces propres de D\displaystyle D sont stables par M\displaystyle M, or les sous-espaces propres de D\displaystyle D sont les droites engendrées par les ek\displaystyle e_k, vecteurs de la base canonique de Rn\displaystyle \R^n. Ainsi les ek\displaystyle e_k sont vecteurs propres pour M\displaystyle M, autrement dit M\displaystyle M est diagonale. Soit m1,,mn\displaystyle m_1,\dots,m_n ses coefficients diagonaux. Comme M\displaystyle M et D\displaystyle D sont semblables, on a Sp(M)=Sp(D)\displaystyle \mathrm{Sp}(M)=\mathrm{Sp}(D), donc {m1,,mn}={1,,n}\displaystyle \{m_1,\dots,m_n\}=\{1,\dots,n\}.
Réciproquement, si M\displaystyle M est une matrice diagonale de coefficients diagonaux 1,,n\displaystyle 1,\dots,n à une permutation près, alors M\displaystyle M commute évidemment avec D\displaystyle D. De plus M\displaystyle M est diagonalisable (car diagonale), et en choisissant des vecteurs propres dans le bon ordre, on obtient une matrice de passage P\displaystyle P telle que P1MP=D\displaystyle P^{-1}MP = D (remarque : P\displaystyle P est une matrice dite matrice de permutation).

En conclusion, les matrices qui répondent au problème sont les matrices diagonales de coefficients diagonaux 1,,n\displaystyle 1,\dots,n à une permutation près.

Exercice 606 ⭐️⭐️⭐️ Un endomorphisme de L(E)\displaystyle \mathcal L(E), Spé

Soit p\displaystyle p un projecteur, non nul et distinct de l’identité, d’un K\displaystyle \K-e.v. E\displaystyle E de dimension n\displaystyle n.

  1. On suppose dans cette question que uL(E)\displaystyle u\in\mathcal{L}(E) est un endomorphisme vérifiant u=uppu.u=u\circ p-p\circ u. Montrer que pu=0\displaystyle p\circ u=0, que u=up\displaystyle u=u\circ p, puis en déduire que u2=0\displaystyle u^2=0 et Im(u)Ker(p)Ker(u)\displaystyle \mathrm{Im}(u)\subset\mathrm{Ker}(p)\subset\mathrm{Ker}(u).
    Étudier la réciproque.
  2. Justifier que ϕ\displaystyle \phi défini sur L(E)\displaystyle \mathcal{L}(E) par ϕ(u)=uppu\displaystyle \phi(u)=u\circ p-p\circ u n’est pas injectif et décrire son noyau.
  3. Montrer que ϕ\displaystyle \phi est diagonalisable et donner ses valeurs propres.
  4. Montrer que L(E)=Ker(ϕ)Im(ϕ)\displaystyle \mathcal{L}(E)=\mathrm{Ker}(\phi)\oplus\mathrm{Im}(\phi).
  1. Essayer d’exploiter pp=p\displaystyle p\circ p=p
  2. Lien entre noyau et injectivité.
  3. Etude des vecteurs propres de ϕ\displaystyle \phi. Pour y voir plus clair on peut décider de formuler le problème matriciellement, en travaillant par blocs, où les blocs sont adaptés aux supplémentaires Ker(p)\displaystyle \mathrm{Ker}(p) et Im(p)\displaystyle \mathrm{Im}(p).
  4. Se déduit de la question précédente.
  1. On compose par p\displaystyle p à gauche, à droite :
    pu=puppu,up=uppup.p\circ u = p\circ u \circ p-p\circ u,\qquad u\circ p= u \circ p-p\circ u\circ p. Ces deux égalités donnent pu=0\displaystyle p\circ u=0, puis en remplaçant dans l’égalité de l’énoncé : u=up\displaystyle u=u\circ p.
    On a aussi u2=upu=0\displaystyle u^2=u\circ p\circ u=0, car pu=0\displaystyle p\circ u=0.
    Enfin l’égalité pu=0\displaystyle p\circ u=0 donne aisément Im(u)Ker(p)\displaystyle \mathrm{Im}(u)\subset\mathrm{Ker}(p), et l’égalité u=up\displaystyle u=u\circ p donne aisément Ker(p)Ker(u)\displaystyle \mathrm{Ker}(p)\subset\mathrm{Ker}(u).

Montrons la réciproque. Comme Ker(p)\displaystyle \mathrm{Ker}(p) et Im(p)\displaystyle \mathrm{Im}(p) sont supplémentaires il suffit de vérifier l’égalité u(x)=up(x)pu(x)\displaystyle u(x)=u\circ p(x)-p\circ u(x), séparément pour xKer(p)\displaystyle x\in\mathrm{Ker}(p) et pour xIm(p)\displaystyle x\in\mathrm{Im}(p). Comme pu\displaystyle p\circ u, c’est plus simplement l’égalité u(x)=up(x)\displaystyle u(x)=u\circ p(x) qu’il s’agit de vérifier

  • Si xKer(p)\displaystyle x\in\mathrm{Ker}(p), alors u(x)=0\displaystyle u(x)=0 car ker(p)ker(u)\displaystyle \ker(p)\subset\ker(u), et on a u(p(x))=0\displaystyle u(p(x))=0, donc l’égalité a lieu;
  • Si xIm(p)\displaystyle x\in\mathrm{Im}(p), alors p(x)=x\displaystyle p(x)=x donc u(p(x))=u(x)\displaystyle u(p(x))=u(x).
  1. Le noyau de ϕ\displaystyle \phi contient par exemple idE\displaystyle \mathrm{id}_E donc il n’est pas réduit à 0L(E)\displaystyle 0_{\mathcal{L}(E)}. Ainsi ϕ\displaystyle \phi n’est pas injectif. Par définition ker(ϕ)\displaystyle \ker(\phi) est constitué des endomorphismes qui commutent avec p\displaystyle p.
    Remarque. Pour aller plus loin, le cours nous permet d’affirmer que ce sont aussi les endomorphismes u\displaystyle u qui stabilisent les sous-espaces propores de p\displaystyle p, à savoir Ker(p)\displaystyle \mathrm{Ker}(p) et Im(p)\displaystyle \mathrm{Im}(p). Cette observation n’était peut-être pas attendue dans cette question mais sera utile dans la suite.
  2. On fixe une base (e1,,er,er+1,,en)\displaystyle (e_1,\dots,e_r,e_{r+1},\dots,e_n) adaptée à la décomposition E=Ker(p)Im(p)\displaystyle E=\mathrm{Ker}(p)\oplus\mathrm{Im}(p), et on note avec une majuscule les matrices associées aux endomorphismes. L’application qui à un endomorphisme associe sa matrice étant un isomorphisme, elle conserve les dimensions.
    D’après ce qui précède,
  • uE1(ϕ)\displaystyle u\in E_1(\phi) ssi U\displaystyle U est de la forme (par blocs) : (OOO)\displaystyle \begin{pmatrix}O & O\\* & O \end{pmatrix}.
  • uE0(ϕ)\displaystyle u\in E_0(\phi) ssi U\displaystyle U est de la forme (par blocs) : (OO)\displaystyle \begin{pmatrix}* & O\\O & *\end{pmatrix}.
  • Enfin on remarque de la même manière qu’en 1., qu’on a uppu=u\displaystyle u\circ p-p\circ u=-u ssi : Im(u)Im(p)Ker(u),\mathrm{Im}(u)\subset\mathrm{Im}(p)\subset\mathrm{Ker}(u), de sorte que uE1(ϕ)\displaystyle u\in E_{-1}(\phi) ssi U\displaystyle U est de la forme (par blocs) : (OOO)\displaystyle \begin{pmatrix}O & *\\O & O \end{pmatrix}.
    Conclusion. La somme des dimensions de ces 3 sous-espaces propres vaut :
    dim(E1(ϕ))+dim(E0(ϕ))+dim(E1(ϕ))=2r(nr)+r2+(nr)2=n2=dim(L(E))\dim(E_{-1}(\phi))+\dim(E_{0}(\phi))+\dim(E_{1}(\phi))=2r(n-r)+r^2+(n-r)^2=n^2=\dim(\mathcal L(E)) et donc ϕ\displaystyle \phi est bien diagonalisable, avec au passage Sp(ϕ)={1,0,1}\displaystyle \mathrm{Sp}(\phi) = \{-1,0,1\}.
  1. Remarque. Cette propriété qu’on nous demande de vérifier pour ϕ\displaystyle \phi est en fait vérifiée plus généralement par tous les endomorphismes diagonalisables !
    On vérifie en effet facilement que :
    Im(ϕ)=E1(ϕ)E1(ϕ)()\mathrm{Im}(\phi) = E_{-1}(\phi) \oplus E_{1}(\phi)\qquad(*) ce qui permet de conclure que L(E)=E0(ϕ)Im(ϕ)=Ker(ϕ)Im(ϕ)\displaystyle \mathcal L(E)=E_0(\phi)\oplus\mathrm{Im}(\phi)=\mathrm{Ker}(\phi)\oplus\mathrm{Im}(\phi).

Montrons (*) dans un cadre plus général (tant qu’à faire 😉) : soit E\displaystyle E un K\displaystyle \K-e.v. de dimension finie et fL(E)\displaystyle f\in\mathcal L(E), diagonalisable.
Montrons que Im(f)=λSp(f),λ0Eλ(f).\displaystyle \mathrm{Im}(f)=\sum_{\lambda\in\mathrm{Sp}(f),\lambda\ne 0}E_\lambda(f).
Pour un vecteur xE\displaystyle x\in E, on peut écrire son unique décomposition selon les sous-espaces propres : x=x0+λSp(f),λ0xλ.x=x_{0}+\sum_{\lambda\in\mathrm{Sp}(f),\lambda\ne 0}x_\lambda.

  • On a ϕ(x)=λSp(f),λ0λxλ\displaystyle \phi(x)=\sum_{\lambda\in\mathrm{Sp}(f),\lambda\ne 0}\lambda x_\lambda, ce qui montre l’inclusion Im(f)λSp(f),λ0Eλ(f).\displaystyle \mathrm{Im}(f)\subset\sum_{\lambda\in\mathrm{Sp}(f),\lambda\ne 0}E_\lambda(f).
  • Si x0=0\displaystyle x_0=0 alors x=ϕ(λSp(f),λ01λxλ),\displaystyle x=\phi\left(\sum_{\lambda\in\mathrm{Sp}(f),\lambda\ne 0}\frac{1}{\lambda}x_\lambda\right), ce qui montre l’autre inclusion.