Matrices

Exercice 5 ⭐️⭐️⭐️ Dimension du commutant, Spé/L2

Soit AMn(C)\displaystyle A\in M_n(\mathbb C) diagonalisable. On pose C(A)={BMn(C),BA=AB}\displaystyle \mathcal C(A)=\{B\in M_n(\mathbb C), BA=AB\}. Calculer dim C(A)\displaystyle {\rm dim}\ \mathcal C(A) et montrer dim C(A)n\displaystyle {\rm dim}\ \mathcal C(A) \ge n.

Matrice diagonalisable 👉 écrire la diagonalisation, puis examiner le problème dans la nouvelle base (ici il s’agit d’écrire la formule de changement de base pour les matrices A\displaystyle A et B\displaystyle B en question).

Notons λ1,,λp\displaystyle \lambda_1,\dots,\lambda_p les valeurs propres distinctes de A\displaystyle A.
On note aussi Eλi\displaystyle E_{\lambda_i} le sous espace propre associé à λi\displaystyle \lambda_i, et di\displaystyle d_i sa dimension.
Soit B\displaystyle \mathcal B une base de Cn\displaystyle \mathbb C^n adaptée à Eλ1Eλp\displaystyle E_{\lambda_1}\oplus \cdots\oplus E_{\lambda_p}, et P\displaystyle P la matrice de passage de la base canonique vers B\displaystyle \mathcal B. Alors on a P1AP=D\displaystyle P^{-1}AP=D, avec par blocs : D=(λ1Id1λpIdp).D=\begin{pmatrix} \lambda_1 I_{d_1} & &\\ & \ddots & \\ &&\lambda_p I_{d_p} \end{pmatrix}.
On a BA=ABBPDP1=PDP1B(P1BP)D=D(P1BP)BD=DB,\begin{aligned} BA=AB & \Leftrightarrow BPDP^{-1}=PDP^{-1}B\\ & \Leftrightarrow (P^{-1}BP)D=D(P^{-1}BP)\\ & \Leftrightarrow B'D=DB', \end{aligned} en posant B=P1BP\displaystyle B' = P^{-1}BP. Montrons qu’on a l’équivalence entre :
(i) BD=DB\displaystyle B'D=DB',
(ii) B\displaystyle B' est de la forme (M1Mp),\displaystyle \begin{pmatrix} M_1 & &\\ & \ddots & \\ &&M_p \end{pmatrix}, avec MiMdi(C)\displaystyle M_i\in M_{d_i}(\mathbb C) pour i=1,,p\displaystyle i=1,\dots,p.

  • Supposons (i). Alors les sous-espaces propres de D\displaystyle D sont stables par B\displaystyle B', ce qui montre que B\displaystyle B' est de cette forme.
  • Supposons (ii). Alors BD=DB=(λ1M1λpMp)\displaystyle B'D=DB'=\begin{pmatrix} \lambda_1M_1 & &\\ & \ddots & \\ &&\lambda_pM_p \end{pmatrix}.

Conclusion. C(A)\displaystyle \mathcal C(A) est l’image par l’isomorphisme MPMP1\displaystyle M\mapsto PMP^{-1}, de l’espace vectoriel des matrices de la forme (M1Mp)\displaystyle \begin{pmatrix} M_1 & &\\ & \ddots & \\ &&M_p \end{pmatrix}. Ainsi dimC(A)=d12++dp2\displaystyle \dim \mathcal C(A)=d_1^2+\dots+d_p^2. Comme di1\displaystyle d_i\ge 1 on a au passage dimC(A)d1++dp=n.\displaystyle \dim \mathcal C(A)\ge d_1+\dots+d_p=n.

Exercice 11 ⭐️⭐️⭐️ ABBA=A\displaystyle AB-BA=A, Spé/L2

Soit A\displaystyle A et B\displaystyle B deux matrices carrées telles ABBA=A\displaystyle AB-BA=A. Montrer que A\displaystyle A est nilpotente.

Relation entre A\displaystyle A et B\displaystyle B 👉 Faire des petits calculs pour se donner des idées : A2=\displaystyle A^2=\cdots, AB=\displaystyle AB=\cdots, etc.

Il faut montrer que An=0\displaystyle A^n=0 pour un certain n\displaystyle n. On ne voit pas très bien ce qu’il faut faire, donc on fait des petits calculs pour se donner des idées. Le plus naturel :
A2=ABABA2AB=A+BA=(I+B)AA2=A(ABA)BA2=A2BA2BA2\begin{aligned}{} A^2&=ABA-BA^2\\\\ AB&=A+BA\\ &=(I+B)A\\\\ A^2&=A(AB-A)-BA^2\\ &=A^2B-A^2-BA^2\\ \end{aligned}

La dernière ligne donne 2A2=A2BBA2\displaystyle 2A^2=A^2B-BA^2, et vu l’hypothèse, ça sent la récurrence. En effet on a 2A3=A2BABA3\displaystyle 2A^3=A^2BA-BA^3 et il suffit encore de remplacer BA\displaystyle BA par ABA\displaystyle AB-A. On vous laisse montrer proprement que pour tout k1\displaystyle k\ge1, kAk=AkBBAk\displaystyle kA^k=A^kB-BA^k. Cela peut suggérer plusieurs pistes :

  1. On continue sur la généralisation : on peut en déduire que, pour tout polynôme PK[X]\displaystyle P \in \mathbb{K[X]}, on a AP(A)=P(A)BBP(A)\displaystyle A P'(A)=P(A)B-BP(A). En particulier, si P\displaystyle P est le polynôme minimal de A\displaystyle A, on a AP(A)=0\displaystyle AP'(A) = 0. Le polynôme Q(X)=XP(X)\displaystyle Q(X)=XP'(X) annule A\displaystyle A et est de même degré que le polynôme minimal de A\displaystyle A, on en déduit qu’il existe une constante c\displaystyle c telle que Q(X)=cP(X)\displaystyle Q(X)=cP(X). En observant le coefficient dominant, on montre que c=deg(P)\displaystyle c={\rm deg(P)}. Notons k\displaystyle k le degré de P\displaystyle P. On écrit P(X)=i=0kaiXi\displaystyle P(X) = \sum_{i=0}^k a_iX^i avec ak=1\displaystyle a_k= 1. On a alors : 0=kP(X)Q(X)=i=0k(ki)aiXı^.\displaystyle 0 = kP(X)- Q(X) = \sum_{i=0}^k (k-i) a_i X^î.
    En identifiant les coefficients, on en déduit que ai=0\displaystyle a_i = 0 dès que i<k\displaystyle i<k. On peut aussi résoudre xP(x)=kP(x)\displaystyle xP'(x)=kP(x), i.e. log(P(x))=klog(x)\displaystyle \log(P(x))=k\log(x), et P(x)=xk\displaystyle P(x)=x^k. Ainsi P(X)=Xk\displaystyle P(X)=X^k, donc A\displaystyle A est nilpotente.
  2. La relation peut aussi faire penser à une relation aux valeurs propres, vecteurs propres : ϕ(Ak)=kAk\displaystyle \phi(A^k)=kA^k, où ϕ(M)=MBBM\displaystyle \phi(M)=MB-BM, et ça tombe bien, ϕ\displaystyle \phi est un endomorphisme de Mn(R)\displaystyle M_n(\mathbb R). Si Ak\displaystyle A^k n’est nulle pour aucun k\displaystyle k, alors ϕ\displaystyle \phi possède une infinité de valeurs propres, i.e. tous les entiers. Et ceci n’est pas possible sur un e.v. de dimension fini, ici Mn(R)\displaystyle M_n(\mathbb R). Donc il existe k\displaystyle k tel que Ak=0\displaystyle A^k=0.

C’est pas magnifique les maths ?! Cette relation a généré deux idées qui conduisent à des preuves complètement différentes !

Exercice 95 ⭐️ InN\displaystyle I_n-N inversible, Sup/L1

Soit N\displaystyle N une matrice nilpotente de Mn(K)\displaystyle M_n(\K) d’indice r\displaystyle r. Montrer que InN\displaystyle I_n-N est inversible et donner son inverse.

Soit X\displaystyle X dans le noyau de InN\displaystyle I_n-N. Alors NX=X\displaystyle NX=X, et donc N2X=NX=X\displaystyle N^2X=NX=X, etc. Donc NrX=X\displaystyle N^rX=X, et alors X=0\displaystyle X=0.
Ainsi InN\displaystyle I_n-N est inversible.
Formellement, c’est la série géométrique : “(InN)1=11N=1+N+N2+=1+N+N2++Nr1\displaystyle (I_n-N)^{-1}=\frac{1}{1-N}=1+N+N^2+\cdots=1+N+N^2+\cdots+N^{r-1}”, et on vérifie bien par téléscopage que (InN)(In+N+N2++Nr1)=In\displaystyle (I_n-N)(I_n+N+N^2+\cdots+N^{r-1})=I_n car Nr=0\displaystyle N^r=0.

Exercice 96 ⭐️ AB+BA=0\displaystyle AB+ BA=0 et Trace, Sup/L1

Soit A,B\displaystyle A,B deux matrices carrées inversibles telles que AB+BA=0\displaystyle AB+BA=0. Que dire de tr(A)\displaystyle {\rm tr}(A) et tr(B)\displaystyle {\rm tr}(B) ?

  • A,B\displaystyle A,B inversibles 👉 Faire des calculs avec les inverses ;
  • Trace 👉 tr(AB)=tr(BA)\displaystyle tr(AB)=tr(BA) ou tr(ABA1)=tr(B)\displaystyle tr(ABA^{-1})=tr(B).

On peut écrire ABA1+B=0\displaystyle ABA^{-1}+B=0. Or tr(ABA1)=tr(A1AB)=tr(B)\displaystyle tr(ABA^{-1})=tr(A^{-1}AB)=tr(B) d’où tr(ABA1)+tr(B)=2tr(B)=0\displaystyle tr(ABA^{-1})+tr(B)=2tr(B)=0, donc tr(B)=0\displaystyle tr(B)=0. On écrit A+BAB1=0\displaystyle A+BAB^{-1}=0 pour obtenir tr(A)=0\displaystyle tr(A)=0.

Exercice 97 ⭐️ Sup/L1

Soit A\displaystyle A une matrice carrée d’ordre n ayant exactement un coefficient non nul sur chaque ligne et chaque colonne. Combien a-t-elle de coefficients non nuls ? Montrer que A\displaystyle A est inversible.

Il y a n\displaystyle n coefficients non nuls et on s’aperçoit que la matrice est presque comme une matrice de permutation à ceci près que ses coefficients ne sont pas forcément 1\displaystyle 1 : c’est donc le produit d’une matrice de permutation par une matrice diagonale inversible. Elle est donc inversible !

Exercice 98 ⭐️⭐️ Matrice à diagonale dominante, Spé/L2/Classique

Soit A=(ai,j)\displaystyle A = (a_{i,j}) une matrice carrée d’ordre n\displaystyle n à coefficients complexes telles que pour tout i\displaystyle i, ai,i>jiai,j\displaystyle |a_{i,i}| > \sum_{j\neq i}|a_{i,j}|.
Montrer que A est inversible.

Somme de coefficients et inversibilité 👉 Écrire AX=0\displaystyle AX=0.

Puisqu’il y a des sommes de ai,j\displaystyle a_{i,j} à i\displaystyle i fixé, cela invite à considérer un élément x=(xj)\displaystyle x = (x_{j}) du noyau de A\displaystyle A car il vérifie 1jnai,jxj=0\displaystyle \sum_{1\le j\le n}a_{i,j} x_j=0 pour toute ligne i\displaystyle i. Ecrivons des choses simples en essayant de reproduire des quantités de l’hypothèse. On a ai,ixi=jiai,jxj\displaystyle a_{i,i} x_i =- \sum_{j\neq i}a_{i,j} x_j, d’où ai,ixijiai,jxj\displaystyle |a_{i,i}| |x_i| \le\sum_{j\neq i}|a_{i,j}| |x_j|. Tiens, on dirait l’inégalité de l’hypothèse mais dans l’autre sens, y aurait-il une contradiction possible ? On n’a pas utilisé que cela était valable pour tout i\displaystyle i, donc on va prendre celui qui nous arrange comme d’hab ! Supposons x0\displaystyle x\neq0 (i.e. on suppose que A\displaystyle A n’est pas inversible) et prenons le i\displaystyle i tel que xi=maxkxk\displaystyle |x_i|=\max_{k}|x_k|, du coup xi>0\displaystyle |x_i|>0. On revient à notre inégalité en majorant chaque xj\displaystyle |x_j| par xi\displaystyle |x_i| : on a ai,ixijiai,jxi\displaystyle |a_{i,i}| |x_i| \le\sum_{j\neq i}|a_{i,j}| |x_i|, et il n’y a plus qu’à simplifier par xi>0\displaystyle |x_i|>0 pour avoir notre contradiction !

Exercice 99 ⭐️⭐️ AB=A+B\displaystyle AB=A+B, Sup/L2/Classique

Soient A,BMn(R)\displaystyle A,B\in M_n(\R) tels que AB=A+B\displaystyle AB=A+B. Montrer que AB=BA\displaystyle AB=BA.

Relation entre A\displaystyle A et B\displaystyle B 👉 Faire des manipulations simples : factoriser, etc.

Comme on ne voit pas du tout ce que l’on pourrait bien utiliser, il faut faire des manipulations algébriques, des calculs simples pour créer des idées. On commence : A(BIn)=B=BIn+In\displaystyle A(B-I_n)=B=B-I_n+I_n, d’où A(BIn)(BIn)=In\displaystyle A(B-I_n)-(B-I_n)=I_n, et (AIn)(BIn)=In\displaystyle (A-I_n)(B-I_n)=I_n. Et là on voit quelque chose de très important : AIn\displaystyle A-I_n est inversible ! Donc elle commute avec son inverse, i.e. on a aussi (BIn)(AIn)=In\displaystyle (B-I_n)(A-I_n)=I_n, et en redéveloppant BA=A+B\displaystyle BA=A+B, d’où le résultat.

Exercice 100 ⭐️⭐️ A2=A\displaystyle A^2=A, Sup/Spé/L2

Soit A\displaystyle A et B\displaystyle B deux matrices carrées de même rang telles que A2=A\displaystyle A^2 = A et B2=B\displaystyle B^2 = B. Montrer qu’il existe deux matrices carrées U\displaystyle U et V\displaystyle V telles que A=UV\displaystyle A = UV et B=VU\displaystyle B = V U.

  • Même rang 👉 Matrices équivalentes ;
  • Faire des manipulations simples : élever au carré, passer un terme de l’autre côté, etc.

Comme A\displaystyle A et B\displaystyle B ont même rang, il existe P,Q\displaystyle P,Q inversibles telles que A=PBQ\displaystyle A=PBQ.
Utilisons l’hypothèse A2=A\displaystyle A^2=A : on a A2=PBQPBQ=A=PBQ\displaystyle A^2=PBQPBQ=A=PBQ. Donc B=BQPB\displaystyle B=BQPB car P,Q\displaystyle P,Q inversibles.
Des candidats pour U\displaystyle U et V\displaystyle V sont donc V=BQ\displaystyle V=BQ et U=PB\displaystyle U=PB (de sorte que B=VU\displaystyle B=VU). Voyons si ça marche.
On a alors, en utilisant B2=B\displaystyle B^2=B, UV=PBBQ=PB2Q=PBQ=A,UV=PBBQ=PB^2Q=PBQ=A, c’est gagné !

Exercice 101 ⭐️ Spé/L2

Soit D1\displaystyle D_1 et D2\displaystyle D_2 deux matrices carrées diagonales dont les éléments diagonaux sont positifs et telles que D12\displaystyle D_1^2 et D22\displaystyle D_2^2 sont semblables. Montrer que D1\displaystyle D_1 et D2\displaystyle D_2 sont semblables.

Le point clé est d’étudier à quelle condition deux matrices diagonales sont semblables.
En algèbre linéaire beaucoup de propriétés sont conservées par similitude : déterminant, trace, valeurs propres, polynôme caractéristique, dimensions des sous-espaces propres…

Nous commençons par montrer que deux matrices diagonales M=Diag(λ1,,λn)\displaystyle M=\mathrm{Diag}(\lambda_1,\dots,\lambda_n) et N=Diag(μ1,,μn)\displaystyle N=\mathrm{Diag}(\mu_1,\dots,\mu_n) sont semblables ssi il existe σSn\displaystyle \sigma\in \mathfrak S_n tel que i[ ⁣[1,n] ⁣], λσ(i)=μi\displaystyle \forall i\in[\![1,n]\!],~\lambda_{\sigma(i)}=\mu_i, autrement dit ssi les coefficients diagonaux de M\displaystyle M et de N\displaystyle N sont les mêmes à une permutation près.

  • Supposons cette condition vérifiée, notons f\displaystyle f et g\displaystyle g les endomorphismes canoniquement associés à M\displaystyle M et N\displaystyle N, et ϕ\displaystyle \phi l’automorphisme de Rn\displaystyle \R^n tel que i[ ⁣[1,n] ⁣], ϕ(ei)=eσ(i)\displaystyle \forall i\in[\![1,n]\!],~\phi(e_i)=e_{\sigma(i)}, où (e1,,en)\displaystyle (e_1,\dots,e_n) est la base canonique de Rn\displaystyle \R^n. Alors on vérifie que i[ ⁣[1,n] ⁣],  ϕ1fϕ(ei)=λσ(i)ei,\forall i\in[\![1,n]\!],~~\phi^{-1}\circ f\circ \phi(e_i)=\lambda_{\sigma(i)}e_i, donc P1MP=N\displaystyle P^{-1}MP=N, où P\displaystyle P est la matrice canoniquement associée à ϕ\displaystyle \phi.
  • Réciproquement, si M\displaystyle M et N\displaystyle N sont semblables alors elles ont mêmes valeurs propres donc {λ1,,λn}={μ1,,μn}\displaystyle \{\lambda_1,\dots,\lambda_n\} = \{\mu_1,\dots,\mu_n\}. De plus pour αSp(M)=Sp(N)\displaystyle \alpha\in\mathrm{Sp}(M)=\mathrm{Sp}(N), on a dim(Eα(M))=dim(Eα(N))\displaystyle \dim(E_{\alpha}(M))=\dim(E_{\alpha}(N)), donc le nombre d’apparitions de α\displaystyle \alpha dans les listes (λ1,,λn)\displaystyle (\lambda_1,\dots,\lambda_n) et (μ1,,μn)\displaystyle (\mu_1,\dots,\mu_n) sont égaux.

Conclusion. Si on note D1=Diag(a1,,an)\displaystyle D_1=\mathrm{Diag}(a_1,\dots,a_n) et D2=Diag(b1,,bn)\displaystyle D_2=\mathrm{Diag}(b_1,\dots,b_n), D12\displaystyle D_1^2 et D22\displaystyle D_2^2 sont diagonales. Donc l’hypothèse entraîne qu’il existe σSn\displaystyle \sigma\in \mathfrak S_n tel que i[ ⁣[1,n] ⁣], (aσ(i))2=(bi)2\displaystyle \forall i\in[\![1,n]\!],~(a_{\sigma(i)})^2=(b_i)^2.
Comme tous ces coefficients sont positifs on a donc aσ(i)=bi\displaystyle a_{\sigma(i)}=b_i, et donc D1\displaystyle D_1 et D2\displaystyle D_2 sont semblables.

Exercice 102 ⭐️⭐️⭐️⭐️ (A+B)k=Ak+Bk\displaystyle (A+B)^k=A^k+B^k, X PC

Montrer que AMn(R)\displaystyle A\in M_n(\R) n’est pas inversible si, et seulement si, il existe BMn(R)\displaystyle B\in M_n(\R) non nulle vérifiant pour tout k1\displaystyle k\ge1, (A+B)k=Ak+Bk\displaystyle (A+B)^k=A^k+B^k.

  • A\displaystyle A pas inversible 👉 det(A)=0\displaystyle det(A)=0, Ker(A){0}\displaystyle Ker(A)\neq \{0\}, il existe B0\displaystyle B\neq0 telle AB=0\displaystyle AB=0.
  • On voit (A+B)k\displaystyle (A+B)^k 👉 On développe.

Comme on ne voit pas bien où va intervenir le Ker et qu’on ne sait rien dire sur
det(Ak+Bk)\displaystyle \det (A^k+B^k), le plus naturel est de développer (A+B)k=Ak+termes+Bk\displaystyle (A+B)^k=A^k+termes+B^k, où termes\displaystyle termes contient des termes avec au moins un AB\displaystyle AB ou BA\displaystyle BA. On va montrer un résultat assez classique : si A\displaystyle A n’est pas inversible alors il existe B0\displaystyle B\neq0 tel que AB=BA=0\displaystyle AB=BA=0. Pour construire B\displaystyle B il faut partir de A\displaystyle A dans une bonne base, et là on sait pas grand chose ! On peut juste dire qu’il existe P\displaystyle P et Q\displaystyle Q inversible tel que A=PDQ1\displaystyle A=PDQ^{-1} avec D=(Jr000)\displaystyle D=\left( \begin{array}{cc} J_r & 0 \\ 0 & 0 \end{array} \right) et r<n\displaystyle r<n. Si on pose B=QDP1\displaystyle B=QD'P^{-1} avec D=(000Jnr)\displaystyle D'=\left( \begin{array}{cc} 0 & 0 \\ 0 & J_{n-r} \end{array} \right), c’est gagné ! Du coup on a montré l’implication \displaystyle \Longrightarrow.

Pour la réciproque, idem, on ne voit pas comment on peut directement récupérer l’inversibilité de A\displaystyle A. Donc dans ce cas, il faut partir de la seule identité qu’on connaît et faire des manipulations. On commence par k=2\displaystyle k=2. On a (A+B)2=A2+AB+BA+B2=A2+B2\displaystyle (A+B)^2=A^2+AB+BA+B^2=A^2+B^2, d’où AB=BA\displaystyle AB=-BA (1ere info déjà pas mal !).
On continue (A+B)3=(A2+B2)(A+B)=A3+A2B+B2A+B3=A3+B3\displaystyle (A+B)^3=(A^2+B^2)(A+B)=A^3+A^2B+B^2A+B^3=A^3+B^3, d’où A2B=B2A\displaystyle A^2B=-B^2A, mais avec la 1ere info on a aussi B2A=BAB=AB2\displaystyle B^2A=-BAB=AB^2, i.e. A2B=AB2\displaystyle A^2B=-AB^2. Supposons A\displaystyle A inversible, il vient AB=B2\displaystyle AB=-B^2. Mais on aurait aussi pu écrire (A+B)3=(A+B)(A2+B2)=A3+AB2+BA2+B3=A3+B3\displaystyle (A+B)^3=(A+B)(A^2+B^2)=A^3+AB^2+BA^2+B^3=A^3+B^3, d’où de la même manière BA2=AB2=BAB=B2A\displaystyle BA^2=-AB^2=BAB=-B^2A, i.e. BA=B2\displaystyle BA=-B^2 (car A\displaystyle A inversible). Donc AB=BA\displaystyle AB=BA. Avec la 1ere info, on en déduit AB=0\displaystyle AB=0, ce qui contredit que A\displaystyle A est inversible car B0\displaystyle B\neq0. (Ouf !)

Remarque : pour ceux qui connaissent l’exponentielle matricielle, l’identité pour tout k\displaystyle k permet d’obtenir tout de suite en divisant par k!\displaystyle k! et en sommant, eA+B=eA+eB\displaystyle e^{A+B}=e^A+e^B, et on doit pouvoir faire des choses rigolotes avec le det\displaystyle \det et la trace 😃

Exercice 103 ⭐️⭐️⭐️ Matrices semblables et Homothétie, X PC

Si A=(ai,j)1i,jnMn(C)\displaystyle A=(a_{i,j})_{1 \le i,j \le n} \in {\mathcal M}_n(\mathbb{C)}, on pose A=supi,jai,j\displaystyle \|A\| = \sup_{i,j} |a_{i,j}| et on note EA\displaystyle E_A l’ensemble des matrices semblables à A\displaystyle A. On suppose EA\displaystyle E_A borné pour la norme \displaystyle \| \cdot \|. Montrer que A\displaystyle A est une homothétie.

On rappelle le fait suivant : soit D=diag(d1,,dn)\displaystyle D={\rm diag}(d_1,\ldots,d_n) une matrice diagonale. Alors AD=(djai,j)1i,jn , DA=(diai,j)1i,jn.AD = (d_j a_{i,j})_{1 \le i,j \le n} \ , \ DA = (d_i a_{i,j})_{1 \le i,j \le n}. Ces formules permettent d’avoir une expression simple pour PAP1\displaystyle PAP^{-1} lorsque la matrice de passage P\displaystyle P est diagonale : on pose P=diag(λ1,,λn)\displaystyle P = {\rm diag}(\lambda_1,\ldots,\lambda_n), avec λi0\displaystyle \lambda_i \neq 0. On a alors P1=diag(λ11,,λn1)\displaystyle P^{-1} = {\rm diag}(\lambda_1^{-1},\ldots,\lambda_n^{-1}) et PAP1=(λj1λiai,j)1i,jn\displaystyle PAP^{-1} = (\lambda_j^{-1} \lambda_i a_{i,j})_{1 \le i,j \le n}.

Revenons à l’exercice : si A=λIn\displaystyle A = \lambda I_n est une homothétie, alors PAP1=A\displaystyle PAP^{-1} = A pour tout PGLn(C)\displaystyle P \in GL_n(\mathbb{C}), donc EA\displaystyle E_A est réduit à un élément. On suppose maintenant que A\displaystyle A n’est pas une homothétie. On fait dans un premier temps l’hypothèse que la matrice A\displaystyle A n’est pas diagonale, c’est-à-dire qu’il existe des indices i0j0\displaystyle i_0 \neq j_0 tels que ai0,j00\displaystyle a_{i_0,j_0} \neq 0. Soit R>0\displaystyle R > 0 arbitrairement grand. On veut trouver une matrice de passage P\displaystyle P telle que PAP1>R\displaystyle ||P A P^{-1}|| > R. Pour cela, il suffit de choisir P=diag(λ1,,λn)\displaystyle P = {\rm diag}(\lambda_1,\ldots,\lambda_n) avec λj0=ε\displaystyle \lambda_{j_0} = \varepsilon, λi0=ε1\displaystyle \lambda_{i_0}= \varepsilon^{-1} et λk=1\displaystyle \lambda_k = 1 pour les autres indices. D’après le début de la solution, on a (PAP1)i0,j0=1ε2ai0,j0\displaystyle (P A P^{-1})_{i_0,j_0} = \frac{1}{\varepsilon^2} a_{i_0,j_0}. Il suffit alors de choisir 0<ε<1ai0,j0\displaystyle 0 < \varepsilon < \frac{1}{\sqrt{|a_{i_0,j_0}|}} pour conclure.

Il reste à considérer le cas où A=diag(a1,,an)\displaystyle A = {\rm diag}(a_1,\ldots,a_n) est diagonale mais n’est pas une homothétie. On va se ramener au cas précédent en montrant que A\displaystyle A est semblable à une matrice non diagonale. Comme A\displaystyle A n’est pas une homothétie, il existe deux indices i,j\displaystyle i,j tels que aiaj\displaystyle a_i \neq a_j. Quitte à réordonner les vecteurs de la base canonique, on peut supposer que a1a2\displaystyle a_1 \neq a_2. On considère maintenant la nouvelle base (e1+e2,e2,e3,,en)\displaystyle (e_1+e_2,e_2,e_3,\ldots,e_n). On a A(e1+e2)=a1e1+a2e2=a1(e1+e2)+(a2a1)e2\displaystyle A(e_1+e_2) = a_1 e_1 + a_2 e_2 = a_1 (e_1+e_2) + (a_2-a_1) e_2. Si Q\displaystyle Q est la matrice de passage dans cette nouvelle base, on a (QAQ1)1,2=a2a10\displaystyle (Q A Q^{-1})_{1,2} = a_2-a_1 \neq 0. D’après le paragraphe précédent, étant donné R>0\displaystyle R>0, on peut trouver PGLn(C)\displaystyle P \in GL_n(\mathbb{C}) telle que P(QAQ1)P1>R\displaystyle \|P(Q A Q^{-1}) P^{-1}\| > R, et on a bien P(QAQ1)P1=(PQ)A(PQ)1EA\displaystyle P(Q A Q^{-1}) P^{-1} = (PQ) A (PQ)^{-1} \in E_A.

Exercice 106 ⭐️⭐️ χAB=χBA\displaystyle \chi_{AB}=\chi_{BA}, MP/L2/Classique

Soit A\displaystyle A et B\displaystyle B deux matrices carrées dans C\displaystyle \mathbb C, montrer l’égalité des polynômes caractéristiques χAB=χBA\displaystyle \chi_{AB}=\chi_{BA}.

Égalité de polynômes caractéristiques 👉 Invariance de χ\displaystyle \chi pour des matrices semblables.

On peut écrire AB=B1BAB\displaystyle AB=B^{-1}BAB si B\displaystyle B est inversible, et ainsi AB\displaystyle AB et BA\displaystyle BA sont semblables. Donc on a bien le résultat dans ce cas. On sait que les matrices inversibles sont denses dans Mn(C)\displaystyle M_n(\mathbb C) et on peut donc conclure dans le cas général en disant que l’application BχB\displaystyle B\mapsto \chi_B est continue (car polynomiale en les coefficients de B\displaystyle B).

Exercice 243 ⭐️⭐️ Matrice nilpotente, Sup/L1

Trouver toutes les matrices MM3(R)\displaystyle M\in M_3(\mathbb R) telles que M2=0\displaystyle M^2=0 .

Réduction avec des espaces simples ! On ne va quand même pas calculer 9\displaystyle 9 coefficients à la main 😕😱

Comme M2=0\displaystyle M^2=0, on a Im(M)Ker(M)\displaystyle {\rm Im}(M)\subset {\rm Ker}(M), d’où rg(M)dim(Ker(M))\displaystyle {\rm rg}(M)\le {\rm dim(Ker}(M)).
Avec le théorème du rang, il vient rg(M)3rg(M)\displaystyle {\rm rg}(M)\le 3-rg(M), donc rg(M)3/2\displaystyle rg(M)\le 3/2.
Si rg(M)=0\displaystyle rg(M)=0, M\displaystyle M est la matrice nulle, qui est bien solution.
Sinon rg(M)=1\displaystyle rg(M)=1. L’image est donc une droite incluse dans le noyau qui est donc un plan. Prenons (e1,e2)\displaystyle (e_1,e_2) une base du Ker où e1\displaystyle e_1 engendre l’image. Complétons avec un e3\displaystyle e_3 qui n’est pas dans le noyau et tel que u(e3)=e1\displaystyle u(e_3)=e_1. Dans la base (e1,e2,e3)\displaystyle (e_1,e_2,e_3), la matrice M\displaystyle M s’écrit donc A=(001000000).\displaystyle A=\begin{pmatrix} 0 & 0 & 1\\ 0 & 0 & 0\\ 0 & 0 & 0\\ \end{pmatrix}.
Toutes les matrices semblables à A\displaystyle A sont bien solutions de M2=0\displaystyle M^2=0, et ceux sont les seules, outre 0\displaystyle 0.

Exercice 256 ⭐️⭐️ Sup/Spé/L2

Résoudre M2=(0100)\displaystyle M^2=\left(\begin{matrix} 0 & 1\\ 0 & 0 \end{matrix}\right) dans M2(R)\displaystyle M_2(\R).

  • Le matheux est parresseux 👉 On ne va pas calculer les coefficients de M\displaystyle M ;
  • On voit une matrice nilpotente 👉 On élève à des puissances.

Soit M\displaystyle M une solution. On remarque que (0100)2=0\displaystyle \left(\begin{matrix} 0 & 1\\ 0 & 0 \end{matrix}\right)^2=0, donc M4=0\displaystyle M^4=0, on en déduit que M\displaystyle M est nilpotente. Or M\displaystyle M représente une application linéaire en dimension 2\displaystyle 2, donc son indice de nilpotence ne peut excéder 2\displaystyle 2 (cf Exercice 242 ici). Ainsi, soit M1=0\displaystyle M^1=0, soit M2=0\displaystyle M^2=0. Dans les deux cas, M\displaystyle M ne peut pas être solution de l’équation à résoudre. Il n’y a donc pas de solution.

Exercice 263 ⭐️⭐️ An\displaystyle A^n, MP/ECS2/L2

On considère la matrice A=(1110)\displaystyle A=\left(\begin{matrix} 1 & 1 \\ 1 & 0\end{matrix}\right).

  1. Trouver le polynôme minimal de A\displaystyle A.
  2. En déduire An\displaystyle A^n pour tout entier n0\displaystyle n \ge 0.

Puissance de A\displaystyle A à partir du polynôme minimal 👉 Division euclidienne !

  1. On calcule A2=(2111)\displaystyle A^2=\left(\begin{matrix} 2 & 1 \\ 1 & 1\end{matrix}\right). On a donc A2AI=0\displaystyle A^2-A-I = 0. Le polynôme P(X)=X2X1\displaystyle P(X)=X^2-X-1 annule A\displaystyle A, et comme A\displaystyle A n’est pas une matrice scalaire, son polynôme minimal est de degré au moins 2\displaystyle 2. Ainsi P\displaystyle P est le polynôme minimal de A\displaystyle A.
  2. Les racines de P\displaystyle P sont λ=1+52 , μ=152.\lambda = \frac{1+\sqrt{5}}{2} \ , \ \mu = \frac{1-\sqrt{5}}{2}.
    Soit n0\displaystyle n \ge 0 un entier . Calculons la division euclidienne du polynôme Xn\displaystyle X^n par P\displaystyle P : on sait qu’il existe QnR[X]\displaystyle Q_n \in \R[X] et RnR1[X]\displaystyle R_n \in \R_1[X] tels que Xn=P(X)Qn(X)+Rn(X).\displaystyle X^n = P(X)Q_n(X) + R_n(X). On écrit Rn(X)=anX+bn\displaystyle R_n(X) = a_nX+b_n pour deux réels an\displaystyle a_n et bn\displaystyle b_n. De plus, comme λ\displaystyle \lambda et μ\displaystyle \mu sont racines de P\displaystyle P, on a : λn=Rn(λ)=anλ+bn , μn=Rn(μ)=anμ+bn.\lambda^n = R_n(\lambda) = a_n \lambda + b_n \ , \ \mu^n = R_n(\mu) = a_n \mu + b_n. On en déduit que bn=μλnλμnμλ,b_n = \frac{\mu \lambda^n - \lambda \mu^n}{\mu-\lambda}, et que an=λnμnλμ.a_n = \frac{\lambda^n -\mu^n}{\lambda-\mu}. On peut simplifier ces expressions en remarquant que λμ=5 , λμ=1.\lambda-\mu = \sqrt{5} \ , \ \lambda \mu = -1. On a alors An=anA+bnI\displaystyle A^n = a_n A+b_n I avec an=15((1+52)n(152)n),a_n = \frac{1}{\sqrt{5}} \left(\left(\frac{1+\sqrt{5}}{2}\right)^n- \left(\frac{1-\sqrt{5}}{2}\right)^n\right),
    bn=15((1+52)n1(152)n1).b_n = \frac{1}{\sqrt{5}} \left( \left(\frac{1+\sqrt{5}}{2}\right)^{n-1}- \left(\frac{1-\sqrt{5}}{2}\right)^{n-1}\right).

Exercice 268 ⭐️⭐️ Spé/L2

Pour a,b]0,1[\displaystyle a,b \in ]0,1[, on considère la matrice M=(1aab1b).M= \begin{pmatrix} 1-a & a \\ b & 1-b \end{pmatrix}. Calculer Mn\displaystyle M^n pour n0\displaystyle n \ge 0 puis limnMn\displaystyle \lim_{n \to \infty} M^n.

Puissance d’une matrice 👉 on cherche un polynôme annulateur !

On calcule M2=(12a+a2+aba(2ab)b(2ab)12b+b2+ab),M^2= \begin{pmatrix} 1-2a+a^2+ab & a(2-a-b) \\ b(2-a-b) & 1-2b+b^2+ab \end{pmatrix}, donc M2(2ab)M=(1+a+b001+a+b)=(1+a+b)I.M^2 -(2-a-b)M = \begin{pmatrix} -1+a+b & 0 \\ 0 & -1+a+b \end{pmatrix} = (-1+a+b) I.
Ainsi le polynôme P(X)=X2(2ab)X+(1ab)\displaystyle P(X) = X^2-(2-a-b)X+(1-a-b) est un polynôme annulateur de M\displaystyle M. On pose λ=1ab\displaystyle \lambda = 1-a-b. Les hypothèses a,b]0,1[\displaystyle a,b \in ]0,1[ impliquent que λ]1,1[\displaystyle \lambda \in ]-1,1[. De plus, on a P(X)=(X1)(Xλ).P(X)=(X-1)(X-\lambda).
On fait maintenant la division euclidienne de Xn\displaystyle X^n par P\displaystyle P : il existe QR[X]\displaystyle Q \in \R[X] et an,bnR\displaystyle a_n,b_n \in \R tels que Xn=Q(X)P(X)+(anX+bn).X^n = Q(X)P(X) + (a_n X+b_n). Comme les deux racines de P\displaystyle P sont 1\displaystyle 1 et λ\displaystyle \lambda, on a : 1=an+bn , λn=anλ+bn.1=a_n+b_n \ ,\ \lambda^n = a_n \lambda + b_n. On résout facilement le système et on obtient : an=1λn1λ , bn=λnλ1λ.a_n = \frac{1-\lambda^n}{1-\lambda} \ , \ b_n = \frac{\lambda^n-\lambda}{1-\lambda}. Ainsi on a Mn=anM+bnI\displaystyle M^n = a_n M+b_n I, c’est-à-dire Mn=11λ((1λn)(1a)+(λnλ)(1λn)a(1λn)b(1λn)(1b)+(λnλ)).M^n = \frac{1}{1-\lambda} \begin{pmatrix} (1-\lambda^n)(1-a)+(\lambda^n-\lambda) & (1-\lambda^n)a \\ (1-\lambda^n)b & (1-\lambda^n)(1-b)+(\lambda^n-\lambda) \end{pmatrix}. En remplaçant λ\displaystyle \lambda par son expression explicite, on simplifie un peu : Mn=1a+b(b+λnaaλnabλnba+λnb).M^n = \frac{1}{a+b} \begin{pmatrix} b + \lambda^n a & a - \lambda^n a \\b - \lambda^n b & a + \lambda^n b\end{pmatrix}. Comme λ<1\displaystyle |\lambda|<1, on a limnλn=0\displaystyle \lim_{n \to \infty} \lambda^n = 0, donc limnMn=1a+b(baba).\lim_{n \to \infty} M^n = \frac{1}{a+b} \begin{pmatrix} b & a \\ b& a \end{pmatrix}.

Exercice 269 ⭐️⭐️ Sup/Spé/L2

Soit aR\displaystyle a \in \R. On considère la matrice M=(1a0010a001).M= \begin{pmatrix} 1 & -a & 0 & \ddots \\ 0 & 1 & \ddots & 0 \\ \vdots & \ddots & \ddots & -a \\ 0 & \cdots & 0 & 1 \end{pmatrix}. Montrer que M\displaystyle M est inversible et calculer son inverse.

On peut d’abord étudier la matrice J=(0100001000).J= \begin{pmatrix} 0 & 1 & 0 & \ddots \\ 0 & 0 & \ddots & 0 \\ \vdots & \ddots & \ddots & 1\\ 0 & \cdots & 0 & 0 \end{pmatrix}.

M\displaystyle M a une forme simple 👉 On calcule ses puissances ! (Chercher un polynôme annulateur si c’est à votre programme)

La matrice M\displaystyle M est triangulaire supérieure et ses coefficients diagonaux valent 1\displaystyle 1, on a donc det(M)=1\displaystyle \det(M)=1 et donc M\displaystyle M est inversible. On introduit la matrice J=(0100001000).J= \begin{pmatrix} 0 & 1 & 0 & \ddots \\ 0 & 0 & \ddots & 0 \\ \vdots & \ddots & \ddots & 1\\ 0 & \cdots & 0 & 0 \end{pmatrix}. On a M=IaJ.M = I-aJ. On montre par récurrence sur k0\displaystyle k \ge 0 que Jk=Jk\displaystyle J^k = J_k, où Jk\displaystyle J_k est la matrice dont tous les coefficients valent 0\displaystyle 0 sauf les coefficients ligne i\displaystyle i et colonne i+k\displaystyle i+k lorsque i\displaystyle i parcourt {1,,nk}\displaystyle \{1,\ldots,n-k\} (on peut facilement vérifier que J=J1\displaystyle J=J_1). En particulier Jn1=(001000000)J^{n-1} = \begin{pmatrix} 0 & \cdots & 0 & 1 \\ 0 & 0 & \cdots & 0 \\ \vdots & \ddots & \ddots & \vdots\\ 0 & \cdots & 0 & 0 \end{pmatrix} et Jn=0\displaystyle J^n = 0.

Pour en déduire l’inverse de M\displaystyle M, on se sert de la formule (1x)(1+x++xn1)=1xn\displaystyle (1-x)(1+x+\cdots+x^{n-1}) = 1-x^n, qui est vraie dans tout anneau A\displaystyle A d’élément unité 1\displaystyle 1. Ici avec A=Mn(R)\displaystyle A = M_n(\R) et x=aJ\displaystyle x=aJ, on a (IaJ)(I+aJ++an1Jn1)=IanJn=I,(I-aJ)(I+aJ+\cdots+a^{n-1}J^{n-1}) = I-a^nJ^n = I, donc M1=I+aJ++an1Jn1\displaystyle M^{-1} = I+aJ+\cdots+a^{n-1}J^{n-1}.

Autre méthode : une méthode qui paraît plus naturelle au départ, mais qui se termine par de la combinatoire repoussante ! On écrit que (MI)n=(a)nJn=0\displaystyle (M-I)^n = (-a)^n J^n = 0, donc 0=k=0n(nk)Mk(1)k=I+Mk=1n(nk)Mk1(1)k0=\sum_{k=0}^n \binom{n}{k} M^k(-1)^k = I + M \sum_{k=1}^n \binom{n}{k} M^{k-1} (-1)^k et on en déduit que M1=k=1n(nk)(M)k1.M^{-1} = \sum_{k=1}^n \binom{n}{k} (-M)^{k-1} . On peut aller plus loin en écrivant que M=aJI\displaystyle -M = aJ-I, donc : M1=k=1n(nk)l=0k1(k1l)alJl(1)k1l=l=0n1alJl(k=l+1n(nk)(k1l)(1)k1l).M^{-1} = \sum_{k=1}^n \binom{n}{k} \sum_{l=0}^{k-1} \binom{k-1}{l} a^{l} J^l (-1)^{k-1-l} = \sum_{l=0}^{n-1} a^l J^l \left(\sum_{k=l+1}^n \binom{n}{k} \binom{k-1}{l} (-1)^{k-1-l}\right). Avec une très bonne culture en combinatoire, on sait que k=l+1n(nk)(k1l)(1)k1l=1\sum_{k=l+1}^n \binom{n}{k} \binom{k-1}{l} (-1)^{k-1-l} = 1 pour tout 0ln1\displaystyle 0 \le l \le n-1 et on peut conclure.

Remarquons que si on a déjà trouvé l’inverse de M\displaystyle M par la première méthode, on peut invoquer le fait que la famille des (Jk)0kn1\displaystyle (J_k)_{0 \le k \le n-1} est libre pour en déduire la formule combinatoire ! Une preuve directe de cette formule ne saurait être beaucoup plus courte…

Exercice 283 ⭐️⭐️ Matrice diagonale dominante, Mines PSI 2017

Soit A=(ai,j)1i,jnMn(R)\displaystyle A = (a_{i,j})_{1 \le i,j \le n} \in \mathcal{M}_n(\R). Pour i{1,,n}\displaystyle i \in \{1,\ldots,n\} on note Li=kiai,k\displaystyle L_i = \sum_{k\neq i} |a_{i,k}|.

  1. On suppose que pour tout i{1,,n}\displaystyle i \in \{1,\ldots,n\}, ai,i>Li\displaystyle |a_{i,i}| > L_i. Montrer que A\displaystyle A est inversible.
  2. On suppose que pour tous ij{1,,n}\displaystyle i \neq j \in \{1,\ldots,n\}, ai,iaj,j>LiLj\displaystyle |a_{i,i} a_{j,j}| > L_i L_j. Montrer que A\displaystyle A est inversible.

Somme de coefficients et inversibilité 👉 Écrire AX=0\displaystyle AX=0.

  1. Par l’absurde ! On suppose que A\displaystyle A n’est pas inversible. Il existe donc XRn\displaystyle X \in \R^n non nul tel que AX=0\displaystyle AX = 0.
    Soit i{1,,n}\displaystyle i \in \{1,\ldots,n\} tel que xi=max(xi,,xn)>0\displaystyle |x_i| = \max(|x_i|,\ldots,|x_n|) > 0.
    En écrivant ce que vaut le i\displaystyle i-ème coefficient de AX\displaystyle AX, on obtient l’équation ai,ixi+jiai,jxj=0,a_{i,i} x_i + \sum_{j \neq i} a_{i,j} x_j = 0, et donc ai,ixi=jiai,jxjjiai,jxjxiLi.|a_{i,i}| |x_i| = \left|\sum_{j \neq i} a_{i,j} x_j \right| \le \sum_{j \neq i} |a_{i,j}| |x_j| \le |x_i| L_i. En divisant par xi>0\displaystyle |x_i|>0, on arrive à l’équation ai,iLi\displaystyle |a_{i,i}| \le L_i, ce qui contredit l’hypothèse ai,i>Li\displaystyle |a_{i,i}| > L_i.
  2. On procède de la même façon qu’à la question précédente. On suppose qu’il existe XRn\displaystyle X \in \R^n non nul tel que AX=0\displaystyle A X = 0. Soient i\displaystyle i et j\displaystyle j des indices tels que xi=max(x1,,xn)\displaystyle |x_i| = \max(|x_1|,\ldots,|x_n|) et xj=max(xk:ki)\displaystyle |x_j| = \max(|x_k| : k \neq i). On sait que xi>0\displaystyle |x_i|>0, sinon X\displaystyle X serait le vecteur nul. Si on suppose que xj=0\displaystyle |x_j|=0, alors on aurait xk=0\displaystyle x_k = 0 pour tout ki\displaystyle k \neq i. Mais en regardant le i\displaystyle i-ème coefficient de AX=0\displaystyle AX=0, on aurait ai,ixi=0\displaystyle a_{i,i} x_i = 0, ce qui est une contradiction. Ainsi on a aussi xj>0\displaystyle |x_j| > 0. En regardant les coefficients i\displaystyle i et j\displaystyle j de AX=0\displaystyle AX = 0, on obtient les équations ai,ixi+kiai,kxk=0,a_{i,i} x_i + \sum_{k \neq i} a_{i,k} x_k = 0, aj,jxj+kjaj,kxk=0.a_{j,j} x_j + \sum_{k \neq j} a_{j,k} x_k = 0. De ces deux équations on en déduit les deux inégalités ai,ixixjLi , aj,jxjxiLj.|a_{i,i} x_i| \le |x_j| L_i \ , \ |a_{j,j} x_j| \le |x_i| L_j. En multipliant les deux inégalités et en divisant par xixj>0\displaystyle |x_i x_j| > 0, on obtient ai,iaj,jLiLj\displaystyle |a_{i,i} a_{j,j}| \le L_i L_j, ce qui contredit l’hypothèse de l’énoncé.

Exercice 293 ⭐️⭐️ Mines PC 2018, Sup/L1

Soit M=(00ii00001)Mn(C).\displaystyle M=\begin{pmatrix} 0 & 0 & i\\ i & 0 & 0\\ 0 & 0 & 1 \end{pmatrix}\in M_n(\C). Déterminer la dimension du sous-espace vectoriel F\displaystyle \cal F de Mn(C)\displaystyle M_n(\C) engendré par la famille (Mk)k0\displaystyle (M^k)_{k\ge0}.

Exemple concret de matrice et on cause de Mk\displaystyle M^k 👉 Calculer M2\displaystyle M^2, M3\displaystyle M^3, etc.

On suit nos reflexes :
M2=(00ii00001)(00ii00001)=(00i001001).\begin{aligned} M^2 & = \begin{pmatrix} 0 & 0 & i\\ i & 0 & 0\\ 0 & 0 & 1 \end{pmatrix}\begin{pmatrix} 0 & 0 & i\\ i & 0 & 0\\ 0 & 0 & 1 \end{pmatrix}\\ & = \begin{pmatrix} 0 & 0 & i\\ 0 & 0 & -1\\ 0 & 0 & 1 \end{pmatrix}. \\ \end{aligned} et de plus M3=(00ii00001)(00i001001)=(00i001001)=M2.\begin{aligned} M^3 & = \begin{pmatrix} 0 & 0 & i\\ i & 0 & 0\\ 0 & 0 & 1 \end{pmatrix}\begin{pmatrix} 0 & 0 & i\\ 0 & 0 & -1\\ 0 & 0 & 1 \end{pmatrix}\\ & = \begin{pmatrix} 0 & 0 & i\\ 0 & 0 & -1\\ 0 & 0 & 1 \end{pmatrix}=M^2. \\ \end{aligned} On voit donc que F=Vect(I3,M,M2)\displaystyle {\cal F}={\rm Vect}(I_3,M,M^2), donc dimF3\displaystyle \dim\cal F\le3. Il est alors naturel de se demander si ces trois matrices sont libres. Soit (a,b,c)C3\displaystyle (a,b,c)\in\C^3 tels que aI3+bM+cM2=0\displaystyle aI_3+bM+cM^2=0. Calculons : aI3+bM+cM2=(a0(b+c)ibiac00a+b+c),aI_3+bM+cM^2=\begin{pmatrix} a & 0 & (b+c)i\\ b i & a & -c\\ 0 & 0 & a+b+c \end{pmatrix}, et on voit donc que si cette dernière matrice est nulle, cela impose a=b=c=0\displaystyle a=b=c=0. Ainsi I3,M\displaystyle I_3,M et M2\displaystyle M^2 sont libres et dimF=3\displaystyle \dim\cal F=3.

Exercice 447 ⭐️ Matrices triangulaires strictes, Sup/L1

On suppose que AMn(K)\displaystyle A\in\mathcal M_n(\K) est triangulaire supérieure stricte.
Montrer que A\displaystyle A est nilpotente (i.e. qu’il existe pN\displaystyle p\in\N^* tel que Ap=0\displaystyle A^p=0).

Pour comprendre la situation, rien de tel que de prendre un exemple pour A\displaystyle A, et de calculer les puissances successives. 👉 On doit observer que les puissances de A\displaystyle A contiennent de plus en plus de 0\displaystyle 0.

L’hypothèse est que pour ij\displaystyle i\ge j on a Ai,j=0\displaystyle A_{i,j}=0.
Montrons par récurrence que pour pN\displaystyle p\in\N^*, la matrice Ap\displaystyle A^p vérifie : i,j[ ⁣[1,n] ⁣],    ijp+1    (Ap)i,j=0.\forall i,j\in[\![1,n]\!],~~~~i\geq j-p+1~~\Rightarrow~~ (A^p)_{i,j}=0.

Ceci entraîne la conclusion voulue, car en particulier pour p=n\displaystyle p=n elle donne An=0\displaystyle A^n=0.

\displaystyle \bullet Pour k=1\displaystyle k=1 c’est l’hypothèse de l’énoncé.

\displaystyle \bullet Supposons l’hypothèse vérifiée au rang p\displaystyle p. Prenons des indices i,j\displaystyle i,j tels que ijp\displaystyle i\geq j-p et montrons que (Ap+1)i,j=0\displaystyle (A^{p+1})_{i,j}=0. Comme Ap+1=A×Ap\displaystyle A^{p+1}=A\times A^p on a : (Ap+1)i,j=k=1nAi,k(Ap)k,j(A^{p+1})_{i,j}=\sum_{k=1}^n A_{i,k}(A^p)_{k,j}

Alors Ai,k=0\displaystyle A_{i,k}=0 si k<i\displaystyle k<i, et (Ap)k,j=0\displaystyle (A^p)_{k,j}=0 si kjp+1\displaystyle k\ge j-p+1 (par hypothèse de récurrence).
Or tous les indices k[ ⁣[1,n] ⁣]\displaystyle k\in[\![1,n]\!] sont dans l’un de ces deux cas (puisque ijp\displaystyle i\ge j-p). Donc dans la somme ci-dessus tous les termes sont nuls, et donc (Ap+1)i,j=0\displaystyle (A^{p+1})_{i,j}=0.

Exercice 450 ⭐️⭐️ rg(tAA)=rg(A)\displaystyle rg(^tAA)=rg(A), Sup/L2/Classique

Soit AMn,p(R)\displaystyle A\in M_{n,p}(\R). Montrer que

  1. Ker(tAA)=Ker(A)\displaystyle {\rm Ker}(^tAA)={\rm Ker}(A) ;
  2. rg(tAA)=rg(A)\displaystyle {\rm rg}(^tAA)={\rm rg}(A). En déduire rg(tAA)=rg(AtA)\displaystyle {\rm rg}(^tAA)={\rm rg}(A^tA).
  • Ker, rg 👉 Théorème du rang !
  • tAA\displaystyle ^tAA 👉 Matrice symétrique positive, calculer tXtAAX\displaystyle ^tX^tAAX, valeurs propres positives.
  1. Soit XKer(A)\displaystyle X\in {\rm Ker}(A), alors AX=0\displaystyle AX=0, donc tAAX=0\displaystyle ^tAAX=0, donc XKer(tAA)\displaystyle X\in {\rm Ker}(^tAA). Ainsi Ker(A)Ker(tAA)\displaystyle {\rm Ker}(A)\subset {\rm Ker}(^tAA). Soit XKer(tAA)\displaystyle X\in {\rm Ker}(^tAA), alors tAAX=0\displaystyle ^tAAX=0, d’où tXtAAX=AX22=0\displaystyle ^tX^tAAX=\|AX\|_2^2=0, donc AX=0\displaystyle AX=0, i.e. XKer(A)\displaystyle X\in {\rm Ker}(A), ce qui prouve Ker(tAA)Ker(A)\displaystyle {\rm Ker}(^tAA)\subset {\rm Ker}(A). D’où l’égalité voulue. On rappelle que si Y=t(y1,,yn)\displaystyle Y= ^t(y_1,\cdots,y_n), on définit sa norme euclidienne canonique par Y22=tYY=y12+yn2\displaystyle \|Y\|_2^2=^tYY=y_1^2\cdots +y_n^2.
  2. On a tAAMp,p(R)\displaystyle ^tAA\in M_{p,p}(\R), et A\displaystyle A représente une application linéaire de Rp\displaystyle \R^p dans Rn\displaystyle \R^n. On applique alors le théorème du rang à A\displaystyle A et tAA\displaystyle ^tAA, i.e.
    rg(A)=p dim Ker(A)rg(tAA)=p dim Ker(tAA),\begin{aligned} {\rm rg}(A)&=p-{\rm\ dim\ Ker}(A) \\ {\rm rg}(^tAA)&=p-{\rm\ dim\ Ker}(^tAA),\end{aligned} d’où rg(tAA)=rg(A)\displaystyle {\rm rg}(^tAA)={\rm rg}(A). En appliquant la même formule à la matrice tA\displaystyle ^tA, et en remarquant que rg(tA)=rg(A)\displaystyle {\rm rg}(^tA)={\rm rg}(A), on obtient rg(tAA)=rg(AtA)\displaystyle {\rm rg}(^tAA)={\rm rg}(A^tA).

Exercice 451 ⭐️⭐️ AB=BA=0\displaystyle AB=BA=0, Sup/Spé/L2

Soit AMn(C)\displaystyle A\in M_n(\C) non inversible. Montrer qu’il existe B0\displaystyle B\neq0 tel que AB=BA=0\displaystyle AB=BA=0.

  • AMn(C)\displaystyle A\in M_n(\C) non inversible 👉 det(A)=0\displaystyle {\rm det}(A)=0, rg(A)<n\displaystyle {\rm rg}(A)<n ;
  • Existence de B\displaystyle B 👉 construire B\displaystyle B à partir de A\displaystyle A dans une bonne base ?

Pour construire B\displaystyle B il faut partir de A\displaystyle A dans une bonne base, et là on sait pas grand chose ! On peut juste dire qu’il existe P\displaystyle P et Q\displaystyle Q inversible tel que A=PDQ1\displaystyle A=PDQ^{-1} avec D=(Ir000)\displaystyle D=\left( \begin{array}{cc} I_r & 0 \\ 0 & 0 \end{array} \right) et r<n\displaystyle r<n (on dit que A\displaystyle A et D\displaystyle D sont des matrices équivalentes). Si on pose B=QDP1\displaystyle B=QD'P^{-1} avec D=(000Inr)\displaystyle D'=\left( \begin{array}{cc} 0 & 0 \\ 0 & I_{n-r} \end{array} \right), c’est gagné car DD=DD=0\displaystyle DD'=D'D=0 !

Exercice 452 ⭐️ AB=0\displaystyle AB=0, Sup/L1

Soit A,BMn(K)\displaystyle A,B\in M_n(\K). Si AB=0\displaystyle AB=0, a-t-on BA=0\displaystyle BA=0 ?

Regardez en dimension 2\displaystyle 2.

NON ! Soit A=(0001)\displaystyle A=\left(\begin{matrix} 0 & 0 \\ 0 & 1\end{matrix}\right) et B=(1100)\displaystyle B=\left(\begin{matrix} 1 & 1 \\ 0 & 0\end{matrix}\right). Alors AB=(0001)(1100)=(0000)\displaystyle AB=\left(\begin{matrix} 0 & 0 \\ 0 & 1\end{matrix}\right)\left(\begin{matrix} 1 & 1 \\ 0 & 0\end{matrix}\right)=\left(\begin{matrix} 0 & 0 \\ 0 & 0\end{matrix}\right), mais BA=(1100)(0001)=(0100)\displaystyle BA=\left(\begin{matrix} 1 & 1 \\ 0 & 0\end{matrix}\right)\left(\begin{matrix} 0 & 0 \\ 0 & 1\end{matrix}\right)=\left(\begin{matrix} 0 & 1 \\ 0 & 0\end{matrix}\right).

Exercice 473 ⭐️⭐️ InAB\displaystyle I_n-AB inversible, Sup/L1

Soit A,BMn(K)\displaystyle A,B\in M_n(\K) tels que A\displaystyle A et InAB\displaystyle I_n-AB sont inversibles. Montrer que InBA\displaystyle I_n-BA est inversible.

Matrice inversible 👉 Ker réduit à {0}\displaystyle \{0\}, det0\displaystyle \det\neq0.

Un grand mathématicien m’a dit un jour : “Les maths, c’est de la réécriture”. Soit XKn\displaystyle X\in\K^n tel que (InBA)X=0\displaystyle (I_n-BA)X=0, i.e. BAX=X\displaystyle BAX=X. D’où ABAX=AX\displaystyle ABAX=AX, que l’on réécrit (InAB)(AX)=0\displaystyle (I_n-AB)(AX)=0. Comme InAB\displaystyle I_n-AB est inversible, il vient AX=0\displaystyle AX=0. On conclut alors que X=0\displaystyle X=0 car A\displaystyle A est inversible. Ainsi InBA\displaystyle I_n-BA est inversible.

Exercice 475 ⭐️⭐️⭐️ A2B=A\displaystyle A^2B=A, X PC, Sup/Spé/L2

Soit A,BMn(R)\displaystyle A,B\in M_n(\R) de même rang et tels que A2B=A\displaystyle A^2B=A. Montrer que B2A=B\displaystyle B^2A=B.

  • Rang 👉 Théorème du rang, étudier Ker et Im, matrices équivalentes.

Il faut avouer que cet exercice “innocent” n’est pas facile du tout. Unique stratégie : déduire toutes les petites choses simples qu’on peut à partir des hypothèses, et des pistes vont apparaître. Le jury devrait alors aider à s’orienter.

On commence donc suivant nos réflexes à regarder les noyaux et les images. Si XKerB\displaystyle X\in {\rm Ker} B, alors AX=A2BX=0\displaystyle AX=A^2BX=0, donc XKerA\displaystyle X\in {\rm Ker} A, i.e. KerBKerA\displaystyle {\rm Ker} B \subset {\rm Ker} A. Comme rg(A)=rg(B)\displaystyle rg(A)=rg(B), le théorème du rang nous donne que dim KerB=dim KerA\displaystyle dim\ {\rm Ker} B = dim\ {\rm Ker} A. Puisqu’on a une inclusion, on a alors KerB=KerA\displaystyle {\rm Ker} B = {\rm Ker} A. Et les images ? On a toujours ImA2ImA\displaystyle {\rm Im} A^2 \subset {\rm Im} A. Vu légalité A2B=A\displaystyle A^2B=A, on a plus : si on s’écrit AX\displaystyle AX, on s’écrit aussi A2(BX)\displaystyle A^2(BX), donc ImAImA2\displaystyle {\rm Im} A \subset {\rm Im} A^2, et ImA2=ImA\displaystyle {\rm Im} A^2 = {\rm Im} A. On a toujours aussi KerAKerA2\displaystyle {\rm Ker} A \subset {\rm Ker} A^2. En utilisant encore le théorème du rang avec rg(A2)=rg(A)\displaystyle rg(A^2)=rg(A), il vient alors KerA=KerA2\displaystyle {\rm Ker} A = {\rm Ker} A^2.

Bon on a emmagasiné pas mal d’infos. On essaie de viser la cible ? qui est B2A=B\displaystyle B^2A=B, i.e. B(BAIn)=0\displaystyle B(BA-I_n)=0. Donc on veut montrer que pour tout vecteur X\displaystyle X, (BAIn)XKerB\displaystyle (BA-I_n)X\in {\rm Ker} B. Mais on sait que KerB=KerA2\displaystyle {\rm Ker} B={\rm Ker} A^2. Testons donc A2(BAIn)=A2BAA2=AAA2=0\displaystyle A^2(BA-I_n)=A^2BA-A^2=AA-A^2=0, et ça montre bien que tout vecteur X\displaystyle X, (BAIn)XKerA2=KerB\displaystyle (BA-I_n)X\in {\rm Ker} A^2={\rm Ker} B, c’est gagné ! 😅

Exercice 478 ⭐️⭐️⭐️ HGLn\displaystyle H\cap GL_n\neq\emptyset, Sup/L2/Classique

Soit H\displaystyle H un hyperplan de Mn(R)\displaystyle M_n(\R), n2\displaystyle n\ge2. Montrer que H\displaystyle H contient au moins une matrice inversible.

🙇‍♀ Supposer que InH\displaystyle I_n\notin H et considérer les matrices élémentaires Ei,j\displaystyle E_{i,j}.

Si InH\displaystyle I_n\in H c’est fini 😅 Si InH\displaystyle I_n\notin H, alors Mn(R)=RInH\displaystyle M_n(\R)=\R I_n \oplus H car RIn\displaystyle \R I_n (la droite engendrée par In\displaystyle I_n) est de dimension 1\displaystyle 1, et H\displaystyle H est de dimension un de moins que celle de l’espace total. Soit Ei,j\displaystyle E_{i,j} les matrices élémentaires de Mn(R)\displaystyle M_n(\R) (i.e. sa base canonique) et on suppose que ij\displaystyle i\neq j. On considère les matrices In+Ei,j\displaystyle I_n+E_{i,j} que l’on décompose selon RInH\displaystyle \R I_n \oplus H : In+Ei,j=αi,jIn+Hi,j,I_n+E_{i,j}=\alpha_{i,j}I_n + H_{i,j}, avec αi,jR\displaystyle \alpha_{i,j}\in\R et Hi,jH\displaystyle H_{i,j}\in H. Ainsi (1αi,j)In+Ei,jH\displaystyle (1-\alpha_{i,j})I_n+E_{i,j}\in H. S’il existe un αi,j1\displaystyle \alpha_{i,j}\neq 1 alors (1αi,j)In+Ei,j\displaystyle (1-\alpha_{i,j})I_n+E_{i,j} est inversible car ij\displaystyle i\neq j (on a une matrice dont les éléments de la diagonale sont tous égaux non nuls avec un 1\displaystyle 1 qui se ballade en dehors de la diagonale). Dans ce cas là, c’est fini ! Sinon tous les αi,j\displaystyle \alpha_{i,j} sont égaux à 1\displaystyle 1 et donc tous les Ei,jH\displaystyle E_{i,j}\in H. On vérifie alors que la matrice En,1+E1,2+En1,nH\displaystyle E_{n,1}+E_{1,2}+\cdots E_{n-1,n}\in H est inversible (c’est une matrice de permutation), et c’est gagné encore.

Remarque :

  1. R\displaystyle \R peut être remplacé par un corps quelconque ;
  2. On peut résoudre cet exercice avec des réflexes plus de 2e année : noyau d’une forme linéaire, représentation avec la trace, matrices équivalentes ;
  3. La dimension maximale d’un sous-espace de Mn(R)\displaystyle M_n(\R) ne contenant que des matrices de rang p\displaystyle \le p est np\displaystyle np (cf Oraux X-ENS, Algèbre 1, 7.10 p 331).

Exercice 479 ⭐️ ABBA=A\displaystyle AB-BA=A, Sup/L1

Soit A,B\displaystyle A,B deux matrices carrées telles que ABBA=A\displaystyle AB-BA=A. Montrer que A\displaystyle A n’est pas inversible. (En fait on peut montrer que A\displaystyle A est nilpotente, mais c’est plus dur ! cf Exercice 11\displaystyle 11)

A\displaystyle A pas inversible ? 👉 Supposons que A\displaystyle A est inversible pour faire des calculs !

Suivre la trace…

Si A\displaystyle A est inversible alors ABA1B=In\displaystyle ABA^{-1}-B=I_n et donc en prenant la trace des 2\displaystyle 2 cotés on obtient tr(B)tr(B)=n\displaystyle tr(B)-tr(B)=n, impossible ! Donc A\displaystyle A n’est pas inversible.

Exercice 484 ⭐️⭐️ Polynôme annulateur, Mines PSI, Spé/L2

Soit AM5(R)\displaystyle A\in M_5(\R) telle que A3=A22A\displaystyle A^3=A^2-2A. La matrice A\displaystyle A est-elle inversible ?

  • On voit un polynôme annulateur 👉 Valeurs propres qui sont racines ; Scindé à racines simples ?
  • Inversible ? 👉 Supposer A\displaystyle A inversible et faire des calculs avec l’inverse.

Suivant nos réflexes, supposons A\displaystyle A inversible. On peut donc simplifier l’égalité A3=A22A\displaystyle A^3=A^2-2A en A2=A2In\displaystyle A^2=A-2I_n, et hop on a un nouveau polynôme annulateur : Q(X)=X2X+2\displaystyle Q(X)=X^2-X+2. Il est de degré 2\displaystyle 2, donc on peut regarder facilement ses racines. Son discriminant est (1)2412=7<0\displaystyle (-1)^2-4\cdot1\cdot2=-7<0, donc Q\displaystyle Q a deux racines complexes conjuguées non réelles.

Est-ce cohérent avec les hypothèses ? On a AM5(R)\displaystyle A\in M_5(\R), donc le polynôme caractéristique est de degré 5\displaystyle 5, donc impair, et alors A\displaystyle A a forcément une valeur propre réelle α\displaystyle \alpha (le graphe d’un polynôme de degré impair coupe nécessairement l’axe réel, TVI !). Or α\displaystyle \alpha doit être aussi racine d’un polynôme annulateur, par exemple Q\displaystyle Q. Contradiction car αR\displaystyle \alpha\in\R !

Conclusion : A\displaystyle A n’est pas inversible.

Exercice 490 ⭐️ P(A)=0\displaystyle P(A)=0 et AX=λX\displaystyle AX=\lambda X, Sup/Spé/L2

Soit AMn(C)\displaystyle A\in M_n(\C) et P(X)=apXp++a1X+a0\displaystyle P(X)=a_pX^p+\cdots+a_1X+a_0 un polynôme dans C[X]\displaystyle \C[X] tel que P(A)=apAp++a1A+a0In=0\displaystyle P(A)=a_pA^p+\cdots+a_1A+a_0I_n=0 (On dit que P\displaystyle P est un polynôme annulateur de A\displaystyle A) . Soit λC\displaystyle \lambda\in\C tel qu’il existe XCn\displaystyle X\in\C^n non nul vérifiant AX=λX\displaystyle AX=\lambda X (On dit que λ\displaystyle \lambda est une valeur propre de A\displaystyle A). Montrer que P(λ)=0.\displaystyle P(\lambda)=0.

P(A)=apAp+\displaystyle P(A)=a_pA^p+\cdots 👉 Il est naturel de calculer ApX\displaystyle A^pX.

Dans P(A)\displaystyle P(A), il y a des puissances de A\displaystyle A, donc on va regarder calmement les AkX\displaystyle A^kX. On a AX=λX\displaystyle AX=\lambda X, donc A2X=A(AX)=A(λX)=λAX=λ2X\displaystyle A^2X=A(AX)=A(\lambda X)=\lambda AX=\lambda^2 X. Par récurrence on va donc pouvoir prouver que AkX=λkX\displaystyle A^kX=\lambda^k X pour tout entier k1\displaystyle k\ge1. Ainsi P(A)X=P(λ)X\displaystyle P(A)X=P(\lambda)X. Comme P(A)=0\displaystyle P(A)=0, il vient P(λ)X=0\displaystyle P(\lambda)X=0. Mais X0\displaystyle X\neq0, donc P(λ)=0\displaystyle P(\lambda)=0.

Remarque :

  • Une valeur propre est racine d’un polynôme annulateur, mais la réciproque est fausse ! Q(X)=X2X\displaystyle Q(X)=X^2-X est un polynôme annulateur de In\displaystyle I_n et a 0\displaystyle 0 et 1\displaystyle 1 pour racines. Or 0\displaystyle 0 n’est pas une valeur propre de In\displaystyle I_n (il n’y a que 1\displaystyle 1 comme valeur propre).
  • Pour les prépa : les polynômes annulateurs sont au programme des MP, PSI et ECS2. Pour eux c’est du cours. Mais typiquement, tu vois que c’est le genre de question qu’on peut donner à l’écrit à tout le monde en redéfinissant les objets 😏

Exercice 519 ⭐️⭐️ Trace : une caractérisation , Spé/L2

Soit f:Mn(C)C\displaystyle f: \mathcal M_n(\C)\to\C une application linéaire.

  1. Montrer qu’il existe une unique matrice AMn(C)\displaystyle A\in\mathcal M_n(\C) telle que : MMn(C),  f(M)=tr(AM).\forall M\in\mathcal M_n(\C),~~f(M)=\mathrm{tr}(AM).

  2. On suppose dans cette question que : M,NMn(C),f(MN)=f(NM)\displaystyle \forall M,N\in\mathcal M_n(\C), f(MN)=f(NM).
    Montrer qu’il existe λC\displaystyle \lambda\in\C tel que f=λ tr\displaystyle f=\lambda~\mathrm{tr}.

  3. On suppose dans cette question que : AMn(C), PGLn(C), f(P1AP)=f(A)\displaystyle \forall A\in\mathcal M_n(\C),~\forall P\in GL_n(\C),~f(P^{-1}AP)=f(A).
    Montrer qu’il existe λC\displaystyle \lambda\in\C tel que f=λ tr\displaystyle f=\lambda~\mathrm{tr}.
    Indication. On pourra commencer par montrer que GLn(C)\displaystyle GL_n(\C) est dense dans Mn(C)\displaystyle \mathcal M_n(\C).

  1. Existence et unicité 👉 On peut reconnaître la question de la bijectivité d’une certaine application.
  2. Regarder ce que cette égalité donne pour des matrices simples.
  3. Faire le lien avec la question précédente.
  1. Pour AMn(C)\displaystyle A\in\mathcal M_n(\C), on pose fA:Mtr(AM)\displaystyle f_A :M\mapsto \mathrm{tr}(AM).
    fA\displaystyle f_A est une application de Mn(C)\displaystyle \mathcal M_n(\C) vers C\displaystyle \C, qui est clairement linéaire.
    L’application Φ:AfA\displaystyle \Phi : A\mapsto f_A, de Mn(C)\displaystyle \mathcal M_n(\C) vers L(Mn(C),C)\displaystyle \mathcal L(\mathcal M_n(\C),\C) est elle aussi clairement linéaire. Il suffit de montrer qu’elle est bijective, et comme les dimensions de Mn(C)\displaystyle \mathcal M_n(\C) et L(Mn(C),C)\displaystyle \mathcal L(\mathcal M_n(\C),\C) sont égales, il suffit en fait de montrer qu’elle est injective. Montrons pour cela que ker(Φ)={0}\displaystyle \ker(\Phi)=\{0\}.
    Soit AMn(C)\displaystyle A\in\mathcal M_n(\C) telle que MMn(C),tr(AM)=0\displaystyle \forall M\in\mathcal M_n(\C),\mathrm{tr}(AM)=0.
    Pour i,j[ ⁣[1,n] ⁣]\displaystyle i,j\in[\![1,n]\!], AEi,j\displaystyle AE_{i,j} est la matrice où toutes les colonnes sont nulles sauf la j\displaystyle j-ème qui est la i\displaystyle i-ème colonne de A\displaystyle A. Par conséquent tr(AEi,j)=aj,i=0\displaystyle \mathrm{tr}(AE_{i,j})= a_{j,i}=0. Donc A=0\displaystyle A=0.
  2. Soit ij\displaystyle i\ne j.
    Ei,iEi,j=Ei,j\displaystyle E_{i,i}E_{i,j}=E_{i,j} et Ei,jEi,i=0\displaystyle E_{i,j}E_{i,i}=0, donc l’égalité f(Ei,iEi,j)=f(Ei,jEi,i)\displaystyle f(E_{i,i}E_{i,j})=f(E_{i,j}E_{i,i}) donne f(Ei,j)=0\displaystyle f(E_{i,j})=0.
    Par ailleurs Ei,jEj,i=Ei,i\displaystyle E_{i,j}E_{j,i}=E_{i,i} et Ej,iEi,j=Ej,j\displaystyle E_{j,i}E_{i,j}=E_{j,j} donc f(Ei,i)=f(Ej,j)\displaystyle f(E_{i,i})=f(E_{j,j}).
    Notons λ\displaystyle \lambda la valeur commune de f(Ei,i)\displaystyle f(E_{i,i}) pour i[ ⁣[1,n] ⁣]\displaystyle i\in[\![1,n]\!]. Pour MMn(C)\displaystyle M\in\mathcal M_n(\C) on a :
    f(M)=1i,jnmi,jf(Ei,j)=1inmi,iλ=λ tr(M).f(M) = \sum_{1\le i,j\le n}m_{i,j} f(E_{i,j}) = \sum_{1\le i\le n}m_{i,i}\lambda = \lambda~\mathrm{tr}(M).
  3. La densité de GLn(C)\displaystyle GL_n(\C) dans Mn(C)\displaystyle \mathcal M_n(\C) est une propriété classique : pour MMn(C)\displaystyle M\in\mathcal M_n(\C) on peut prendre Mk=M+1kIn\displaystyle M_k=M+\frac 1k I_n, et remarquer que MkM\displaystyle M_k\to M et que Mk\displaystyle M_k est inversible à partir d’un certain rang (dans le cas contraire M\displaystyle M aurait une infinité de valeurs propres ce qui est impossible).
    Soit A,BMn(C)\displaystyle A,B\in\mathcal M_n(\C).
    On peut prendre une suite (Bk)\displaystyle (B_k) de matrices inversibles qui converge vers B\displaystyle B. Les applications f\displaystyle f, MAM\displaystyle M\mapsto AM et MMA\displaystyle M\mapsto MA sont continues (car linéaires en dimension finie), donc l’égalité f(ABk)=f(BkA)\displaystyle f(AB_k)=f(B_kA) donne quand k\displaystyle k\to\infty : f(AB)=f(BA)\displaystyle f(AB)=f(BA).
    D’où la conclusion d’après la question 2.

Exercice 555 ⭐️⭐️⭐️ Amitié, matrices et nombre premier de Grothendieck, Spé/L2

On considère un groupe de personnes telles que chacune a exactement n\displaystyle n amis dans le groupe: on suppose que l’amitié est toujours réciproque et qu’aucune personne n’est amie avec elle-même. De plus, deux personnes distinctes du groupe qui ne sont pas amies ont toujours un ami en commun dans le groupe.

  1. Montrer qu’une personne du groupe a au plus n(n1)\displaystyle n(n-1) amis d’amis, et en déduire qu’il y a au plus n2+1\displaystyle n^2 + 1 personnes dans le groupe. On suppose par la suite que ce maximum est atteint.
  2. Montrer que dans ce cas, deux personnes distinctes qui ne sont pas amies ont un seul ami commun, et que deux amis n’ont pas d’ami commun.
  3. On note par M\displaystyle M la matrice (n2+1)×(n2+1)\displaystyle (n^2 + 1) \times (n^2 + 1) telle que Mi,j=1\displaystyle M_{i,j} = 1 si les personnes de rang i\displaystyle i et j\displaystyle j dans l’ordre alphabétique sont amies, et Mi,j=0\displaystyle M_{i,j} = 0 si ces personnes ne sont pas amies. Montrer que M2+M(n1)I=J\displaystyle M^2 + M - (n-1) I = J, où I\displaystyle I est la matrice identité et J\displaystyle J est la matrice dont tous les coefficients sont égaux à 1\displaystyle 1.
  4. Montrer que JM=nJ\displaystyle JM = n J, et en déduire que (M2+M(n1)I)(MnI)=0\displaystyle (M^2 + M - (n-1) I )(M-nI)= 0.
  5. Calculer les racines du polynôme (X2+X(n1))(Xn)\displaystyle (X^2 + X - (n-1) )(X-n), en déduire que M\displaystyle M est diagonalisable et déterminer ses valeurs propres.
  6. Montrer que la multiplicité de la plus grande valeur propre est égale à 1\displaystyle 1.
  7. Montrer que si 4n3\displaystyle 4n-3 n’est pas un carré parfait, M\displaystyle M a deux valeurs propres irrationnelles de multiplicités égales. En considérant la trace de M\displaystyle M, montrer que n\displaystyle n est égal à 0\displaystyle 0 ou 2\displaystyle 2.
  8. Montrer que si n∉{0,2}\displaystyle n \not\in \{0,2\}, alors il existe un entier k0\displaystyle k \geq 0 tel que n=k2+k+1\displaystyle n = k^2 + k + 1.
  9. En considérant la trace de M\displaystyle M, montrer qu’il existe un entier m\displaystyle m tel que k(n2m)(k+1)m+k2+k+1=0\displaystyle k(n^2-m) - (k+1) m + k^2 + k+1 = 0, puis que k5+2k4+3k3+3k2+2k+1\displaystyle k^5 + 2 k^4 + 3k^3 + 3k^2 + 2k + 1 est multiple de 2k+1\displaystyle 2k+1.
  10. Montrer que 2k+1\displaystyle 2k + 1 est un diviseur de 15\displaystyle 15.
  11. Montrer que n\displaystyle n est nécessairement une des valeurs suivantes: 0,1,2,3,7,57\displaystyle 0, 1, 2, 3, 7, 57.
  12. Donner des exemples de situations corresponant aux valeurs 0,1,2,3\displaystyle 0, 1, 2, 3. Il a été prouvé que 7\displaystyle 7 est aussi possible, le cas de 57\displaystyle 57 est encore un problème ouvert. Les graphes correspondant aux relations d’amitié décrites ici s’appellent graphes de Moore.
  1. Une personne donnée a n\displaystyle n amis, qui chacun a n1\displaystyle n-1 amis autres que la personne de départ. Comme cette personne est amie ou amie d’amie de tous les autres membres du groupe, le nombre total de personnes et au plus 1+n+n(n1)=n2+1\displaystyle 1 + n + n(n-1) = n^2 + 1.
  2. Si une personne a deux amis communs avec une autre personne, elle ne peut avoir plus de n(n1)1\displaystyle n(n-1)-1 amis d’amis, car l’un d’entre eux est compté deux fois dans le raisonnement précédent, donc le nombre total de personnes est au plus n2\displaystyle n^2. Si deux amis ont un ami commun, on a également un double compte.
  3. D’après ce qui précède, deux personnes distinctes ont exactement un “chemin amical” de longueur 1\displaystyle 1 ou 2\displaystyle 2 donc tous les coefficients non-diagonaux de M2+M\displaystyle M^2 + M sont égaux à 1\displaystyle 1. Comme chaque personne a n\displaystyle n amis, il y a n\displaystyle n chemins de longueur 2\displaystyle 2 de cette personne a elle-même et aucun chemin de longueur 1\displaystyle 1, donc les coefficients diagonaux de M2+M\displaystyle M^2 + M sont égaux à n\displaystyle n.
  4. JM=nJ\displaystyle JM = nJ car chaque personne a n\displaystyle n amis, donc (M2+M(n1)I)(MnI)=J(MnI)=0\displaystyle (M^2 + M - (n-1) I )(M-nI)=J(M- nI) = 0.
  5. Les racines sont n\displaystyle n et (1±4n3)/2\displaystyle (-1 \pm \sqrt{4n-3})/2, et ce sont les valeurs propres de M\displaystyle M. On verifie facilement que (14n3)/2<(1+4n3)/2<n\displaystyle (-1 - \sqrt{4n-3})/2 < (-1 + \sqrt{4n-3})/2 < n pour tout n1\displaystyle n \geq 1, donc les trois racines sont distinctes et M\displaystyle M est diagonalisable.
  6. Soient v1,,vn2+1\displaystyle v_1, \dots, v_{n^2 + 1} les coordonnées d’un vecteur propre de M\displaystyle M pour la valeur propre n\displaystyle n. Si vj\displaystyle v_j est la coordonnée de partie réelle la plus grande, on a: 0k=1n2+1Mj,k(vjvk)=(vj)k=1n2+1Mj,k(k=1n2+1Mj,kvk)0 \leq \sum_{k=1}^{n^2+1} M_{j,k} \Re(v_j - v_k) = \Re(v_j) \sum_{k=1}^{n^2+1} M_{j,k} - \Re \left( \sum_{k=1}^{n^2+1} M_{j,k} v_k \right) =n(vj)(nvj)=0. = n \Re(v_j) - \Re(n v_j) = 0.
    On a donc égalité partout, et (vjvk)=0\displaystyle \Re(v_j - v_k) =0: toutes les coordonnées ont la
    même partie réelle. De même, elles ont la même partie imaginaire, elles sont donc égales et tous les vecteurs propres pour n\displaystyle n sont colinéaires.
  7. La trace de M\displaystyle M est m(14n3)/2+(n2m)(1+4n3)/2+n\displaystyle m(-1 - \sqrt{4n-3})/2 + (n^2 - m) (-1 + \sqrt{4n-3})/2 + n, où m\displaystyle m est la multiplicité de la plus petite valeur propre. Si mn2m\displaystyle m \neq n^2 -m et 4n3\displaystyle 4n-3 n’est pas un carré parfait, la trace est irrationnelle. Ce n’est pas possible car en fait la trace est nulle, puisque les termes diagonaux de M\displaystyle M sont nuls (personne n’est ami avec lui-même). On a donc m=n2/2\displaystyle m = n^2/2, et n2/2+n=0\displaystyle - n^2/2 + n = 0, n{0,2}\displaystyle n \in \{0,2\}.
  8. On doit avoir 4n3\displaystyle 4n-3 carré parfait impair, donc il existe k\displaystyle k tel que (2k+1)2=4n3\displaystyle (2k+1)^2 = 4n-3, n=k2+k+1\displaystyle n = k^2 + k + 1.
  9. On a m(14n3)/2+(n2m)(1+4n3)/2+n=0\displaystyle m(-1 - \sqrt{4n-3})/2 + (n^2 - m) (-1 + \sqrt{4n-3})/2 + n = 0, donc comme 4n3=2k+1\displaystyle \sqrt{4n-3} = 2k+1, k(n2m)(k+1)m+(k2+k+1)=0\displaystyle k(n^2-m) - (k+1) m + (k^2 +k+1) = 0. En développant tout en fonction de k\displaystyle k: k(k4+2k3+3k2+2k+1)(2k+1)m+k2+k+1=0,\displaystyle k(k^4 + 2k^3 + 3k^2 + 2k +1) - (2k+1) m + k^2 + k + 1= 0, ce qui implique que k5+2k4+3k3+3k2+2k+1\displaystyle k^5 + 2 k^4 + 3k^3 + 3k^2 + 2k + 1 est multiple de 2k+1\displaystyle 2k+1.
  10. On a donc k5+2k4+3k3+3k2=k2(k3+2k2+3k+3)\displaystyle k^5 + 2k^4 + 3 k^3 + 3k^2 = k^2(k^3 + 2k^2 + 3k + 3) multiple de 2k+1\displaystyle 2k+1, et puisque k\displaystyle k et 2k+1\displaystyle 2k+1 sont premiers entre eux, k3+2k2+3k+3\displaystyle k^3 + 2k^2 + 3k + 3 multiple de 2k+1\displaystyle 2k+1. En soustrayant 6k+3\displaystyle 6k+3, k3+2k23k\displaystyle k^3 + 2k^2 - 3k est multiple de 2k+1\displaystyle 2k+1, ainsi que k2+2k3\displaystyle k^2 + 2k - 3, k2+2k3+3(2k+1)=k2+8k\displaystyle k^2 + 2k - 3 + 3(2k+1) = k^2 + 8k, k+8\displaystyle k+8, 2k+16\displaystyle 2k + 16, et donc 15\displaystyle 15.
  11. Soit n{0,2}\displaystyle n \in \{0,2\}, soit n=k2+k+1\displaystyle n= k^2 + k + 1 avec 2k+1{1,3,5,15}\displaystyle 2k+1 \in \{1,3,5,15\}, ce qui donne le résultat cherché.
  12. Pour n=0\displaystyle n = 0, on prend une personne seule. Pour n=1\displaystyle n = 1, on prend deux amis. Pour n=2\displaystyle n =2, on prend 5\displaystyle 5 personnes assises à une table ronde, chacune amie avec les deux personnes voisines. Pour n=3\displaystyle n = 3, on prend deux tables de cinq personnes l’une au-dessus de l’autre, les personnes en haut amies avec leurs voisins et la personne juste en-dessous, les personnes en bas amies avec les personnes non-voisines de leur table, et avec la personne juste au-dessus.

Exercice 562 ⭐️⭐️⭐️ Racines matricielles de l’identité, Sup/Spé/L2

Soit M\displaystyle M une matrice 2×2\displaystyle 2 \times 2 à coefficients entiers dont la puissance d\displaystyle d est égal à l’identité pour un entier d>0\displaystyle d> 0.

  1. Montrer que M\displaystyle M est diagonalisable dans C\displaystyle \mathbb{C}.
  2. On suppose que M\displaystyle M est à valeurs propres réelles. Quelles sont les valeurs propres possibles? Montrer que M2\displaystyle M^2 est égal à l’identité.
  3. On suppose que les valeurs propres de M\displaystyle M ne sont pas réelles. Montrer qu’elles sont complexes conjuguées et donner leur module.
  4. Dans le cas où M\displaystyle M n’a pas de valeur propre réelle, calculer son déterminant et montrer que sa trace est égale à 1\displaystyle -1, 0\displaystyle 0 ou 1\displaystyle 1.
  5. Montrer que le plus petit entier strictement positif d\displaystyle d tel que Md\displaystyle M^d est l’identité vaut nécessairement 1,2,3,4\displaystyle 1, 2, 3, 4 ou 6\displaystyle 6.
  6. Donner un exemple de matrice correspondant à chacune de ces valeurs.
  1. Le polynôme Xd1\displaystyle X^d - 1 est scindé à racines simples et annule M\displaystyle M.
  2. Les valeurs propres sont toujours des racines d\displaystyle d-ièmes de l’unité, donc elles valent 1\displaystyle 1 ou 1\displaystyle -1 si elles sont réelles. Dans ce cas, leur carré vaut 1\displaystyle 1. Comme M\displaystyle M est diagonalisable, M2\displaystyle M^2 est semblable, et donc égale à l’identité.
  3. Si M\displaystyle M a une valeur propre non réelle, sa conjuguée est aussi valeur propre, car M\displaystyle M est à coefficients réels, et la conjugaison est un automorphisme du corps des complexes fixant les réels. Les valeurs propres sont des racines de l’unité, donc elles sont de module 1\displaystyle 1.
  4. Si M\displaystyle M n’a pas de valeur propres réelle, le produit des valeurs propres est le produit d’une d’entre elles par son conjuguée, donc la norme carrée d’une valeur propre. On en déduit que M\displaystyle M est de déterminant 1\displaystyle 1. La trace de M\displaystyle M est deux fois la partie réelle d’une valeur propre complexe non réelle de module 1\displaystyle 1, donc elle est de module strictement inférieur à 2\displaystyle 2. De plus, c’est un entier car M\displaystyle M est à coefficients entiers par hypothèse.
  5. Si M\displaystyle M a des valeurs propres réelles, on a montré que d=1\displaystyle d= 1 ou d=2\displaystyle d = 2 est possible. Sinon, le polynôme caractéristique de M\displaystyle M est X2X+1\displaystyle X^2 - X + 1, X2+1\displaystyle X^2 + 1 ou X2+X+1\displaystyle X^2 + X + 1. Dans le premier cas, les valeurs propres sont des racines sixièmes de l’unité (donc on peut prendre d=6\displaystyle d = 6), dans le deuxième cas, les valeurs propres sont i\displaystyle i et i\displaystyle -i (donc on peut prendre d=4\displaystyle d = 4), dans le dernier cas, les valeurs propres sont des racines cubiques de l’unité (donc on peut prendre d=3\displaystyle d = 3).
  6. Pour, d=1,2,4\displaystyle d = 1, 2, 4, on peut respectivement prendre l’identité, moins l’identité, et (0111)\displaystyle \begin{pmatrix} 0 & 1\\ -1 & 1 \end{pmatrix}. Pour d=3\displaystyle d = 3, on peut prendre la matrice compagnon de X2+X+1\displaystyle X^2 + X + 1, soit (0111)\displaystyle \begin{pmatrix} 0 & -1\\ 1& -1 \end{pmatrix}. Pour d=6\displaystyle d = 6, on peut prendre la matrice compagnon de X2X+1\displaystyle X^2 - X + 1, soit (0111)\displaystyle \begin{pmatrix} 0 & -1\\ 1& 1 \end{pmatrix}.