Algèbre

Ker & Im

Rappel : Toujours commencer par ce qui est simple.

Pour commencer à étudier un endomorphisme u\displaystyle u, il est naturel de regarder d’abord les sous-espaces (stables) les plus simples : Ker(u)\displaystyle {\rm Ker}(u) et Im(u)\displaystyle {\rm Im}(u) ! Soit E=Rn\displaystyle E=\mathbb R^n et uL(E)\displaystyle u\in\mathcal L(E). De deux choses l’une,

  1. Ker(u)Im(u)={0}\displaystyle {\rm Ker}(u) \cap {\rm Im}(u) = \{0\} et alors par le théorème du rang E=Ker(u)Im(u)\displaystyle E={\rm Ker}(u) \oplus {\rm Im}(u).
  2. Ker(u)Im(u){0}\displaystyle {\rm Ker}(u) \cap {\rm Im}(u) \neq \{0\}.

Cas 1.

Voici deux propositions très classiques :
Proposition 1 — Les égalités suivantes sont équivalentes :

  • (i) Im (u2)=Im (u)\displaystyle {\rm Im\ }(u^2) ={\rm Im\ }(u)
  • (ii) Ker (u2)=Ker (u)\displaystyle {\rm Ker\ }(u^2) ={\rm Ker\ }(u)
  • (iii) E=Ker(u)Im(u)\displaystyle E={\rm Ker}(u) \oplus {\rm Im}(u).
  • (i)\displaystyle \Rightarrow(ii) : On a Ker(u)Ker(u2)\displaystyle {\rm Ker}(u) \subset {\rm Ker}(u^2) et d’après (i) le théorème du rang donne dim Ker(u)=dim Ker(u2)\displaystyle {\rm dim\ }{\rm Ker}(u) = {\rm dim\ }{\rm Ker}(u^2), d’où (ii) ;
  • (ii)\displaystyle \Rightarrow(iii) : Soit xKer(u)Im(u)\displaystyle x\in {\rm Ker}(u) \cap {\rm Im}(u). On a x=u(y)\displaystyle x=u(y) donc u2(y)=0\displaystyle u^2(y)=0 car xKer(u)\displaystyle x\in {\rm Ker}(u). Ainsi yKer(u2)=Ker(u)\displaystyle y\in {\rm Ker}(u^2)={\rm Ker}(u), et x=0\displaystyle x=0.
  • (iii)\displaystyle \Rightarrow(i) : On a Im(u2)Im(u)\displaystyle {\rm Im}(u^2) \subset {\rm Im}(u). Soit yIm(u)\displaystyle y\in {\rm Im}(u), i.e. y=u(x)\displaystyle y=u(x). Mais x=u(z)+z\displaystyle x=u(z)+z' avec zKer(u)\displaystyle z'\in {\rm Ker}(u). Donc y=u2(z)\displaystyle y=u^2(z).

Proposition 2 — Soit P\displaystyle P un polynôme annulateur de u\displaystyle u tel que P(0)=0\displaystyle P(0)=0 et P(0)0\displaystyle P'(0)\neq0. Alors E=Ker(u)Im(u)\displaystyle E={\rm Ker}(u) \oplus {\rm Im}(u).

Encore une fois, il suffit de montrer que Ker(u)Im(u)={0}\displaystyle {\rm Ker}(u) \cap {\rm Im}(u) = \{0\}. Soit xKer(u)Im(u)\displaystyle x\in {\rm Ker}(u) \cap {\rm Im}(u). On a x=u(y)\displaystyle x=u(y) et
P(u)(y)=akuk(y)++a2u2(y)+a1u(y)=0\displaystyle P(u)(y)=a_ku^k(y)+\cdots+a_2u^2(y)+a_1u(y)=0 ()\displaystyle (\star) avec a10\displaystyle a_1\neq0. Comme u2(y)=u(x)=0\displaystyle u^2(y)=u(x)=0 et idem avec
les puissances plus grandes, on en déduit avec ()\displaystyle (\star) que a1u(y)=0\displaystyle a_1u(y)=0 i.e. x=u(y)=0\displaystyle x=u(y)=0 car a10\displaystyle a_1\neq0. \displaystyle \square
Dans le cas E=Ker(u)Im(u)\displaystyle E={\rm Ker}(u) \oplus {\rm Im}(u), on peut représenter u\displaystyle u dans une base adaptée à Im(u)\displaystyle {\rm Im}(u) et Ker(u)\displaystyle {\rm Ker}(u). La matrice de u\displaystyle u est alors (A000)\displaystyle \left( \begin{array}{cc} A & 0 \\ 0 & 0 \end{array} \right). On voit que les projecteurs sont bien des exemples de tels u\displaystyle u, prendre A=Id\displaystyle A=I_d, avec d=rg(u)\displaystyle d={\rm rg}(u). D’ailleurs si u\displaystyle u est un projecteur alors u2=u\displaystyle u^2=u, et on a bien un polynôme annulateur comme dans la Prop. 2. Mais les projecteurs ne sont pas les seuls exemples, A\displaystyle A est en fait quelconque !

Sur le cas 2.

Tout peut arriver ! On remarquera juste que si Im(u)Ker(u)\displaystyle {\rm Im}(u) \subset {\rm Ker}(u) alors u2=0\displaystyle u^2=0 i.e. u\displaystyle u est nilpotente d’indice 2\displaystyle 2.

Exercices associés

  1. Montrer que si P\displaystyle P un polynôme annulateur de u\displaystyle u tel que P(0)=0\displaystyle P(0)=0 et P(0)0\displaystyle P'(0)\neq0, alors E=Ker(u)Im(u)\displaystyle E={\rm Ker}(u) \oplus {\rm Im}(u). Réciproque vraie ?
  2. Trouver tous les MM3(R)\displaystyle M\in M_3(\R) telles que M2=0\displaystyle M^2=0. (Ecrire M\displaystyle M dans une bonne base, heu… avec Im et Ker ? 😃 )
  3. Montrer les équivalences : (i) A\displaystyle A appartient à un groupe multiplicatif de Mn(R)\displaystyle M_n(\R), (ii) rg(A2)=rg(A)\displaystyle {\rm rg}(A^2)={\rm rg}(A), (iii) E=Ker(u)Im(u)\displaystyle E={\rm Ker}(u) \oplus {\rm Im}(u). (Partant de (i), on a un neutre N\displaystyle N i.e. AN=NA=A\displaystyle AN=NA=A et on peut montrer que tout le monde dans le groupe a le même rang que N\displaystyle N ; d’où rg(A2)=rg(A)\displaystyle {\rm rg}(A^2)={\rm rg}(A) et donc Im (A2)=Im (A)\displaystyle {\rm Im\ }(A^2) ={\rm Im\ }(A) et on déroule !)
  4. Soit u\displaystyle u un endomorphisme de Rn\displaystyle \R^n tel que pour tout x\displaystyle x, u(x)x\displaystyle \|u(x)\|\le\|x\|. Montrer que E=Ker(uid)Im(uid)\displaystyle E={\rm Ker}(u-id) \oplus {\rm Im}(u-id). (Toujours la même chanson, soit xKer(uid)Im(uid)\displaystyle x\in{\rm Ker}(u-id) \cap {\rm Im}(u-id). Donc x=u(y)y\displaystyle x=u(y)-y, u(y)=y+x\displaystyle u(y)=y+x et u2(y)=y+2x\displaystyle u^2(y)=y+2x car u(x)=x\displaystyle u(x)=x, etc. et on passe à la limite !)
  5. Soit uL(Rn)\displaystyle u\in\mathcal L(\R^n). CNS sur u\displaystyle u pour qu’il existe vL(Rn)\displaystyle v\in\mathcal L(\R^n) tel que uv=0\displaystyle u\circ v=0 et u+vGLn(R)\displaystyle u+v\in GL_n(\R). (En regardant l’Im et le Ker, on arrive à E=Ker(u)Im(u)\displaystyle E={\rm Ker}(u) \oplus {\rm Im}(u). Pour la réciproque, on va naturellement considérer le projecteur sur Ker(u)\displaystyle {\rm Ker}(u) parallèlement à Im(u)\displaystyle {\rm Im}(u))

Matrice de rang 1

Rappel sur l’idée générale de réduction

  1. Trouver des bases dans lesquelles la matrice a une forme simple, par exemple : avoir beaucoup de zéros, être diagonale, etc.
  2. Considérer des bases de sous-ev remarquables : Ker(u)\displaystyle {\rm Ker}(u), Im(u)\displaystyle {\rm Im}(u), s-ev propres, s-ev caractéristiques, etc.

Application à une matrice de rang 1

Soit MMn(R)\displaystyle M\in M_n(\mathbb R) de rang 1\displaystyle 1 avec n2\displaystyle n\ge2, qu’on identifie avec uL(Rn)\displaystyle u\in\mathcal L(\R^n).
Alors d’après le théorème du rang :

  • dim Ker(u)=n1\displaystyle {\rm dim\ Ker}(u)=n-1, et on pose Ker(u)=Vect(e2,,en)\displaystyle {\rm Ker}(u)={\rm Vect}(e_2,\cdots,e_n)
  • on pense alors à regarder l’image : Im(u)=Vect(e~)\displaystyle {\rm Im}(u)={\rm Vect}(\tilde e) car rg(u)=1\displaystyle {\rm rg}(u)=1.

De deux choses l’une,

  • Cas 1 : e~Ker(u)\displaystyle \tilde e\in{\rm Ker}(u), et pour former une base de Rn\displaystyle \mathbb R^n, il est naturel de prendre e1Ker(u)\displaystyle e_1\notin{\rm Ker}(u), e2=e~\displaystyle e_2=\tilde e , e3,,en.\displaystyle e_3, \cdots, e_n.

La matrice de u\displaystyle u dans cette base est alors (000α00000)\displaystyle \left( \begin{matrix} 0 & 0 & \ldots & 0 \\ \alpha & 0 & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & 0 \end{matrix} \right), avec α0\displaystyle \alpha \neq 0. On voit que u\displaystyle u est nilpotente d’indice 2\displaystyle 2.

  • Cas 2 : e~Ker(u)\displaystyle \tilde e\notin{\rm Ker}(u), et pour former une base de Rn\displaystyle \mathbb R^n, il est naturel de prendre e1=e~\displaystyle e_1=\tilde e, e2\displaystyle e_2, e3,,en.\displaystyle e_3, \cdots, e_n.

La matrice de u\displaystyle u dans cette base est alors (λ00000000)\displaystyle \left( \begin{matrix} \lambda & 0 & \ldots & 0 \\ 0 & 0 & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & 0 \end{matrix} \right), avec λ0\displaystyle \lambda\neq 0 car e~Ker(u)\displaystyle \tilde e\notin{\rm Ker}(u). Alors u\displaystyle u est diagonalisable.

Étude directe

La matrice M\displaystyle M possède une colonne C\displaystyle C non nulle et toutes les autres lui sont colinéaires (car elle est de rang 1\displaystyle 1). Donc on écrit : M=CUT\displaystyle M=CU^T avec UT=(a1,,an)\displaystyle U^T=(a_1,\cdots,a_n), i.e. une matrice colonne fois une matrice ligne.

On pense à deux réflexes :

  • on calcule des invariants : le det est nul, et tr(M)=tr(UTC)=UTC=U,C\displaystyle {\rm tr}(M)={\rm tr}(U^TC)=U^TC=\langle U,C\rangle,
  • et des puissances : M2=CUTCUT=(UTC)CUT=tr(M)M\displaystyle M^2=CU^TCU^T=(U^TC)CU^T={\rm tr}(M) M.

De deux choses l’une :

  • tr(M)=0\displaystyle {\rm tr}(M)=0, et donc M2=0\displaystyle M^2=0, i.e. M\displaystyle M est nilpotente d’indice 2\displaystyle 2 (en part. non diagonalisable). On retrouve le Cas 1 !
  • tr(M)0\displaystyle {\rm tr}(M) \neq 0, et donc le polynôme annulateur X2tr(M)X\displaystyle X^2-{\rm tr}(M) X est scindé à racines simples. Ainsi M\displaystyle M est diagonalisable et on retrouve le Cas 2 avec λ=tr(M)0\displaystyle \lambda = {\rm tr}(M)\neq 0 !

Exercices associés

  1. Donner une CNS pour qu’une matrice de rang 1\displaystyle 1 soit diagonalisable. (Rép : tr(M)0\displaystyle {\rm tr}(M)\neq 0)
  2. Soit M\displaystyle M une matrice de rang 1\displaystyle 1. Montrer que M2=tr(M)M\displaystyle M^2= tr(M)M et det(In+M)=1+tr(M)\displaystyle {\rm det}(I_n+ M)= 1+tr(M). (Faire la réduction en utilisant le Ker)
  3. Calculer : 1+x1y1x1y2x1ynx2y11+x2y2x2ynxny1xny21+xnyn\displaystyle \begin{vmatrix} 1+x_1y_1 & x_1y_2 & \ldots & x_1y_n \\ x_2y_1 & 1+x_2y_2 & \ldots & x_2y_n \\ \vdots & \vdots & \ddots & \vdots \\ x_ny_1 & x_ny_2 & \ldots & 1+x_ny_n \end{vmatrix} . (Application du 2. avec M=XYT\displaystyle M=XY^T)
  4. Montrer que det(D+vvT)=det(D)(1+vTD1v)\displaystyle \det(D+vv^T) = \det(D) \left(1+v^TD^{-1}v \right) avec D\displaystyle D inversible. (Factoriser par D\displaystyle D et utiliser question 2.)

Remarque — L’identité det(In+UVT)=1+VTU\displaystyle {\rm det}(I_n+ UV^T)= 1+V^TU est un cas particulier de l’égalité des polynômes caractéristiques χAB=χBA\displaystyle \chi_{AB}=\chi_{BA}. Dans le programme de spé, les matrices A\displaystyle A et B\displaystyle B sont carrées ; pour s’y ramener, on peut compléter la colonne U\displaystyle U et la ligne VT\displaystyle V^T par des zéros.

Polynômes

Soit K\displaystyle \K un corps (penser à R\displaystyle \R ou C\displaystyle \C dans un premier temps). Un polynôme de K[X]\displaystyle \K[X] est un objet très riche car K[X]\displaystyle \K[X] peut être vu à la fois comme un espace de fonctions, un K\displaystyle \K-espace vectoriel et un anneau euclidien (i.e. un anneau dans lequel on peut faire une division euclidienne). Et il faut savoir jouer sur tous les tableaux dans les exercices !

Vu comme fonction

Dans R\displaystyle \R :

Soit PR[X]\displaystyle P\in\mathbb R[X] avec coefficient dominant positif. De deux choses l’une :

  1. son degré est impair : alors limx±P(x)=±\displaystyle \lim_{x\to\pm\infty}P(x)=\pm\infty et P\displaystyle P a au moins une racine réelle par le TVI ;
  2. son degré est pair : alors limx±P(x)=+\displaystyle \lim_{x\to\pm\infty}P(x)=+\infty, P\displaystyle P a un minimum global P(x0)\displaystyle P(x_0) et P(x0)=0\displaystyle P'(x_0)=0.

En particulier, un polynôme positif est de degré pair, il vérifie limx±P(x)=+\displaystyle \lim_{x\to\pm\infty}P(x)=+\infty et son minimum vérifie P(x0)0\displaystyle P(x_0)\ge0.

Dans C\displaystyle \mathbb C : Principe du maximum

Soit P\displaystyle P un polynôme sur C\displaystyle \mathbb C non constant. Alors P\displaystyle |P| n’a pas de maximum local.

En effet, développons P\displaystyle P autour d’un éventuel point z0\displaystyle z_0P(z)\displaystyle |P(z)| atteindrait un maximum local. On écrit P(z)=k=0nck(zz0)k\displaystyle P(z)=\sum_{k=0}^n c_k(z-z_0)^k et P(z0+reiθ)=k=0nckrkeikθ\displaystyle P(z_0+re^{i\theta})=\sum_{k= 0}^n c_k r^ke^{ik\theta}. Et pour r\displaystyle r petit, on a donc P(z0+reiθ)2P(z0)2\displaystyle |P(z_0+re^{i\theta})|^2\le |P(z_0)|^2. En écrivant P(z0+reiθ)2=P(z0+reiθ)P(z0+reiθ)\displaystyle |P(z_0+re^{i\theta})|^2=P(z_0+re^{i\theta})\overline{P(z_0+re^{i\theta})}, en développant le produit des sommes et en intégrant terme à terme,
on obtient la formule de Parseval : k=0nck2r2k=12π02πP(z0+reiθ)2dθ\displaystyle \sum_{k= 0}^n |c_k|^2 r^{2k} = \frac{1}{2\pi} \int_0^{2\pi} |P(z_0+re^{i\theta})|^2d\theta . Ainsi P(z0)2=c02k=0nck2r2k=12π02πP(z0+reiθ)2dθP(z0)2\displaystyle |P(z_0)|^2 = |c_0|^2 \le \sum_{k=0}^n |c_k|^2 r^{2k}=\frac{1}{2\pi} \int_0^{2\pi} |P(z_0+re^{i\theta})|^2d\theta \le |P(z_0)|^2, pour r>0\displaystyle r>0 petit. Cela force donc tous les ck\displaystyle c_k à valoir 0\displaystyle 0 sauf c0\displaystyle c_0, et donc P\displaystyle P est constant, contradiction. \displaystyle \square

Remarque — On fait le même raisonnement avec une fonction qui serait localement développable en série entière (fonction holomorphe).
On utilisera que la série converge uniformément en θ[0,2π]\displaystyle \theta\in[0,2\pi] pour intervertir somme et intégrale.

La même technique permet de montrer le
Théorème de Liouville : Une série entière de rayon infini, bornée sur C\displaystyle \mathbb C, est constante.

On peut en déduire le
Théorème de d’Alambert-Gauss : Un polynôme non constant P\displaystyle P a au moins une racine dans C\displaystyle \mathbb C.

Par l’absurde, on suppose que P\displaystyle P n’a pas de racines. On considère alors 1/P\displaystyle 1/P qui est donc bien défini sur C\displaystyle \mathbb C et que l’on développe en série entière sur C\displaystyle \C. Mais 1/P\displaystyle 1/P est borné, donc 1/P\displaystyle 1/P est constant par le théorème de Liouville, donc P\displaystyle P est constant. \displaystyle \square

Vu comme object algébrique

Dans K[X]\displaystyle \mathbb K[X], on peut utiliser :

  1. la division euclidienne : P=AQ+R\displaystyle P=AQ+R ;
  2. l’identité de Bezout : Si P\displaystyle P et Q\displaystyle Q sont premiers entre eux, alors il existe A,BK[X]\displaystyle A,B\in \mathbb K[X] tels que AP+BQ=1\displaystyle AP+BQ=1 ;
  3. le fait que K[X]\displaystyle \mathbb K[X] est principal : si on a un idéal I\displaystyle I, il est engendré par un seul élément. Ex : l’idéal des polynômes annulateur est engendré par le polynôme minimal.

Fractions rationnelles

Soit P(X)=(Xα1)(Xαn)\displaystyle P(X)=(X-\alpha_1)\cdots (X-\alpha_n) un polynôme scindé. On a deux décompositions en fraction rationnelle à connaître :

  1. P(X)P(X)=1Xα1++1Xαn\displaystyle \frac{P'(X)}{P(X)}=\frac{1}{X-\alpha_1}+\cdots+ \frac{1}{X-\alpha_n}, les αi\displaystyle \alpha_i étant distincts ou non ;
  2. 1P(X)=1P(α1)(Xα1)++1P(αn)(Xαn)\displaystyle \frac{1}{P(X)}=\frac{1}{P'(\alpha_1)(X-\alpha_1)}+\cdots+ \frac{1}{P'(\alpha_n)(X-\alpha_n)}, si les αi\displaystyle \alpha_i sont tous distincts, i.e. P(αi)0\displaystyle P'(\alpha_i)\neq 0.

Matrices 2x2

Généralités : Invariants, réduction

Soit A=(abcd)\displaystyle A=\left(\begin{matrix} a & b \\ c & d \end{matrix}\right) à coefficients dans C\displaystyle \mathbb C :

  • tr(A)=a+d\displaystyle tr(A)=a+d,  det(A)=adbc\displaystyle \ det(A)=ad-bc ;
  • Si  det(A)0\displaystyle \ det(A)\neq 0, alors A1=1adbc(dbca)\displaystyle A^{-1}=\frac{1}{ad-bc}\left(\begin{matrix} d & -b \\ -c & a \end{matrix}\right) ;
  • Son polynôme caractéristique est χA(X)=X2tr(A)X+det(A)\displaystyle \chi_A(X)=X^2-tr(A) X +det(A).

De deux choses l’une (dans C\displaystyle \C) :

  • χA(X)=(Xλ)2\displaystyle \chi_A(X)=(X-\lambda)^2, λC\displaystyle \lambda\in\mathbb C, et alors soit A=λId\displaystyle A=\lambda Id, soit A\displaystyle A est semblable à (λ10λ)\displaystyle \left(\begin{matrix} \lambda & 1 \\ 0 & \lambda \end{matrix}\right) ;
  • ou bien χA(X)=(Xλ1)(Xλ2)\displaystyle \chi_A(X)=(X-\lambda_1)(X-\lambda_2) avec λ1λ2\displaystyle \lambda_1\neq\lambda_2, et la matrice est diagonalisable, donc semblable à (λ100λ2)\displaystyle \left(\begin{matrix} \lambda_1 & 0 \\ 0 & \lambda_2 \end{matrix}\right).

Sous-groupes du groupe linéaire

Dans GL2(C)\displaystyle GL_2(\mathbb C), on peut distinguer deux sous-groupes remarquables :

  1. Le groupe spécial linéaire SL2(Z)\displaystyle SL_2(\mathbb Z) est formé des matrices à coefficients dans Z\displaystyle \mathbb Z et dont le déterminant vaut 1\displaystyle 1. Avec l’expression de l’inverse et le fait que le déterminant est multiplicatif, on montre que SL2(Z)\displaystyle SL_2(\mathbb Z) est bien un groupe pour la multiplication.
    Il y a des éléments d’ordre infini, comme (1101)\displaystyle \left(\begin{matrix} 1 & 1 \\ 0 & 1 \end{matrix}\right).
  2. Le groupe orthogonale O2(R)\displaystyle O_2(\R), est composé des rotations R(θ)=(cos(θ)sin(θ)sin(θ)cos(θ))\displaystyle R(\theta)=\left(\begin{matrix} \cos(\theta) & -\sin(\theta) \\ \sin(\theta) & \cos(\theta) \end{matrix}\right) et des symétries S(θ)=(cos(θ)sin(θ)sin(θ)cos(θ))\displaystyle S(\theta)=\left(\begin{matrix} \cos(\theta) & \sin(\theta) \\ \sin(\theta) & -\cos(\theta) \end{matrix}\right).

Étudions les rotations : c’est le groupe SO2(R)\displaystyle SO_2(\R).
On a det(R(θ))=1\displaystyle \det(R(\theta))=1 et χR(θ)(X)=X22cos(θ)X+1=(Xcos(θ))2+sin(θ)2\displaystyle \chi_{R(\theta)}(X)=X^2-2\cos(\theta) X +1=(X-\cos(\theta))^2+\sin(\theta)^2.
Donc R(θ)\displaystyle R(\theta) n’a pas de valeurs propres réelles pour θ0[2π]\displaystyle \theta\neq 0[2\pi] (c’est normal, une rotation non triviale “bouge” tous les vecteurs d’un angle θ\displaystyle \theta), et a 2\displaystyle 2 valeurs propres complexes conjuguées : e±iθ\displaystyle e^{\pm i\theta}.

Étudions les symétries orthogonales : det(S(θ))=1\displaystyle \det(S(\theta))=-1 et χS(θ)(X)=X21\displaystyle \chi_{S(\theta)}(X)=X^2-1.
On a donc 2\displaystyle 2 valeurs propres réelles : 1\displaystyle 1 dont la droite propre est l’axe de symétrie, et 1\displaystyle -1 dont la droite propre est orthogonale à l’axe de symétrie. En effet S\displaystyle S est symétrique réelle, donc diagonalisable en base orthogonale. L’axe de symétrie est donnée par Vect(sin(θ),1cos(θ))=Vect(cos(θ/2),sin(θ/2))\displaystyle {\rm Vect}(\sin(\theta),1-\cos(\theta))={\rm Vect}(\cos(\theta/2),\sin(\theta/2)) pour θ0[2π]\displaystyle \theta\neq 0[2\pi].