Ker & Im
Rappel : Toujours commencer par ce qui est simple.
Pour commencer à étudier un endomorphisme u, il est naturel de regarder d’abord les sous-espaces (stables) les plus simples : Ker(u) et Im(u) ! Soit E=Rn et u∈L(E). De deux choses l’une,
- Ker(u)∩Im(u)={0} et alors par le théorème du rang E=Ker(u)⊕Im(u).
- Ker(u)∩Im(u)={0}.
Cas 1.
Voici deux propositions très classiques :
Proposition 1 — Les égalités suivantes sont équivalentes :
- (i) Im (u2)=Im (u)
- (ii) Ker (u2)=Ker (u)
- (iii) E=Ker(u)⊕Im(u).
- (i)⇒(ii) : On a Ker(u)⊂Ker(u2) et d’après (i) le théorème du rang donne dim Ker(u)=dim Ker(u2), d’où (ii) ;
- (ii)⇒(iii) : Soit x∈Ker(u)∩Im(u). On a x=u(y) donc u2(y)=0 car x∈Ker(u). Ainsi y∈Ker(u2)=Ker(u), et x=0.
- (iii)⇒(i) : On a Im(u2)⊂Im(u). Soit y∈Im(u), i.e. y=u(x). Mais x=u(z)+z′ avec z′∈Ker(u). Donc y=u2(z).
Proposition 2 — Soit P un polynôme annulateur de u tel que P(0)=0 et P′(0)=0. Alors E=Ker(u)⊕Im(u).
Encore une fois, il suffit de montrer que Ker(u)∩Im(u)={0}. Soit x∈Ker(u)∩Im(u). On a x=u(y) et
P(u)(y)=akuk(y)+⋯+a2u2(y)+a1u(y)=0 (⋆) avec a1=0. Comme u2(y)=u(x)=0 et idem avec
les puissances plus grandes, on en déduit avec (⋆) que a1u(y)=0 i.e. x=u(y)=0 car a1=0. □
Dans le cas E=Ker(u)⊕Im(u), on peut représenter u dans une base adaptée à Im(u) et Ker(u). La matrice de u est alors (A000). On voit que les projecteurs sont bien des exemples de tels u, prendre A=Id, avec d=rg(u). D’ailleurs si u est un projecteur alors u2=u, et on a bien un polynôme annulateur comme dans la Prop. 2. Mais les projecteurs ne sont pas les seuls exemples, A est en fait quelconque !
Sur le cas 2.
Tout peut arriver ! On remarquera juste que si Im(u)⊂Ker(u) alors u2=0 i.e. u est nilpotente d’indice 2.
Exercices associés
- Montrer que si P un polynôme annulateur de u tel que P(0)=0 et P′(0)=0, alors E=Ker(u)⊕Im(u). Réciproque vraie ?
- Trouver tous les M∈M3(R) telles que M2=0. (Ecrire M dans une bonne base, heu… avec Im et Ker ? 😃 )
- Montrer les équivalences : (i) A appartient à un groupe multiplicatif de Mn(R), (ii) rg(A2)=rg(A), (iii) E=Ker(u)⊕Im(u). (Partant de (i), on a un neutre N i.e. AN=NA=A et on peut montrer que tout le monde dans le groupe a le même rang que N ; d’où rg(A2)=rg(A) et donc Im (A2)=Im (A) et on déroule !)
- Soit u un endomorphisme de Rn tel que pour tout x, ∥u(x)∥≤∥x∥. Montrer que E=Ker(u−id)⊕Im(u−id). (Toujours la même chanson, soit x∈Ker(u−id)∩Im(u−id). Donc x=u(y)−y, u(y)=y+x et u2(y)=y+2x car u(x)=x, etc. et on passe à la limite !)
- Soit u∈L(Rn). CNS sur u pour qu’il existe v∈L(Rn) tel que u∘v=0 et u+v∈GLn(R). (En regardant l’Im et le Ker, on arrive à E=Ker(u)⊕Im(u). Pour la réciproque, on va naturellement considérer le projecteur sur Ker(u) parallèlement à Im(u))
Matrice de rang 1
Rappel sur l’idée générale de réduction
- Trouver des bases dans lesquelles la matrice a une forme simple, par exemple : avoir beaucoup de zéros, être diagonale, etc.
- Considérer des bases de sous-ev remarquables : Ker(u), Im(u), s-ev propres, s-ev caractéristiques, etc.
Application à une matrice de rang 1
Soit M∈Mn(R) de rang 1 avec n≥2, qu’on identifie avec u∈L(Rn).
Alors d’après le théorème du rang :
- dim Ker(u)=n−1, et on pose Ker(u)=Vect(e2,⋯,en)
- on pense alors à regarder l’image : Im(u)=Vect(e~) car rg(u)=1.
De deux choses l’une,
- Cas 1 : e~∈Ker(u), et pour former une base de Rn, il est naturel de prendre e1∈/Ker(u), e2=e~ , e3,⋯,en.
La matrice de u dans cette base est alors ⎝⎜⎜⎜⎜⎛0α⋮000⋮0……⋱…00⋮0⎠⎟⎟⎟⎟⎞, avec α=0. On voit que u est nilpotente d’indice 2.
- Cas 2 : e~∈/Ker(u), et pour former une base de Rn, il est naturel de prendre e1=e~, e2, e3,⋯,en.
La matrice de u dans cette base est alors ⎝⎜⎜⎜⎜⎛λ0⋮000⋮0……⋱…00⋮0⎠⎟⎟⎟⎟⎞, avec λ=0 car e~∈/Ker(u). Alors u est diagonalisable.
Étude directe
La matrice M possède une colonne C non nulle et toutes les autres lui sont colinéaires (car elle est de rang 1). Donc on écrit : M=CUT avec UT=(a1,⋯,an), i.e. une matrice colonne fois une matrice ligne.
On pense à deux réflexes :
- on calcule des invariants : le det est nul, et tr(M)=tr(UTC)=UTC=⟨U,C⟩,
- et des puissances : M2=CUTCUT=(UTC)CUT=tr(M)M.
De deux choses l’une :
- tr(M)=0, et donc M2=0, i.e. M est nilpotente d’indice 2 (en part. non diagonalisable). On retrouve le Cas 1 !
- tr(M)=0, et donc le polynôme annulateur X2−tr(M)X est scindé à racines simples. Ainsi M est diagonalisable et on retrouve le Cas 2 avec λ=tr(M)=0 !
Exercices associés
- Donner une CNS pour qu’une matrice de rang 1 soit diagonalisable. (Rép : tr(M)=0)
- Soit M une matrice de rang 1. Montrer que M2=tr(M)M et det(In+M)=1+tr(M). (Faire la réduction en utilisant le Ker)
- Calculer : ∣∣∣∣∣∣∣∣∣∣1+x1y1x2y1⋮xny1x1y21+x2y2⋮xny2……⋱…x1ynx2yn⋮1+xnyn∣∣∣∣∣∣∣∣∣∣ . (Application du 2. avec M=XYT)
- Montrer que det(D+vvT)=det(D)(1+vTD−1v) avec D inversible. (Factoriser par D et utiliser question 2.)
Remarque — L’identité det(In+UVT)=1+VTU est un cas particulier de l’égalité des polynômes caractéristiques χAB=χBA. Dans le programme de spé, les matrices A et B sont carrées ; pour s’y ramener, on peut compléter la colonne U et la ligne VT par des zéros.
Polynômes
Soit K un corps (penser à R ou C dans un premier temps). Un polynôme de K[X] est un objet très riche car K[X] peut être vu à la fois comme un espace de fonctions, un K−espace vectoriel et un anneau euclidien (i.e. un anneau dans lequel on peut faire une division euclidienne). Et il faut savoir jouer sur tous les tableaux dans les exercices !
Vu comme fonction
Dans R :
Soit P∈R[X] avec coefficient dominant positif. De deux choses l’une :
- son degré est impair : alors x→±∞limP(x)=±∞ et P a au moins une racine réelle par le TVI ;
- son degré est pair : alors x→±∞limP(x)=+∞, P a un minimum global P(x0) et P′(x0)=0.
En particulier, un polynôme positif est de degré pair, il vérifie x→±∞limP(x)=+∞ et son minimum vérifie P(x0)≥0.
Dans C : Principe du maximum
Soit P un polynôme sur C non constant. Alors ∣P∣ n’a pas de maximum local.
En effet, développons P autour d’un éventuel point z0 où ∣P(z)∣ atteindrait un maximum local. On écrit P(z)=k=0∑nck(z−z0)k et P(z0+reiθ)=k=0∑nckrkeikθ. Et pour r petit, on a donc ∣P(z0+reiθ)∣2≤∣P(z0)∣2. En écrivant ∣P(z0+reiθ)∣2=P(z0+reiθ)P(z0+reiθ), en développant le produit des sommes et en intégrant terme à terme,
on obtient la formule de Parseval : k=0∑n∣ck∣2r2k=2π1∫02π∣P(z0+reiθ)∣2dθ . Ainsi ∣P(z0)∣2=∣c0∣2≤k=0∑n∣ck∣2r2k=2π1∫02π∣P(z0+reiθ)∣2dθ≤∣P(z0)∣2, pour r>0 petit. Cela force donc tous les ck à valoir 0 sauf c0, et donc P est constant, contradiction. □
Remarque — On fait le même raisonnement avec une fonction qui serait localement développable en série entière (fonction holomorphe).
On utilisera que la série converge uniformément en θ∈[0,2π] pour intervertir somme et intégrale.
La même technique permet de montrer le
Théorème de Liouville : Une série entière de rayon infini, bornée sur C, est constante.
On peut en déduire le
Théorème de d’Alambert-Gauss : Un polynôme non constant P a au moins une racine dans C.
Par l’absurde, on suppose que P n’a pas de racines. On considère alors 1/P qui est donc bien défini sur C et que l’on développe en série entière sur C. Mais 1/P est borné, donc 1/P est constant par le théorème de Liouville, donc P est constant. □
Vu comme object algébrique
Dans K[X], on peut utiliser :
- la division euclidienne : P=AQ+R ;
- l’identité de Bezout : Si P et Q sont premiers entre eux, alors il existe A,B∈K[X] tels que AP+BQ=1 ;
- le fait que K[X] est principal : si on a un idéal I, il est engendré par un seul élément. Ex : l’idéal des polynômes annulateur est engendré par le polynôme minimal.
Fractions rationnelles
Soit P(X)=(X−α1)⋯(X−αn) un polynôme scindé. On a deux décompositions en fraction rationnelle à connaître :
- P(X)P′(X)=X−α11+⋯+X−αn1, les αi étant distincts ou non ;
- P(X)1=P′(α1)(X−α1)1+⋯+P′(αn)(X−αn)1, si les αi sont tous distincts, i.e. P′(αi)=0.
Matrices 2x2
Généralités : Invariants, réduction
Soit A=(acbd) à coefficients dans C :
- tr(A)=a+d, det(A)=ad−bc ;
- Si det(A)=0, alors A−1=ad−bc1(d−c−ba) ;
- Son polynôme caractéristique est χA(X)=X2−tr(A)X+det(A).
De deux choses l’une (dans C) :
- χA(X)=(X−λ)2, λ∈C, et alors soit A=λId, soit A est semblable à (λ01λ) ;
- ou bien χA(X)=(X−λ1)(X−λ2) avec λ1=λ2, et la matrice est diagonalisable, donc semblable à (λ100λ2).
Sous-groupes du groupe linéaire
Dans GL2(C), on peut distinguer deux sous-groupes remarquables :
- Le groupe spécial linéaire SL2(Z) est formé des matrices à coefficients dans Z et dont le déterminant vaut 1. Avec l’expression de l’inverse et le fait que le déterminant est multiplicatif, on montre que SL2(Z) est bien un groupe pour la multiplication.
Il y a des éléments d’ordre infini, comme (1011). - Le groupe orthogonale O2(R), est composé des rotations R(θ)=(cos(θ)sin(θ)−sin(θ)cos(θ)) et des symétries S(θ)=(cos(θ)sin(θ)sin(θ)−cos(θ)).
Étudions les rotations : c’est le groupe SO2(R).
On a det(R(θ))=1 et χR(θ)(X)=X2−2cos(θ)X+1=(X−cos(θ))2+sin(θ)2.
Donc R(θ) n’a pas de valeurs propres réelles pour θ=0[2π] (c’est normal, une rotation non triviale “bouge” tous les vecteurs d’un angle θ), et a 2 valeurs propres complexes conjuguées : e±iθ.
Étudions les symétries orthogonales : det(S(θ))=−1 et χS(θ)(X)=X2−1.
On a donc 2 valeurs propres réelles : 1 dont la droite propre est l’axe de symétrie, et −1 dont la droite propre est orthogonale à l’axe de symétrie. En effet S est symétrique réelle, donc diagonalisable en base orthogonale. L’axe de symétrie est donnée par Vect(sin(θ),1−cos(θ))=Vect(cos(θ/2),sin(θ/2)) pour θ=0[2π].