Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf ·...

71
Université Paris XI Math 202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Un ingénieur vient écouter son meilleur ami, un mathématicien, donner une confé- rence sur les propriétés géométriques des espaces de dimension 23. A plusieurs re- prises, l’orateur justifie l’une des ses assertions en mentionnant que “on voit bien que...” ou alors “qu’il est visuellement évident que...” A la fin de l’exposé, l’ingé- nieur demande à son ami comment il réussit à visualiser un espace de dimension 23. “C’est facile” lui répond ce dernier “je visualise en dimension n et ensuite je prends n = 23”. 1

Transcript of Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf ·...

Page 1: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Université Paris XIMath 202 2014/2015

Algèbre linéaire, réduction

Olivier Fouquet

Un ingénieur vient écouter son meilleur ami, un mathématicien, donner une confé-rence sur les propriétés géométriques des espaces de dimension 23. A plusieurs re-prises, l’orateur justifie l’une des ses assertions en mentionnant que “on voit bienque...” ou alors “qu’il est visuellement évident que...” A la fin de l’exposé, l’ingé-nieur demande à son ami comment il réussit à visualiser un espace de dimension 23.“C’est facile” lui répond ce dernier “je visualise en dimension n et ensuite je prendsn = 23”.

1

Page 2: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Table des matières

1 Bases de l’algèbre linéaire 41.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.1.1 Motivation et premiers exemples . . . . . . . . . . . . . . . . . 41.1.2 Définitions formelles . . . . . . . . . . . . . . . . . . . . . . . 81.1.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . 131.2.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.3 Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . 171.3.1 Interprétation linéaire des systèmes d’équations . . . . . . . . 171.3.2 Exemples de résolutions pratique de systèmes d’équations li-

néaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.3.3 Un problème mystérieux . . . . . . . . . . . . . . . . . . . . . 21

2 Réduction des endomorphismes 232.1 Sous-espaces stables, sous-espaces propres . . . . . . . . . . . . . . . 23

2.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.1.2 Familles de vecteurs propres . . . . . . . . . . . . . . . . . . . 242.1.3 Lien avec les matrices triangulaires supérieures . . . . . . . . . 25

2.2 Polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . . . . . 262.2.1 Révision sur les polynômes . . . . . . . . . . . . . . . . . . . . 262.2.2 Polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . 28

2.3 Réduction des endomorphismes . . . . . . . . . . . . . . . . . . . . . 292.3.1 Motivation et exemples . . . . . . . . . . . . . . . . . . . . . . 292.3.2 Coeur et nilespace . . . . . . . . . . . . . . . . . . . . . . . . 312.3.3 Espaces propres généralisés . . . . . . . . . . . . . . . . . . . 332.3.4 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . 362.3.5 Réduction des endomorphismes diagonalisables . . . . . . . . . 372.3.6 Réduction des endomorphismes nilpotents . . . . . . . . . . . 382.3.7 Réduction des endomorphismes de C2 . . . . . . . . . . . . . . 412.3.8 Théorème de réduction de Jordan . . . . . . . . . . . . . . . . 412.3.9 Trace et déterminant d’un endomorphisme . . . . . . . . . . . 432.3.10 Réduction des endomorphismes rationnels ou réels . . . . . . . 45

3 Déterminants 453.1 Formes linéaires, multilinéaires . . . . . . . . . . . . . . . . . . . . . . 45

3.1.1 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . 453.1.2 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . 47

2

Page 3: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

3.1.3 Formes multilinéaires . . . . . . . . . . . . . . . . . . . . . . . 473.2 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3.2.1 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . 503.2.2 Propriétés fondamentales du déterminant . . . . . . . . . . . . 513.2.3 Développement en ligne et en colonne . . . . . . . . . . . . . . 53

3.3 Lien avec l’inversion et les systèmes linéaires . . . . . . . . . . . . . . 543.4 Lien avec la réduction . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4 Espaces vectoriels euclidiens 584.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . 58

4.1.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . 584.1.2 L’inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . 594.1.3 Bases orthogonales, orthonormalisation . . . . . . . . . . . . . 604.1.4 Orthogonal, supplémentaire orthogonal . . . . . . . . . . . . . 62

4.2 Endomorphisme adjoint . . . . . . . . . . . . . . . . . . . . . . . . . 634.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 634.2.2 Matrice adjointe, matrice orthogonale . . . . . . . . . . . . . . 66

4.3 Réduction des endomorphismes auto-adjoints . . . . . . . . . . . . . . 674.3.1 Valeur propre . . . . . . . . . . . . . . . . . . . . . . . . . . . 674.3.2 Réduction des endomorphismes auto-adjoints . . . . . . . . . 68

5 Réduction de quelques endomorphismes importants 695.1 Projecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

5.1.1 Définition et réduction . . . . . . . . . . . . . . . . . . . . . . 695.1.2 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . 69

5.2 Symétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 695.2.1 Définition et réduction . . . . . . . . . . . . . . . . . . . . . . 695.2.2 Symétrie orthogonale . . . . . . . . . . . . . . . . . . . . . . . 70

5.3 Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 705.3.1 Définition et réduction . . . . . . . . . . . . . . . . . . . . . . 70

5.4 Endomorphisme d’ordre fini . . . . . . . . . . . . . . . . . . . . . . . 705.4.1 Définition et réduction . . . . . . . . . . . . . . . . . . . . . . 715.4.2 Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

3

Page 4: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

1 Bases de l’algèbre linéaire

1.1 Espaces vectoriels

1.1.1 Motivation et premiers exemples

L’algèbre linéaire est l’étude abstraite des espaces vectoriels et des applications li-néaires entre espaces vectoriels. A ce titre, il s’agit d’une généralisation et d’uneformalisation de certains aspects de la géométrie classique. De manière informelle,un espace vectoriel est un ensemble non-vide d’éléments, que l’on appelle donc desvecteurs, qui vérifie les propriétés suivantes.

1. On peut additionner deux vecteurs de E. Plus précisément, si u et v sont deuxvecteurs de l’espace vectoriel E, alors u+ v est un vecteur de l’espace vectorielE.

2. On peut multiplier un vecteur de E par un scalaire. Plus précisément, si u estun vecteur de E et λ est un élément d’un corps K, alors λu est un vecteur deE.

Bien entendu, beaucoup de termes restent imprécis dans la définition ci-dessus, àcommencer par scalaire. Afin de fixer les idées, nous encourageons le lecteur à sup-poser dorénavant que la lettre K désigne l’ensemble Q des nombres rationnels, l’en-semble R des nombres réels ou l’ensemble C des nombres complexes. Les lecteursd’humeur audacieuse pourront explorer le texte dans le cas plus général où K estun corps quelconque, c’est-à-dire un anneau commutatif non nul dont tous les élé-ments non-nuls admettent un inverse multiplicatifs (ce qui est bien le cas de Q,R etC). Avant de donner une définition précise, explorons quelques exemples d’espacesvectoriels.

Exemples d’espaces vectoriels

1. L’ensemble Q est un Q-espace vectoriel. En effet, l’addition de deux nombresrationnels u et v est bien un nombre rationnel w = u + v et la multiplicationd’un nombre rationnel u par un nombre rationnel λ (que l’on voit ici commeun scalaire) est bien un nombre rationnel v = λu. De même, R est un R-espacevectoriel et C est un C-espace vectoriel. En revanche, Q n’est pas un R-espacevectoriel car si u ∈ Q est un vecteur non-nul, alors

√2u n’est pas un nombre

rationnel bien que√2 ∈ R soit un scalaire. De même R n’est pas un C-espace

vectoriel car si u ∈ R est un vecteur non-nul, alors i · u n’est pas un nombreréel bien que i ∈ C soit un scalaire (ici i désigne une solution de l’équationX2 + 1 = 0). Notons enfin que R est un Q-espace vectoriel et que C est unQ-espace vectoriel et un R-espace vectoriel.

2. Le plan réelR2 = {(x, y)|x ∈ R, y ∈ R}

est un R-espace vectoriel. Un vecteur de R2 est un vecteur au sens géométriqueusuel du terme. En particulier, un vecteur u ∈ R2 a deux coordonnées et

4

Page 5: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

peut s’écrire u =

(ab

). Notons que le plan R2 est aussi un Q-espace vectoriel,

mais un Q-espace vectoriel extrêmement compliqué, et que c’est un C-espace

vectoriel à condition de poser (α + βi) ·(ab

)=

(αa− βbαb+ βa

). Le plan R2 muni

de sa structure de R-espace vectoriel est un bon modèle de la géométrie planeusuelle.

3. L’espace tridimensionnel réel

R3 = {(x, y, z)|x ∈ R, y ∈ R, z ∈ R}

est un R-espace vectoriel. Un vecteur de R2 est un vecteur de l’espace ausens géométrique usuel du terme. En particulier, un vecteur u ∈ R3 a troiscoordonnées et peut s’écrire

u =

abc

.

Tout comme R2, l’espace R3 est aussi un Q-espace vectoriel, mais ce n’est pasun C-espace vectoriel. L’espace R3 muni de sa structure de R-espace vectorielest un bon modèle de la géométrie usuelle de notre espace physique.

4. L’ensemble xyz

∈ R3|x+ y + z = 0

⊂ R3

est un R-espace vectoriel.

5. L’ensembleR4 = {(x1, x2, x3, x4)|∀ 1 ≤ i ≤ 4, xi ∈ R}

est un R-espace vectoriel. Contrairement à R, R2 et R3, il n’admet pas d’inter-prétation géométrique évidente.

6. Plus généralement, si n est un entier strictement positif, l’ensemble

Rn = {(x1, · · · , xn)|∀ 1 ≤ i ≤ n, xi ∈ R}

est un R-espace vectoriel.

7. Plus généralement encore, si K est un corps (par exemple K = Q,R ou C) etsi n est un entier strictement positif, l’ensemble

Kn = {(x1, x2, . . . , xn)|∀ 1 ≤ i ≤ n, xi ∈ K}

est un K-espace vectoriel.

8. L’ensemble

R[X] =

{∞∑n=0

anXn|∀n, an ∈ R, an = 0 pour presque tout n

}des polynômes à coefficients dans R est un R-espace vectoriel.

5

Page 6: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

9. Si n est un entier positif, l’ensemble

Rn[X] =

{∞∑m=0

amXm|∀m, am ∈ R, ∀ m > n, am = 0

}⊂ R[X]

des polynômes de degré au plus n est un R-espace vectoriel.

10. Plus généralement, si K est un corps, l’ensemble

K[X] =

{∞∑n=0

anXn|an ∈ K, an = 0 pour presque tout n

}des polynômes à coefficients dans K est un K-espace vectoriel. L’ensemble

Kd[X] =

{∞∑n=0

anXn|an ∈ K, an = 0,∀ n > d

}des polynômes à coefficients dans K de degré au plus d est un K-espace vec-toriel.

11. Si K est un corps (par exemple K = Q,R ou C), l’ensemble

K[X] =

{∞∑n=0

anXn|an ∈ K

}des séries entières à coefficients dans K est un K-espace vectoriel.

12. L’ensemble des fonctions de R dans R est un R-espace vectoriel.

13. Plus généralement, si U est un ensemble et n est un entier strictement positif,l’ensemble des fonctions de U vers Rn est un R-espace vectoriel.

14. Plus généralement encore, si U est un ensemble, n est un entier strictementpositif et K est un corps, l’ensemble des fonctions de U vers Kn est un K-espace vectoriel.

15. L’ensemble des fonctions dérivables de R dans R est un R-espace vectoriel. Plusgénéralement, si n est un entier ou ∞ et U un intervalle de R, l’ensemble desfonctions de U dans R de classe Cn est un R-espace vectoriel.

16. L’ensemble des fonctions f de R dans R satisfaisant l’équation différentielle

f ′ + cos(x)f = 0

est un R-espace vectoriel.

17. Plus généralement, si les gn sont des fonctions de R dans R, l’ensemble desfonctions f de R dans R satisfaisant l’équation différentielle

d∑n=0

gn(x)dnf

dxn= 0

est un R-espace vectoriel.

6

Page 7: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

18. L’ensembleM2(R) =

{(a bc d

)|(a, b, c, d) ∈ R4

}des matrices de taille 2× 2 à coefficients réels est un R-espace vectoriel.

19. Plus généralement, si K est un corps et n est un entier strictement positif,l’ensemble

Mn(K) =

a1,1 · · · a1,n

···

ai,j ···

an,1 · · · an,n

|∀ 1 ≤ i, j ≤ n, ai,j ∈ K

des matrices de taille n× n à coefficients dans K est un K-espace vectoriel.

20. Plus généralement, si K est un corps et n,m sont des entiers strictement posi-tifs, l’ensemble

Mn,m(K) =

a1,1 · · · a1,m

···

ai,j ···

an,1 · · · an,m

|∀ 1 ≤ i ≤ n, 1 ≤ j ≤ m, ai,j ∈ K

des matrices de taille n×m à coefficients dans K est un K-espace vectoriel.

21. Plus généralement, si E est un K-espace vectoriel, l’ensemble End(E) des ap-plications linéaires de E dans E est un K-espace vectoriel.

22. Plus généralement encore, si E et F sont des K-espaces vectoriels, l’ensembleHom(E,F ) des applications linéaires de E à valeurs dans F est un K-espacevectoriel.

23. SoitK un corps (par exempleK = Q,R ou C). L’ensemble {0} est unK-espacevectoriel que l’on appelle l’espace vectoriel nul.

Exemple d’ensemble qui ne sont pas des espaces vectoriels

1. L’ensemble vide ∅ n’est pas un espace vectoriel. En effet, un espace videcontient toujours au moins un élément, à savoir 0E.

2. L’ensembleC =

{(xy

)∈ R2|x2 + y2 = 1

}⊂ R2

n’est pas un espace vectoriel. En effet, u =

(10

)et v =

(−10

)appartiennent à

C mais u+ v =

(00

)n’appartient pas à C.

7

Page 8: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

3. L’ensemble

X =

xyz

∈ R3|x ≥ 0, y ≥ 0, z ≥ 0

n’est pas un R-espace vectoriel. En effet, si u ∈ X est un vecteur non-nul, alors−u /∈ X donc X n’est pas stable par multiplication par le scalaire −1.

4. L’ensemble

P =

xyz

∈ Q3|x+ y + z = 0

⊂ R3

n’est pas un R-espace vectoriel. En effet, si u ∈ P est un vecteur non-nul, alors√2u /∈ P donc P n’est pas stable par multiplication par le scalaire

√2.

5. L’ensemble des polynômes ne s’annulant pas en zéro. En effet, cet ensemblen’est pas stable par addition.

6. L’ensemble

D =

{(xy

)∈ R2|x = y

}∪{(

xy

)∈ R2|x = −y

}⊂ R2

n’est pas un R-espace vectoriel. En effet, u =

(11

)et v =

(−11

)appartiennent

à D mais u+ v =

(02

)n’appartient pas à D.

1.1.2 Définitions formelles

Soit K un corps.

Espaces vectoriels

Définition 1.1. Un ensemble E est un K-espace vectoriel si et seulement s’il vérifieles propriétés suivantes.

1. Il existe une loi de composition interne

+ : E × E −→ E

(u, v) 7−→ u+ v

faisant de E un groupe commutatif (ceci signifie que + est associative, com-mutative, admet un élément neutre 0E et que tout élément u ∈ E admet uninverse v = −u ∈ E tel que u+ v = 0E).

2. Il existe une opération de multiplication par un scalaire

· : K × E −→ E

(λ, u) 7−→ λ · u

8

Page 9: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

distributive sur + (ceci signifie que λ · (u + v) = λ · u + λ · v et (λ + µ) · u =λ · u + µ · u pour tout (λ, µ, u, v, ) ∈ K2 × E2), mixte associative (ceci signifieque (λµ) ·u = λ · (µ ·u) pour tout (λ, µ, u) ∈ K2×E) et telle que 1 ·u = u pourtout u ∈ E.

Il résulte de la définition que 0 ·u = 0E et que λ ·0E = 0E pour tout (λ, u) ∈ K×E.En effet, 0 · u = (0 + 0) · u = 0 · u + 0 · u donc 0 · u = 0E en ajoutant −0 · u desdeux côtés de l’équation et de même λ · 0E = λ · (0E + 0E) = λ · 0E + λ · 0E doncλ · 0E = 0E. On en déduit que (−1) · u = −u pour tout u ∈ E et donc que l’on peutconfondre sans trop de risque d’erreur 0 et 0E. Pour cette raison, on note à partir demaintenant λu pour λ · u et 0 pour 0E.

Combinaisons linéaires Soit I un ensemble fini (par exemple I = {1, · · · , n}),(ui)i∈I ∈ EI une famille de vecteurs d’un K-espace vectoriel E et (λi)i∈I ∈ KI unefamille de scalaires. Il résulte immédiatement des deux propriétés fondamentales de+ et · que

v =∑i∈I

λiui

est un vecteur de E. En effet, λiui appartient à E pour tout i ∈ I puis une récurrenceimmédiate montre que c’est également le cas de leur somme. Plus généralement, soitI un ensemble infini, (ui)i∈I ∈ EI une famille de vecteurs d’un K-espace vectoriel Eet (λi)i∈I ∈ KI une famille de scalaires. L’élément

v =∑i∈I0

λiui

est un vecteur de E pour tout sous-ensemble I0 ⊂ I de cardinal fini. On appelle unetelle somme une K-combinaison linéaire de vecteurs de E indexée par I. Ce n’est pasune exagération de dire que l’algèbre linéaire est l’étude des combinaisons linéaires.

On prêtera attention au fait qu’une combinaison linéaire est toujours indexée parun ensemble fini même si l’ensemble I peut être infini.

Sous-espaces vectoriels Un sous-espace vectoriel E de F est un sous-ensembled’un K-espace vectoriel F qui est aussi un espace vectoriel (pour les mêmes lois +et ·). Pour qu’un ensemble E soit un K-espace vectoriel, il suffit qu’il soit un sous-ensemble d’un K-espace vectoriel F et qu’il satisfasse de plus aux trois propriétéssuivantes.

1. E est non-vide.

2. ∀(u, v) ∈ E2, (u+ v) ∈ E.

3. ∀(λ, u) ∈ K × E, λu ∈ E.

En conséquence, une intersection arbitraire de sous-espaces vectoriels d’un espacevectoriel F est un sous-espace vectoriel de F .

9

Page 10: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Espace vectoriel engendré Soit U un sous-ensemble d’un espace vectoriel E.On appelle espace vectoriel engendré par U et on désigne par VectU l’intersectiondes sous-espaces vectoriels de E contenant U . Il résulte de cette définition et duparagraphe précédent que VectU est un sous-espace vectoriel de E (et donc en par-ticulier qu’il est non-vide même si U est vide). Si (ui)i∈I est une famille de vec-teurs de E indexée par un ensemble I, on note Vect(ui)i∈I pour Vect{ui|i ∈ I}. SiU = {u1, · · · , un} est un ensemble fini de vecteurs de E, on note Vect(u1, · · · , un)pour VectU . L’ensemble des K-combinaisons linéaires de vecteurs de U forme un K-sous-espace vectoriel contenant U et contenu dans VectU . Par définition de VectU ,VectU est donc l’ensemble des K-combinaisons linéaires de vecteurs de U .

Familles génératrices, familles libres, dimension Une famille (ui)i∈I de vec-teurs d’un K-espace vectoriel E est dite génératrice si Vect(ui)i∈I est égal à E. UnK-espace vectoriel est dit de dimension finie s’il admet une famille génératrice in-dexée par un ensemble I de cardinal fini. Une famille générative est dite minimalesi elle n’admet pas de sous-famille strict génératrice : pour tout J ( I, la famille(ui)i∈J n’est pas génératrice. Une famille (ui)i∈I de vecteurs d’un K-espace vecto-riel E est dite libre si la seule K-combinaison linéaire des (ui)i∈I égale à 0 est lacombinaison dont tous les scalaires sont nuls. Une famille libre est dite maximalesi elle ne peut être complétée en une famille libre : pour tout J ) I, (ui)i∈J n’estpas libre. Une famille qui est à la fois libre et génératrice s’appelle une base de E(cette définition ne requiert pas que E soit de dimension finie mais en pratique, nousconsidérerons presque exclusivement des bases d’espaces vectoriels de dimension fi-nie). Notons qu’une famille libre maximale est génératrice, donc une base, et qu’unefamille génératrice minimale est libre, donc une base.

On prendra garde au fait qu’un ensemble E qui est un K-espace vectoriel et unL-espace vectoriel pour deux corps K et L distincts peut très bien être de dimensionfinie en tant que K-espace vectoriel mais ne pas être de dimension finie en tant queL-espace vectoriel. De même, une famille peut être génératrice du L-espace vectorielE mais ne pas être génératrice du K-espace vectoriel E ou bien être libre dans leK-espace vectoriel E mais ne pas l’être dans le L-espace vectoriel E.

Propriété fondamentale de la dimension Dans un K-espace vectoriel de di-mension finie, toutes les familles génératrices minimales, toutes les familles libresmaximales et toutes les bases ont même cardinal. On appelle ce cardinal communla dimension de l’espace vectoriel E sur K (comme noté plus haut, la dimensionde E dépend de manière cruciale de K). Toute famille libre peut-être complétée enune base et on peut extraire de toute famille génératrice une base. Il en résulte quesi E ⊂ F sont des espaces vectoriels et si F est de dimension finie, alors E est dedimension finie, dimE ≤ dimF et E = F si et seulement si dimE = dimF .

Somme directe Soit E,F deux sous-espaces vectoriels d’un espace vectoriel G. Ondésigne par E+F l’espace vectoriel engendré par l’ensemble E∪F . La notation E+Fest justifiée par le fait que E + F est aussi l’espace vectoriel {u+ v|u ∈ E, v ∈ F}.

E + F = Vect(E ∪ F ) = {u+ v|u ∈ E, v ∈ F}

10

Page 11: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Tout élément w de E+F peut donc s’écrire w = u+ v avec u ∈ E et v ∈ F . Lorsquepour tout w ∈ E + F , cette écriture est de plus unique, on dit que E et F sont ensomme directe et on note E ⊕ F . Les trois propriétés suivantes sont équivalentes.

1. ∀ w ∈ E + F , l’écriture w = u+ v est unique.

2. L’écriture de 0 sous la forme 0 = u+ v est unique. Autrement dit, si 0 = u+ vavec u ∈ E et v ∈ F , alors u = v = 0.

3. E ∩ F = {0}.

En pratique, c’est le plus souvent la dernière propriétés que l’on vérifie. Si E et F sonten somme directe et si de plus E + F = G, on dit que E et F sont supplémentaireset que F est un supplémentaire de E dans G (et réciproquement).

SiG est de dimension finie et si E et F sont supplémentaires, alors dimE+dimF =dimG. Tout sous-espace vectoriel E ⊂ G admet un supplémentaire. Un sous-espacevectoriel E admet en général plusieurs supplémentaires distincts. Par exemple, si

u n’est pas de la forme(α0

)avec α ∈ R, alors Vect(u) est un supplémentaire de

Vect

(10

)dans R2. Il faut donc toujours éviter de parler du supplémentaire de E

sans plus de précisions.La notion de supplémentaire n’a rien à voir avec la notion de complémentaire :

pour commencer, le complémentaire d’un sous-espace vectoriel n’est jamais un sous-espace vectoriel car il ne contient pas 0 et de plus, un sous-ensemble admet ununique complémentaire alors qu’un sous-espace vectoriel admet en général plusieurssupplémentaires distincts.

Les notions de somme et de somme directe se généralisent à un nombre fini desous-espaces vectoriels.

n∑i=1

Ei =

{n∑i=1

ui|ui ∈ Ei

}= Vect

(n⋃i=1

Ei

)On dit que les Ei sont en somme directe et on note

E1 ⊕ · · · ⊕ En =n⊕i=1

Ei

si pour tout u ∈∑i∈Iui, l’écriture de u comme somme d’éléments des Ei est unique.

On prendra garde qu’il ne suffit pas que l’intersection Ei ∩Ej des espaces vectorielsdeux à deux soit réduite à 0 pour que des espaces vectoriels soient en somme directe.La condition correcte est la suivante.

∀j, Ej ∩∑i 6=j

Ei = {0}

On peut formuler cette condition en disant que la seule combinaison linéaire nullen∑i=1

λiui, ui ∈ Ei

est la combinaison linaire dont tous les λi sont nuls.

11

Page 12: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

1.1.3 Exemples

Exemples d’espaces vectoriels de dimension finie et infinie L’espace vecto-riel {0} est de dimension 0. En effet, il est engendré par la famille vide.

Le Q-espace vectoriel Q, le R-espace vectoriel R, le C-espace vectoriel C, plusgénéralement le K-espace vectoriel K, plus généralement le K-espace vectoriel Kn

pour n ≥ 1 sont de dimension finie. Le K-espace vectoriel Kn est de dimension n etune de ses bases est la famille (ei)1≤i≤n telle que toutes les coordonnées de ej sontnulles sauf la j-ième qui est égale à 1.

Le Q-espace vectoriel R, le Q-espace vectoriel C, plus généralement les Q-espacesvectoriels Rn et Cn pour n ≥ 1 ne sont pas des espaces vectoriels de dimension finie.

Le R-espace vectoriel C est de dimension finie égale à 2 et une de ses bases et lafamille (1, i). Réciproquement, le C-espace vectoriel R2 est de dimension finie égaleà 1 et une de ses bases est la famille (1). Plus généralement, tout C-espace vectorielE de dimension finie n et dont une base est (bj)j∈J est un R-espace vectoriel dedimension finie 2n et dont une base est (bj, ibj)j∈J (ici i désigne une solution deX2 + 1 = 0 et non pas un indice).

Le K-espace vectoriel Kn[X] des polynômes à coefficients dans K de degré au plusn est un K-espace vectoriel de dimension finie n+1 (attention au décalage) dont unebase est (1, X,X2, · · · , Xn). Le K-espace vectoriel K[X] des polynômes à coefficientsdans K n’est pas de dimension finie (en effet, il contient des sous-espaces vectorielsde dimension n pour tout n ∈ N, par exemple les Kn[X]).

Le R-espace vectoriel C∞(I,R) des fonctions C∞ d’un intervalle ouvert non-videI ⊂ R vers R est de dimension infinie. Il en est donc de même pour le R-espacevectoriel Cn(I,R) des fonctions Cn pour tout n ∈ N (car une fonction C∞ est Cn

pour tout n ∈ N). Une famille libre infinie de C∞(I,R) est donnée par la famille des(enx)n∈N et plus généralement par la famille des (eαix)i∈I pour tout I qui n’est pasde cardinal fini et toute famille (αi)i∈I de réels tous distincts.

L’ensemble xyz

∈ R3|x+ y + z = 0

⊂ R3

est un R-espace vectoriel de dimension finie égale à 2 dont une base est

1−10

,

10−1

.

L’ensemble xyz

∈ R3|x+ y + z = 0, 3x+ 2y + z = 0

⊂ R3

est un R-espace vectoriel de dimension finie égale à 1 dont une base est

1−21

.

12

Page 13: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

L’ensemblexyz

∈ R3|x+ y + z = 0, 3x+ 2y + z = 0, x+ y = 0

⊂ R3

est un R-espace vectoriel de dimension finie égale à 0. L’ensemblexyz

∈ R3|x+ y + z = 0, 3x+ 2y + z = 0, 2x+ y = 0

⊂ R3

est un R-espace vectoriel de dimension finie égale à 1 dont une base est

1−21

.

Pour n ≥ 1, l’ensemble Mn(K) des matrices de taille n × n à coefficients dans Kest un K-espace vectoriel de dimension finie égale à n2 dont une base est la famille(eij)1≤i,j≤n formée des matrices eij dont toutes les coordonnées sont nulles sauf celle àla ligne i et à la colonne j qui est égale à 1. Plus généralement, pour n,m deux entiersstrictement positifs, l’ensemble Mn,m(K) des matrices de taille n ×m à coefficientsdans K est un K-espace vectoriel de dimension finie égale à nm dont une base estla famille (eij)1≤i≤n,1≤j≤m formée des matrices eij dont toutes les coordonnées sontnulles sauf celle à la ligne i et à la colonne j qui est égale à 1. Plus généralement,l’ensemble Hom(E,F ) des applications linéaires d’un K-espace vectoriel E vers unK-espace vectoriel F est un espace vectoriel de dimension finie si et seulement si Eet F sont de dimension finie. Dans ce cas, dimHom(E,F ) = dimE × dimF .

1.2 Applications linéaires

1.2.1 Définition et premières propriétés

Définition Soit K un corps et E,F deux K-espaces vectoriels. Une applicationlinéaire

f : E −→ F

est une application de E vers F vérifiant les propriétés suivantes.

1. Pour tout (u, v) ∈ E2, f(u+ v) = f(u) + f(v).

2. Pour tout (λ, u) ∈ K × E, f(λu) = λf(u).

Il résulte de ces deux propriétés que f(0E) = 0F et que si

v =∑i∈I

λiui

est une combinaison linéaire des vecteurs ui, alors

f(v) =∑i∈I

λif(ui)

13

Page 14: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

et f(v) est donc une combinaison linéaire des f(ui) indexée par les mêmes scalairesλi.

De même qu’un espace vectoriel est de manière informelle un ensemble dans lequelon peut faire des combinaisons linéaires, une application linéaire est de manièreinformelle une application qui préserve les combinaisons linéaires. Il résulte de lacompatibilité de f avec les combinaisons linéaires que f est uniquement déterminéepar la donnée de l’image par f d’une famille génératrice de E et donc en particulierd’une base de E.

L’ensemble des applications linéaires de E vers F est noté Hom(E,F ) et l’en-semble des applications linéaires de E vers lui-même est noté End(E). Soit E,F etG des K-espaces vectoriels. La composée d’une application linéaire de E vers F etd’une application linéaire de F vers G est une application linéaire de E vers G. Enparticulier, la composition ◦ est une loi de composition interne

◦ : End(E)× End(E) −→ End(E)

(f, g) 7−→ f ◦ g

de End(E). Cette loi de composition interne est associative et admet un élémentneutre, à savoir l’identité Id, mais n’est pas commutative sauf si E est de dimensionfinie égale à 1. Pour n ∈ N, on note fn la composée de f avec elle-même n fois (ceciimplique en particulier que f 0 = Id pour tout f ∈ End(E)).

Noyau, image, rang L’ensemble {u ∈ E|f(u) = 0} des vecteurs de E d’imageégal à 0 est un sous-espace vectoriel de E que l’on appelle le noyau de f et quel’on note ker f . L’ensemble {v|∃u ∈ E, f(u) = v} des vecteurs de F qui sont imaged’un vecteur de E est un sous-espace vectoriel de F que l’on appelle l’image de fet que l’on note im f . Lorsque la dimension de im f est finie, on l’appelle le rangde f . Lorsque E est de dimension finie, ker f et im f sont de dimension finie etdimker f + dim im f = dimE.

Isomorphisme Pour vérifier qu’une application linéaire est injective, il suffit demontrer que son noyau est réduit à 0. Une application linéaire bijective s’appelleun isomorphisme d’espaces vectoriels. Deux K-espaces vectoriels E et F sont ditsisomorphes, ce que l’on note E ' F , s’il existe un isomorphisme d’espaces vectorielsentre eux. La propriété d’être isomorphe est une relation d’équivalence sur l’ensembledes espaces vectoriels. Deux espaces vectoriels de dimension finie sont isomorphes siet seulement s’ils ont la même dimension. Le quotient de l’ensemble des espacesvectoriels de dimension finie par la relation d’équivalence être isomorphe est doncl’ensemble N.

Soit E,F deux K-espaces vectoriels de dimension finite et soit f ∈ Hom(E,F ).Il résulte du théorème de rang que deux quelconques des trois propriétés suivantesimpliquent les autres.

1. L’application f est injective.

2. L’application f est surjective.

14

Page 15: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

3. L’application f est un isomorphisme d’espaces vectoriels.

4. La dimension de E est égale à la dimension de F .

L’ensemble des applications de End(E) qui sont inversibles (et qui sont donc desisomorphismes d’espaces vectoriels de E vers lui-même) s’appelle le groupe linéairegénéral de E et est notéGL(E). Il est muni d’une structure de groupe non-commutatifsauf si E est de dimension finie égale à 1. On note GLn(K) le groupe linéaire généraldeKn. Notons que GL1(K) n’est rien d’autre que le groupeK× des éléments non-nulsde K

1.2.2 Matrices

Matrice d’une application linéaire Soit E,F et G des K-espaces vectoriels dedimension finie n,m et p respectivement. Soit f ∈ Hom(E,F ) et g ∈ Hom(F,G)deux applications linéaires. Soit (ai)1≤i≤n, (bi)1≤i≤m et (ci)1≤i≤p des bases de E,F etG respectivement. La matrice M(f) ∈Mm,n(K) de f relativement aux bases (ai) et(bi) est la matrice (m(f)ij)1≤i≤m,1≤j≤n telle que

f(aj) =m∑i=1

m(f)ijbi

pour tout 1 ≤ j ≤ n. De même, la matrice M(g) ∈ Mp,m(K) de g relativement auxbases (bi) et (ci) est la matrice (m(g)ij)1≤i≤p,1≤j≤m telle que

g(bj) =

p∑i=1

m(g)ijbi

pour tout 1 ≤ j ≤ m. La matrice M(g ◦ f) ∈Mp,n(K) de g ◦ f ∈ Hom(E,G) vérifiealors

m(g ◦ f)ij =m∑k=1

m(g)ikm(f)kj

pour tout 1 ≤ i ≤ p et tout 1 ≤ j ≤ n.

Produit matriciel Il résulte du calcul précédent et des propriétés de la composi-tion que l’ensemble Mn,m(K)×Mm,p(K) est muni d’une multiplication

· : Mn,m(K)×Mm,p(K) −→Mn,p(K)

(aij)1≤i≤n,1≤j≤m(bij)1≤i≤m,1≤j≤p 7−→

(m∑k=1

aikbkj

)1≤i≤n,1≤j≤p

et que Mn(K) est muni d’une loi de composition interne

· : Mn(K)×Mn(K) −→Mn(K)

(aij)(bij) 7−→

(n∑k=1

aikbkj

)

15

Page 16: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

associative, admettant comme élément neutre la matrice Idn = (δij) et non-commutativesauf si n = 1.

Notons que l’application

ev1 : Hom(K,Kn) −→ Kn

f 7−→ f(1)

est injective et est donc un isomorphisme d’espaces vectoriels entre les espaces vecto-riels Hom(K,Kn) et Kn car ils sont tous deux de dimension finie n. En utilisant cetisomorphism, on peut identifier les vecteurs de Kn aux vecteurs de Hom(K,Kn) etdonc aux vecteurs de Mn,1(K). On peut donc en particulier multiplier une matriceM ∈ Mn,m(K) et un vecteur u ∈ Km ' Hom(K,Km) ' Mm,1(K) pour obtenir unvecteur Mu ∈ Kn.

Lorsque E = F et (ai) = (bi), on dit que M(f) est la matrice de f relative à labase (ai) pour dire que M(f) est la matrice de f relative à la base (ai) et à la base(ai).

Matrice inversible Une matrice M ∈ Mn(K) telle qu’il existe une matrice Nvérifiant MN = Idn s’appelle une matrice inversible. Une telle matrice est la matriced’une application f ∈ GLn(K) relative à un certain choix de base et réciproquement,la matrice d’une application de GLn(K) est inversible. Il en résulte que N est uniqueet vérifie NM = Idn. L’ensemble des matrices inversibles de taille n×n à coefficientsdans K est noté GLn(K).

Changement de bases Soit f ∈ End(E) un endomorphisme d’unK-espace vecto-riel de dimension finie n. SoitM = (aij) la matrice de f relative à une base (bi)1≤i≤n.Soit (ci)1≤i≤n une autre base de E. Pour tout 1 ≤ j ≤ n, on peut exprimer cj commecombinaison linéaire des bi.

cj =n∑i=1

pijbi

Ceci définit une matrice P = (pij) ∈ Mn(K) qui est la matrice dans la base (bi) del’application linéaire p qui envoie bi sur ci pour tout i. L’application linéaire p estinversible d’inverse p−1 égale à l’application linéaire qui envoie ci sur bi pour tout i.De

p−1(cj) =n∑i=1

pijp−1(bi)

=n∑i=1

n∑k=1

pijβkibk =n∑k=1

(n∑i=1

βkipij

)bk

= bj,

16

Page 17: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

on déduit que la matrice (βki) de p−1 relative à la base (bi) est la matrice P−1. Donc

f(cj) =n∑i=1

pijf(bi) =n∑i=1

pij

n∑k=1

akibk

=n∑i=1

pij

n∑k=1

aki

n∑s=1

βskcs =n∑s=1

(n∑i=1

n∑k=1

βskakipij

)cs.

Le coefficient s, j de la matrice de f relative à la base (ci) est doncn∑i=1

n∑k=1

βskakipij,

qui est aussi le coefficient s, j de la matrice P−1MP .En conclusion, si M est la matrice de f dans la base (bi) et si P est la matrice de

l’écriture des ci dans la base (bi), alors P−1MP est l’écriture de la matrice de f dansla base (ci).

Notons que si MP = PM ou si P−1M =MP−1, alors P−1MP =M et la matricede f dans la base (bi) est égale à la matrice de f dans la base (ci). C’est la cas enparticulier pour l’application nulle, dont la matrice est (0)ij dans toutes les bases ; del’identité, dont la matrice est (δij)ij dans toutes les bases et de λ Id dont la matriceest (λδij)ij dans toutes les bases.

1.3 Systèmes d’équations linéaires

1.3.1 Interprétation linéaire des systèmes d’équations

Reformulation théorique Supposons nous donnés n scalaires (ui)1≤i≤n ∈ Kn etnm scalaires (ai,j)1≤i≤n,1≤j≤m ∈ Knm. Une observations fondamentale de l’algèbrelinéaire est que la résolution du système d’équations linéaires à n équations et minconnues

a1,1x1 + a1,2x2 + · · ·+ a1,mxm = u1

a2,1x1 + a2,2x2 + · · ·+ a2,mxm = u2

· · ·an,1x1 + an,2x2 + · · ·+ an,mxm = un

(1.3.1)

est équivalente d’après la formule du produit matriciel à la résolution de l’équation

AX = U

où A est la matrice (aij) ∈ Mn,m(K), X est le vecteur (xi) ∈ Mm,1(K) et U est levecteur (ui) ∈Mm,1(K). Après un choix de bases (bi)1≤i≤m de Km et (ci)1≤i≤n de Kn,la résolution de l’équation AX = U est elle-même équivalente à la caractérisation def−1({u}) pour u ∈ Kn un vecteur de matrice U dans la base (bi) et f : Km −→ Kn

une application linéaire de matrice A relativement aux bases (bi) et (ci).Inversement, si f ∈ Hom(E,F ) est une application linéaire entre K-espaces vecto-

riels de dimension finie, le problème de déterminer le noyau de f , donc de caractériserf−1({0}), ou plus généralement celui de caractériser f−1({v}) pour v ∈ F ou encorecelui de caractériser l’image de f , donc de caractériser l’ensemble de v ∈ F tel quef−1({v}) soit non-vide, devient équivalent après un choix de bases de E et F à

17

Page 18: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

l’étude d’une équation matricielle de type AX = U et donc à la résolution d’unsystème d’équations linéaires.

Lorsque u est le vecteur nul, Il résulte directement des définitions et du théorèmedu rang que le système (1.3.1) admet une unique solution si et seulement si f estinjective et donc si et seulement si m ≤ n (autrement dit, il y a moins d’inconnuesque d’équations) et f est de rang m (autrement dit, l’image d’une base de Km

par f est une base d’un sous-espace vectoriel de dimension m). On en déduit quel’équation f(v) = u admet une unique solution si et seulement si f est injective etu appartient à l’image de f . En vertu du théorème de rang, f est injective si etseulement si elle est surjective lorsque n = m. Dans ce cas, la seconde conditionpour que f(v) = u admette une unique solution découle donc de la première. Si lesystème (1.3.4) a autant d’équations que d’inconnues, alors le fait qu’il admette uneunique solution ou non ne dépend donc pas des ui mais seulement des ai,j, et plusprécisément uniquement du fait que la matrice A est inversible ou non.

Résolutions théorique de systèmes d’équations linéaires Pour résoudre unsystème linéaire, la méthode pratique la plus efficace est celle dite du pivot de Gauss,qui consiste à utiliser un coefficient non-nul d’une ligne pour annuler les coefficientscorrespondant sur toutes les autres lignes. Formellement, ceci revient à appliquersuccessivement l’opération élémentaire suivante sur les lignes du système : remplacerla paire de lignes (Li, Lj) par la paire de lignes (Li, Lj − ai,j

ai,iLi). Cette opération

transforme un système d’équations linéaires en un système équivalent (c’est-à-direayant le même ensemble de solutions) car si les (xi) sont solutions des deux équations(Li, Lj), alors ils sont solutions des deux équations (Li, Lj− ai,j

ai,iLi) et réciproquement,

s’ils sont solutions de la paire d’équation (Li, Lj− ai,jai,iLi), ils sont solutions de la paire

d’équation (Li, Lj − ai,jai,iLi +

ai,jai,iLi) = (Li, Lj).

Si l’on traduit le problème de la résolution de système d’équations linéaires enproblème de la résolution d’équation matricielle AX = U , on peut donner la refor-mulation suivante de l’opération élémentaire et plus généralement de la résolutiond’un système d’équations linéaires. Une manière de transformer l’équation matricielle

AX = U (1.3.2)

en une équation équivalente est de multiplier à gauche les deux membres de l’équationpar une matrice inversible commune P pour obtenir l’équation

PAX = PU. (1.3.3)

Les équations (1.3.2) et (1.3.3) sont équivalentes car on passe de l’une à l’autresimplement en multipliant par P ou P−1 à gauche. La matrice P étant inversible,elle est carrée et puisqu’on peut la multiplier à gauche avec A et U , c’est une matricede Mm(K).

Vue sous cette angle, l’opération élémentaire de résolution d’un système d’équa-tions linéaires se décompose en trois sous-opérations :

1. Échanger deux lignes Li et Lj.

18

Page 19: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

2. Multiplier la ligne Li par un scalaire λ non-nul.

3. Remplacer la ligner Lj par la ligne Lj − Li.

En termes matriciels, ces trois opérations s’interprètent de la manière suivante.

1. Multiplier à gauche par la matrice inversible Eij = (pkl)1≤k,l≤m définie par

akl =

1 si k = l et k 6= i, j

1 si k = i et l = j ou k = j et l = i

0 sinon.

2. Multiplier à gauche par la matrice inversible Mi,λ = (pkl)1≤k,l≤m définie par

pkl =

1 si k = l et k 6= i

λ si k = l et k = i

0 sinon.

3. Multiplier à gauche par la matrice inversible Sij = (pkl)1≤k,l≤m définie par

pkl =

1 si k = l

1 si k = j et l = i

0 sinon.

Si on applique successivement ces opérations, on obtient donc une équation matri-cielle équivalente

BX = V

où B = (bij) est sous-forme échelonnée réduite, ce qui signifie que tous ses coefficientssont nuls sauf éventuellement les bii pour 1 ≤ i ≤ d ≤ min(m,n).

1.3.2 Exemples de résolutions pratique de systèmes d’équations linéaires

Dans cette sous-section, on suppose que K = R (le choix de K = Q ou C nechangerait rien aux calculs suivants).

Exemple élémentaire Considérons le système suivant4y + 2z = −25x+ 3y + 2z = 0

x+ y + z = 3

qui correspond à l’équation matricielle0 4 25 3 21 1 1

xyz

=

−203

19

Page 20: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Multiplions à gauche par E13 puis par M1,−1/5S1,2M1,−5 pour obtenir1 1 15 3 20 4 2

xyz

=

30−2

,

1 1 10 −2 −30 4 2

xyz

=

3−15−2

.

Multiplions à gauche par M2,−1/4S2,3M2,2 puis par M3,−1/4S2,1M2,−1 pour obtenir1 1 10 1 3/20 0 −4

xyz

=

315/2−32

,

1 0 −1/20 1 3/20 0 1

xyz

=

−9/215/28

.

Finalement, multiplions à gauche parM3,2S3,1M3,1/2 puis parM3,−2/3S3,2M3,−3/2 pourobtenir 1 0 0

0 1 3/20 0 1

xyz

=

−1/215/28

,

1 1 00 1 00 0 1

xyz

=

−1/2−9/28

et finalement le fait que le système

4y + 2z = −25x+ 3y + 2z = 0

x+ y + z = 3

admet comme unique solution xyz

=

−1/2−9/28

.

Exemple avec un paramètre Considérons le système suivant{x− y + z = 1

−x+ y + z = 0

qui correspond à l’équation matricielle(1 −1 1−1 1 1

)xyz

=

(10

).

Multiplions à gauche par M3,1/2S1,2 puis par M2,−1S2,1M2,−1 pour obtenir(1 −1 10 0 1

)xyz

=

(11/2

),

(1 −1 00 0 1

)xyz

=

(1/21/2

)et le fait que l’ensemble des solutions réelles du système{

x− y + z = 1

−x+ y + z = 0

est l’ensemble 1/2 + y

y1/2

|y ∈ R

20

Page 21: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Exemple détermination du noyau et de l’image Soit f ∈ End(R2) l’applica-tion dont la matrice dans la base canonique de R2 est la matrice

M =

(6 910 15

).

Un vecteur u ∈ R2 est dans le noyau de f si et seulement si MU = 0 pour U =

(xy

)le vecteur de M2,1(R) dont les coordonnées sont les coordonnées de u dans la basecanonique de R2. En multipliant l’équation MU = 0 par M1,−1/10S1,2M1,−5/3, onobtient l’équation matricielle (

1 3/20 0

)(xy

)= 0.

Les vecteurs du noyau de f sont donc les vecteurs vérifiant x = −3y/2 pour y ∈ R.Cet espace vectoriel est de dimension 1. D’après le théorème du rang, l’image del’application f est donc de dimension 1 et f n’est donc pas surjective. Un vecteurv de coordonnées (v1, v2) dans la base canonique de R2 est dans l’image de f si et

seulement si l’équation matricielle MU = V admet une solution pour V =

(v1v2

). En

multipliant à nouveau par M1,−1/10S1,2M1,−5/3, on obtient l’équation matricielle(1 3/20 0

)(xy

)=

(v1/6

v2 − 5v1/3

).

Cette équation matricielle admet des solutions si et seulement si v2 − 5v1/3 = 0 etdonc l’image de f est le sous-espace vectoriel {(v1, 5v1/3) ∈ R2|v1 ∈ R} qui est biende dimension 1.

1.3.3 Un problème mystérieux

Considérons le système d’équations linéaires à deux équations et deux inconnuessuivant. {

ax+ by = u

cx+ dy = v(1.3.4)

On sait bien comment résoudre un tel système. Néanmoins, procéder à une résolutiongénérale du système sans hypothèse ancillaire sur les coefficients amène à faire unesérie de remarques intrigantes qui nous amèneront vers les parties les plus complexes,les plus ardues mais aussi les plus profondes de ce cours.

Une solution du système (1.3.4) est une solution du système{ax+ by = u

(ad− bc)y = av − uc(1.3.5)

qui est aussi une solution du système{(ad− bc)x = ud− bvcx+ dy = v

(1.3.6)

21

Page 22: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

et réciproquement une solution communes des systèmes (1.3.5) et (1.3.6) est unesolution du système (1.3.4). Déterminer l’ensemble des solutions du système (1.3.4)est donc équivalent à déterminer l’ensemble des solutions communes aux systèmes(1.3.5) et (1.3.6). Il se présente alors la disjonction de cas suivante.

1. Soit ad− bc = 0. Il se présente alors la disjonction de cas suivante.

(a) Soit l’un des termes av − uc et ud − bv est non-nul. Le système (1.3.4)n’admet alors aucune solution.

(b) Soit les deux termes av − uc et ud − bv sont nuls. Il se présente alors ladisjonction de cas suivante.

i. Soit tous les coefficients a, b, c, d sont nuls. Le système (1.3.4) admetalors l’ensemble K2 ou l’ensemble ∅ selon que u et v sont nuls ounon.

ii. Soit l’un des coefficients a, b, c, d est non-nul et l’on peut sans pertede généralité supposer que c’est a. Le système (1.3.4) admet alorsl’ensemble {(

u− bya

, y

)|y ∈ K

}comme ensemble de solutions.

2. Soit ad− bc 6= 0. Le système (1.3.4) admet alors l’unique solution(ud− bvad− bc

,av − ucad− bc

)comme ensemble de solutions.

Il y plusieurs observations à faire sur cette résolution. Tout d’abord, elle est beaucoupplus difficile à mener en toute généralité qu’on pourrait le croire : non seulement lenombre de disjonction de cas à traiter est considérable mais de plus il n’est pas si aiséde maintenir la symétrie du problème, c’est-à-dire de ne pas supposer sans raison quel’un des coefficients joue un rôle particulier (par exemple en choisissant un pivot).On tremble à l’idée de généraliser cette résolution à un système de trois équations àtrois inconnues, sans parler du cas général de n équations à n inconnues.

Lorsque K = R, les disjonctions de cas intervenant et les différents ensembles desolutions auquel elles mènent admettent une interprétation géométrique. En effet, sil’un au moins des coefficients (α, β) est non-nul, l’équation αx+βy = γ est l’équationd’une droite du plan R2. Les disjonctions de cas ci-dessus ont donc l’interprétationgéométrique suivante : ou bien les deux équations du système (1.3.4) sont effective-ment des équations de droites, auquel cas le système admet une unique solution, uneinfinité de solution ou aucune solution selon que ces deux droites sont non-parallèles,parallèles et confondues ou parallèles et non confondues, ou bien l’une au moins desdeux équations est dégénérée et dans ce cas on est ramené à étudier le cas d’uneunique droite, ou de deux équations dégénérées. Bien que cette interprétation soitcommode pour se souvenir des différentes possibilités et pour avoir une intuition dela dimension de l’espace vectoriel des solutions, à nouveau, on tremble à l’idée de la

22

Page 23: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

généraliser dans des espaces à 3, 4 ou n dimensions, surtout si l’on a pleine consciencequ’une telle généralisation impliquera de savoir répondre par exemple à la questiondes intersections possibles entre un espace tridimensionnel et un plan dans un es-pace à 4 dimensions. Notons aussi que la solution algébrique était valable sur toutcorps K. Déjà en dimension 2 mais pour K = C, on est amené à tenter d’interprétergéométriquement des espaces loin d’être triviaux.

Avant que l’algèbre linéaire ne vienne à notre rescousse, observons un dernier faitmystérieux. Si l’on considère la fonction

ψ2 : K4 −→ K

(α, β, γ, δ) 7−→ αδ − βγ

alors non seulement le système (1.3.4) admet une solution unique si ψ2(a, b, c, d) 6= 0mais cette solution est donnée par(

ψ2(u, b, v, d)

ψ2(a, b, c, d),ψ2(a, u, c, v)

ψ2(a, b, c, d)

).

Le rêve serait de définir une telle fonction ψn pour les systèmes de n équations à ninconnues : il suffirait ensuite d’appliquer la fonction ψn pour savoir si un systèmeadmet une solution unique ou non et pour déterminer sa solution unique le caséchéant. Comme souvent en mathématiques, ce rêve est appelé à devenir réalité maiscomme trop souvent dans la vie, les rêves réalisés perdent parfois le parfum d’utopiequi faisaient leur charme. Mais n’allons pas trop vite.

2 Réduction des endomorphismes

2.1 Sous-espaces stables, sous-espaces propres

2.1.1 Définition

Soit E un K-espace vectoriel et f ∈ End(E) un endomorphisme de K. Un sous-espace vectoriel F ⊂ E de E est stable par f si f(u) appartient à F pour toutu ∈ F , donc si f restreint à F est un endomorphisme de F . Un endomorphisme fadmet toujours au moins deux sous-espaces vectoriels stables : son noyau ker f etson image im f .

Soit λ ∈ K. Un sous-espace vectoriel F ⊂ E est un sous-espace propre pourle scalaire λ si pour tout u ∈ Fλ, f(u) = λu. Un sous-espace vectoriel F ⊂ Eest un sous-espace propre s’il existe λ ∈ K tel que F soit un sous-espace proprepour le scalaire λ. Un sous-espace propre est nécessairement un sous-espace stable etréciproquement, un sous-espace stable de dimension au plus 1 est nécessairement unsous-espace propre. Le noyau de f est un sous-espace propre pour le scalaire 0. Si Gλ

et Fλ sont deux sous-espace propres pour le même scalaire λ, alors Gλ + Fλ est unsous-espace propre pour le scalaire λ. Pour tout λ ∈ K, il existe donc un sous-espacepropre maximal pour le scalaire λ, à savoir l’espace vectoriel engendré par l’uniondes tous les sous-espaces propres pour le scalaire λ.

23

Page 24: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Un vecteur u ∈ E est un vecteur propre de f pour la valeur propre λ si u 6= 0 et sif(u) = λu. Un vecteur u ∈ E est un vecteur propre de f s’il existe λ ∈ K tel que usoit un vecteur propre de f pour la valeur propre λ. Un scalaire λ ∈ K est une valeurpropre de f s’il existe un vecteur propre de f pour la valeur propre λ. De manièreéquivalente, un scalaire λ est une valeur propre de f si le sous-espace propre maximalde f pour λ est de dimension strictement positive. De même, un vecteur U ∈M1,n(K)est un vecteur propre de M ∈Mn(K) si M est la matrice d’une application linéairef relative à la base canonique de Kn et que u est un vecteur propre de f et λ ∈ Kest une valeur propre de M s’il existe un vecteur U tel que U soit un vecteur proprede M pour la valeur propre λ. C’est aussi par définition ker(f − λ Id). Lorsque l’onfait référence à l’espace propre de f pour λ, on fait référence à son espace propremaximal ker(f − λ Id).

Si E ⊂ F est un sous-espace stable pour f et g, alors c’est aussi un sous-espacestable pour h ∈ Vect(f, g) ⊂ End(F ). De même, si E ⊂ F est un sous-espacepropre pour le scalaire λ pour f et g, alors c’est aussi un sous-espace propre pourh ∈ Vect(f, g) ⊂ End(F ) (mais en général pas pour le même scalaire).

Notons la légère différence qui existe entre sous-espace propre pour le scalaire λ etsous-espace propre pour la valeur propre λ : dans le second cas, le sous-espace doitêtre de dimension strictement positive alors que dans le premier, il peut être réduit àl’espace vectoriel nul. L’intérêt d’introduire cette distinction est de se dispenser dansla suite de la vérification que les sous-espaces considérés sont bien non-nuls.

2.1.2 Familles de vecteurs propres

Proposition 2.1. Soit (Eλs)s∈S une famille de sous-espaces vectoriels propres pourles valeurs propres (λs)s∈S. Supposons les valeurs propres (λs)s∈S distinctes deux àdeux ; c’est-à-dire que λs 6= λt si s 6= t. Les sous-espaces Eλs sont alors en sommedirecte.

De manière équivalent et explicite, soit (ui)i∈I une famille de vecteurs de E proprespour f ∈ End(E) pour les valeurs propres (λi)i∈I respectivement. On suppose que Iest l’union disjointe d’ensembles (Js)s∈S tels que λi 6= λj si i ∈ Js et j /∈ Js. S’ilexiste une combinaison linéaire nulle∑

i∈I

αiui = 0

dont tous les coefficients ne sont pas nuls, alors il existe s ∈ S et une combinaisonlinéaire nulle ∑

i∈Js

βiui = 0 (2.1.1)

dont tous les coefficients ne sont pas nuls. En particulier, si tous les scalaires λi sontdistincts, la famille (ui)i∈I est libre.

Démonstration. Si la deuxième propriété est vraie, toute famille (us)s∈S avec us ∈Eλs est une famille libre. Si ∑

s∈S

αsus

24

Page 25: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

est une combinaison linéaire nulle des us ∈ Eλs , alors tous les αs sont nuls et doncles Eλs sont en somme directe. Il suffit donc de montrer la deuxième propriété.

Supposons qu’il existe une combinaison linéaire des (ui) qui soit nulle mais donttous les coefficients ne sont pas nuls. Il existe alors une combinaison linéaire nulledes ui avec I de cardinal minimal∑

i∈I

αiui =∑s∈S

∑i∈Js

αiui = 0 (2.1.2)

et telle que les αi soient tous non-nuls. Soit j ∈ I un indice et sj l’indice du sous-ensemble Js tel que j ∈ Jsj . En appliquant f , on obtient∑

i∈I

αiλiui =∑s∈S

∑i∈Js

αiλsui = 0. (2.1.3)

En soustrayant l’équation (2.1.3) de l’équation (2.1.2) multiplié par λj, on obtient∑s∈S

∑i∈Js

αi(λj − λs)ui = 0. (2.1.4)

Par définition, λs = λj lorsque s appartient à Jsj donc la combinaison linéaire nulle(2.1.4) des ui a tous ses coefficients indexés par les éléments de Jsj nuls. Par définitionde la combinaison linéaire indexée par les αi, celle-ci est indexée par un ensemble decardinal minimal, donc tous les αi(λj − λs) sont nuls pour s 6= sj. Comme λj 6= λslorsque s /∈ Jsj , αi = 0 pour tout i /∈ Jsj . Comme les αi sont tous non-nuls, Js = Jet donc il existe une combinaison linéaire nulle des (ui)i∈Js dont tous les coefficientsne sont pas nuls.

Supposons maintenant que les λi soient tous distincts et soit∑i∈I

αiui = 0

une combinaison linéaire nulle des ui. Les Js étant de cardinal 1, si αi 6= 0, alorsil existe d’après la première partie de la preuve un scalaire nul βi tel que βiui = 0.Ceci contredit le fait que ui soit un vecteur propre, donc un vecteur non-nul. Lacombinaison linéaire indexée par les αi est donc nulle, et la famille (ui)i∈I est donclibre.

Corollaire 2.2. Une application linéaire f ∈ End(E) d’un espace vectoriel E dedimension finie d admet au plus d valeurs propres distinctes.

Démonstration. En effet, une famille de vecteurs propres pour des valeurs propresdistinctes est une famille libre d’après la proposition précédente et est donc de car-dinal inférieur à la dimension de E.

2.1.3 Lien avec les matrices triangulaires supérieures

Soit f ∈ End(E) un endomorphisme d’un K-espace vectoriel de dimension finie n.On dit que la matrice M = (aij)1≤i,j≤n de f dans une base B = (b1, · · · , bn) est

25

Page 26: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

triangulaire supérieure si aij = 0 lorsque i > j (cela signifie visuellement que tous lescoefficients deM en dessous de la diagonale sont nuls). D’un point de vue algébrique,cela signifie que f(bi) appartient à Vect(bj)1≤j≤i pour tout 1 ≤ i ≤ n. En particulier,le sous-espace Vect(bj)1≤j≤i est stable par f pour tout 1 ≤ i ≤ n.

Proposition 2.3. Si la matrice M = (aij)1≤i,j≤n d’un endomorphisme f est unematrice triangulaire supérieure, alors les valeurs propres de f sont les scalaires aii.

Démonstration. Soit λ une valeur propre de f . Alors le noyau de f−λ Id contient unvecteur v non-nul dans son noyau. Posons g = f − λ Id. La matrice N = (bij)1≤i,j≤nde g dans la base B est également triangulaire supérieure et il suffit de montrer qu’ilexiste un i tel que bii = 0. Le vecteur v s’écrit

v =n∑i=1

αibi.

Soit k le plus grand entier tel que αk 6= 0. De

f(v) =n∑i=1

αif(bi) = 0

on déduit que

f(bk) = −1

αk

k−1∑i=1

αk−1f(bi).

D’après l’hypothèse que la matrice N est triangulaire supérieure, pour 1 ≤ i ≤ k−1,chaque f(bi) appartient àVect(b1, · · · , bk−1). Donc f(bk) appartient àVect(b1, · · · , bk−1)et le coefficient bkk est nul.

Réciproquement, fixons un i et posons λ = aii. Il suffit de montrer que g = f−λ Idn’est pas injective. Soit N = (bij)1≤i,j≤n la matrice de g dans la base B. Alors bii = 0.Le sous-espace F = Vect(b1n · · · , bi) est stable par f donc stable par g et il suffitdonc de montrer que g n’est pas injective après restriction à F . Les vecteurs g(bk)pour k < i sont dans le sous-espace Vect(b1, · · · , bk) ( F d’après l’hypothèse quela matrice de g est triangulaire supérieure. Le vecteur g(bi) est également dans cesous-espace car bii = 0. Donc l’image de F par g est strictement incluse dans F doncg restreinte à F n’est pas injective.

2.2 Polynômes d’endomorphismes

2.2.1 Révision sur les polynômes

Soit K un corps. L’ensemble des polynômes à coefficients dans K est l’ensemble

K[X] =

{∞∑n=0

anXn|an ∈ K, Tous les an sont nuls sauf éventuellement un nombre fini

}Le polynôme dont tous les coefficients sont nuls s’appelle le polynôme nul et il estnoté 0. Plus généralement, on identifie le polynôme dont tous les coefficients sontnuls sauf le coefficient a0 à l’élément a0 du corps K.

26

Page 27: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

L’ensemble des polynômes est muni d’une loi de composition interne

+ : K[X]×K[X] −→ K[X](∞∑n=0

anXn,∞∑n=0

bnXn

)7−→

∞∑n=0

(an + bn)Xn

qui est associative, commutative et qui admet 0 comme élément neutre. Tout poly-nôme admet un (unique) inverse pour l’addition, ce qui fait donc de K[X] un groupecommutatif. L’ensemble des polynômes est muni d’une loi de composition interne

· : K[X]×K[X] −→ K[X](∞∑n=0

anXn,∞∑n=0

bnXn

)7−→

∞∑n=0

(n∑k=0

akbn−k

)Xn

qui est associative, commutative, distributive sur l’addition et qui admet le polynôme1 comme élément unité. La donnée de K[X] muni des lois + et · fait de l’ensemble despolynômes à coefficients dans K un K-espace vectoriel qui est également un anneaucommutatif.

Sur K[X] est défini une application

deg : K[X] −→ {−∞} ∪ N∞∑n=0

anXn 7−→

{−∞ si an = 0 pour tout n,min{n ∈ N|an 6= 0} sinon.

Si (P,Q) ∈ K[X]2 sont deux polynômes, deg(PQ) = deg(P ) + deg(Q) et deg(P +Q) ≤ max{degP, degQ}. Les polynômes de degré 0 sont les éléments non-nuls de Ket sont exactement les éléments inversibles de K[X] pour la loi ·.

Proposition 2.4. Soit P ∈ R[X] un polynôme non-nul à coefficients réels et dedegré d ≥ 0. Il existe des réels (λi)i∈I1 et des couples de réels (αi, βi)i∈I2 vérifiantα2i − 4βi < 0 indexés par des ensembles de cardinaux finis (éventuellement nuls) I1

et I2 respectivement ainsi qu’un réel α tels que P s’écrive

P = α∏i∈I1

(X − λi)∏i∈I2

(X2 + αiX + βi). (2.2.1)

De plus, cette écriture est unique à l’ordre des λi et des (αi, βi) près et d = |I1|+2|I2|.Soit P ∈ C[X] un polynôme non-nul à coefficients complexes de degré d. Il existe

d complexes (λi)1≤i≤d et un complexe α tels que P s’écrive

P = α

d∏i=1

(X − λi). (2.2.2)

De plus, cette écriture est unique à l’ordre des (λi)1≤i≤d près.

Cette proposition n’est vrai que pour les corps R et C. Par exemple, le polynômeX3 − 2 ∈ Q[X] n’admet ni factorisation de la forme (2.2.2), ni factorisation de laforme (2.2.1).

27

Page 28: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

2.2.2 Polynômes d’endomorphismes

Soit f un endomorphisme de E un K-espace vectoriel. Alors pour tout n ∈ N et toutλ ∈ K, fn est un endomorphisme de E. Pour tout polynôme

P =∞∑n=0

anXn ∈ K[X],

l’application

P (f) =∞∑n=0

anfn

est un endomorphisme de E (ici, on rappelle que P étant un polynôme, il existe unentier N tel que an = 0 pour tout n > N). On appelle un tel endomorphisme unpolynôme d’endomorphismes (en f).

Un polynôme d’endomorphismes en f n’est rien d’autre qu’une combinaison li-néaires de la familles de vecteurs (fn)n∈N, qui est une famille de vecteurs du K-espace vectoriel End(E), donc l’ensemble des polynômes d’endomorphismes en f estle sous-espace vectoriel Vect(fn)n∈N.

La composition ◦ est une loi de composition interne de End(E) associative, dis-tributive sur l’addition et commutative lorsqu’elle est restreinte à deux éléments dela forme fm pour m ∈ N. Elle est donc commutative lorsqu’elle est restreinte àVect(fn)n∈N. Sur ce sous-espace vectoriel, la composition se comporte donc commela multiplication de K[X]. En particulier, toute relation d’égalité algébrique entrepolynômes reste valable pour les polynômes d’endomorphismes en f à condition deremplacer le scalaire λ par l’endomorphisme λ Id.

Un exemple important est donné par la factorisation de polynômes. Si le polynômeP ∈ K[X] admet une factorisation

P =∞∑n=0

anXn =

∏i∈I

(X − λi),

ou plus généralement

P =∏j∈J

Pj

où les Pj sont des polynômes de K[X] (le cas précédent correspondant à la situationoù tous les Pj sont unitaires de degré 1) alors le polynôme d’endomorphismes

P (f) =∞∑n=0

anfn

admet une factorisation semblable :

P (f) =∏i∈I

(f − λi Id), P (f) =∏j∈J

Pj(f) (2.2.3)

28

Page 29: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Proposition 2.5. Soit E un C-espace vectoriel de dimension finie, f un endomor-phisme de E et P ∈ C[X] un polynôme non-nul de degré d. Il existe d complexes(λi)1≤i≤d et un scalaire α tels que P (f) s’écrive

P (f) = αd∏i=1

(f − λi Id). (2.2.4)

Démonstration. Ceci résulte de la proposition 2.4 et de la factorisation (2.2.3).

Notons qu’un polynôme d’endomorphismes peut tout à fait être l’endomorphismenul sans pour autant que tous ses coefficients soient nuls. Par exemple, le polynômed’endomorphismes f − Id est nul si f = Id et f 2− Id est nul si f = Id, f = − Id ou si

f ∈ End(R2) a pour matrice relativement à un choix de base la matrice(1 00 −1

). Il

s’ensuit que contrairement au cas de la factorisation (2.2.2), la factorisation (2.2.4)n’est pas unique en générale.

2.3 Réduction des endomorphismes

2.3.1 Motivation et exemples

Motivation La vie est belle dans les espaces vectoriels de dimension 1 : tous lesvecteurs s’écrivent λu pour un certain u et donc pour connaître entièrement uneapplication linéaire f , il suffit de connaître f(u). Le but de la réduction des en-domorphismes est de se ramener, autant que faire se peut, à cette situation. Enprincipe, l’idée est simple. Soit E un K-espace vectoriel de dimension finie n et soitf ∈ End(E) un endomorphisme de E. L’espace E admet une décomposition

E = E1 ⊕ · · · ⊕ En =n⊕i=1

Ei

en somme directe de sous-espaces vectoriels de dimension 1. Pour chacun de cessous-espaces, f est potentiellement très simple et pour étudier f , il suffirait doncde l’étudier séparément pour chaque Ei puis de rassembler nos connaissances. Leproblème est qu’il n’y a aucune raison que les Ei soient des espaces stables par f etdonc f peut très bien permuter les Ei.

L’idéal serait donc qu’il existe une décomposition de E

E =⊕λ

en somme directe de sous-espaces stables par f . La matrice de f relativement à unebase de E construite en choisissant des bases des Eλ serait alors une matrice parblocs. L’utopie serait carrément qu’il existe une telle décomposition en sous-espacesstables de dimension 1. Ainsi, l’étude de f se ramènerait à l’étude de f restreinte àEλ, qui serait triviale car un sous-espace stable de dimension 1 est un sous-espacepropre. La matrice de f relativement à une base de E construite en choisissant des

29

Page 30: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

bases de Eλ serait alors une matrice par blocs de taille 1, donc une matrice donttous les coefficients seraient nuls sauf éventuellement les coefficients diagonaux. Onimagine l’intérêt de travailler avec de telles matrices pour ce qui est de la résolutiondes systèmes linéaires ou pour le calcul matriciel plus généralement.

L’utopie n’est pas de ce monde, mais une partie substantielle du programme es-quissé ci-dessus peut être réalisée.

Exemples Dans ce paragraphe et sauf mention contraire, K désigne un corps égalà Q, R ou C, E est un K-espace vectoriel de dimension finie n strictement positiveet f est un endomorphisme de E.

1. L’espace E admet une décomposition en sous-espaces stables par f de dimen-sion 1 lorsque f est l’application nulle, lorsque f est l’identité et plus géné-ralement lorsque f = λ Id pour λ ∈ K. En fait, toute décomposition de Een somme directe de sous-espaces vectoriels de dimension 1 convient. La ma-trice d’un tel f relativement au choix d’une base quelconque est donc toujoursdiagonale (avec respectivement des 0, des 1 et des λ sur la diagonale).

2. Soit f dont la matrice dans la base canonique de R2 est(3 10 −5

). Dans la

base, ((1, 0), (1,−8)) la matrice de f est(3 00 −5

)donc

R2 = Vect

(10

)⊕ Vect

(1−8

)est une décomposition de R2 en sous-espaces propres de f de dimension 1. Il estaisé de vérifier qu’à l’ordre près, cette décomposition est la seule décompositionen sous-espaces propres de f de dimension 1.

3. Soit f l’application linéaire dont la matrice dans la base canonique de K2 est(1 −11 −1

). Le vecteur u = (1, 1) est dans le noyau de f donc dimker f ≥ 0.

Comme f n’est pas l’application nulle, dim im f est strictement positif. D’aprèsle théorème de rang, dim im f + dimker f = 2 donc dimker f = 1 et ker f =Vectu. Supposons que R2 s’écrive E1⊕E2 où E1 et E2 sont des espaces vectorielsnon-nuls stables par f . Ils sont alors tous deux de dimension 1 donc des espacespropres pour f pour des valeurs propres λ1 et λ2. Si λ1λ2 6= 0, alors le rangde f est égal à 2, ce qui est une contradiction. Donc l’une des valeurs propres,disons λ1, est nulle et E1 est donc égal à ker f . Si u = (x, y) est un vecteurnon-nul de E2, alors u est un vecteur propre donc il existe un scalaire λ tel quef(u) = λ et donc le système{

x− y = λx

x− y = λyou encore

{(1− λ)x− y = 0

x+ (−1− λ)y = 0

admet une solution non-nulle. Ce système admet une solution non-nulle si etseulement si (1−λ)(−1−λ)+1 = λ2 est nul, donc si et seulement si λ = 0. Mais

30

Page 31: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

l’espace propre correspondant à la valeur propre 0 est E1 et nous obtenons doncune contradiction. Il n’est pas possible de décomposer K2 en deux sous-espacesstricts stables sous l’action de f .

4. Soit f l’application linéaire dont la matrice dans la base canonique de R2 est(0 −11 0

). Supposons que f admette un vecteur propre u = (x, y) pour la

valeur propre λ ∈ R. Alors le système{−y = λx

x = λyou encore

{−λx− y = 0

x− λy = 0

admet une solution non-nulle, et donc λ2 + 1 = 0. C’est absurde. Donc fn’admet aucune valeur propre et il n’est pas possible de décomposer R2 endeux sous-espaces stricts stables par f .

5. Soit f l’application linéaire dont la matrice dans la base canonique de C2 est(0 −11 0

). L’application f admet un vecteur propre u = (x, y) pour la valeur

propre λ ∈ C si et seulement si le système{−y = λx

x = λyou encore

{−λx− y = 0

x− λy = 0

admet une solution non-nulle, donc si et seulement si λ2 + 1 = 0 et donc si etseulement si λ = ±i. Donc C2 admet deux sous-espaces stables par f : le sous-espace propre Ei correspondant à la valeur propre i et E−i correspondant à lavaleur propre −i. Ces deux sous-espaces étant en somme directe, C2 = Ei⊕E−iet l’on peut décomposer C2 en deux sous-espaces stricts stables par f .

Notons que les deux derniers exemples montrent que l’existence d’une décomposi-tion de Kn en sous-espaces stables par f peut dépendre de K mais que l’exemple 3montre que pour certaines applications linéaires, une telle décomposition est impos-sible quelque soit le corps considéré.

2.3.2 Coeur et nilespace

L’observation fondamentale qui inspire cette sous-section est le fait que si f ∈ End(E)alors il existe non seulement deux sous-espaces stables par f (cela nous le savonsdéjà : le noyau et l’image de f vérifient cette propriété) mais il existe même deuxsous-espaces stables par f dont le somme directe est E. Autrement dit, il existe unsous-espace vectoriel stable admettant un supplémentaire stable.

Définition 2.6. Soit E un K-espace vectoriel de dimensions finie et f ∈ End(E)une application linéaire. Le nilespace N(f) de f est l’ensemble

{u ∈ E|∃n ∈ N, fn(u) = 0}.

Le coeur C(f) est l’ensemble

{u ∈ E|∀n ∈ N, ∃vn, fn(vn) = u}.

31

Page 32: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Si f ∈ End(E), n ∈ N et u ∈ E vérifient que fn(u) = 0, alors fn+1(u) = 0et plus généralement fn+m(m) = 0 pour m ∈ N. Donc ker fn ⊂ ker fn+m pour tout(n,m) ∈ N2 et le nilespace de f est l’union des sous-espaces vectoriels (ker fn)n∈N. Demême, si fn(v) = u alors fm(fn−m(v)) = u pour tout m ≤ n donc im fn ⊂ im fn−m

et le coeur de f est l’intersection des sous-espaces vectoriels (im fn)n∈N.

Lemme 2.7. Le coeur et le nilespace de f sont des sous-espaces vectoriels stablespar f .

Démonstration. Le coeur de f est un sous-espace vectoriel car c’est une intersectionde sous-espaces vectoriels. Soit (u, v, λ) ∈ N(f). Alors il existe (n,m) ∈ N2 tel quefn(u) = fm(v) = 0. Donc fn+m(u + v) et fn(λu) sont nuls. Donc u + v et λu sontdans N(f), qui est donc bien un sous-espace vectoriel. Montrons tout d’abord queN(f) est un sous-espace vectoriel stable par f . Soit u ∈ N(f). Il existe alors n > 0tel que fn(u) = 0. Alors fn−1(f(u)) = 0 donc f(u) appartient à N(f). Donc N(f)est stable par f . Montrons que C(f) est un sous-espace vectoriel stable par f . Soitu ∈ C(f) et n ∈ N. Il existe un ∈ E tel que fn(un) = u. Alors fn(f(un)) = f(u)donc il existe v = f(un) ∈ E tel que fn(v) = f(u). Donc C(f) est stable par f .

Remarquons que si f est surjectif, alors im(f) = im(f 0) et le coeur de f est égalà E. De même, si f est injectif, alors ker(f) = ker(f 0) et le nilespace de f est nul.Ce résultat se généralise dans le lemme suivant.

Lemme 2.8. Soit n ∈ N un entier tel que ker(fn) = ker(fn+1). Alors N(f) =ker(fn). De même, si n ∈ N est un entier tel que im(fn) = im(fn+1), alors C(f) =im(fn).

Démonstration. Soit N un entier tel que ker fN = ker fN+1. Montrons par récur-rence que ker fN+m = ker fN pour tout m ∈ N. C’est vrai par définition si m = 0.Supposons que ker fN+m = ker fN et soit v ∈ ker fN+m+1. Alors f(v) appartient àker fN+m donc f(v) appartient à ker fN donc v appartient à ker fN+1 donc v ap-partient à ker fN . Donc ker fN+m = ker fN pour tout m ∈ N par récurrence. Enappliquant ce résultat au plus petit n vérifiant la propriété, on obtient l’assertion surN(f).

Soit maintenant N un entier tel que im fN = im fN+1. Montrons par récurrenceque im fN+m = im fN pour toutm ∈ N. C’est vrai par définition sim = 0. Supposonsmaintenant m ≤ 0 et que im fN+m = im fN et soit u ∈ im fN+m. Il existe v ∈ Etel que fN+m(v) = u. Soit w = fN(v). Alors w est aussi dans l’image de fN+1 parhypothèse sur N donc il existe z ∈ E tel que fN+1(z) = w. Donc fN+m+1(z) =fm(w) = fN+m(v) = u. Donc u appartient à im fN+m+1. Donc im fN+m = im fN

pour tout m ∈ N par récurrence. En appliquant ce résultat au plus petit n vérifiantla propriété, on obtient l’assertion sur C(f).

Ce lemme implique que l’union croissante des noyaux des fn est strictement crois-sante ou constante à partir d’un certain rang et que l’intersection décroissante desimages des fn est strictement décroissante ou constante à partir d’un certain rang. Engénéral, les deux comportements sont possibles mais lorsque l’espace E est de dimen-sion finie, alors il ne peut exister de suite infinie d’inclusion strictement décroissantede sous-espaces vectoriels et c’est donc la seconde alternative qui prévaut.

32

Page 33: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Lemme 2.9. Soit E un K-espace vectoriel de dimensions finie d et f ∈ End(E)une application linéaire. Il existe un entier N ≤ d tel que ker fN = N(f) et im fN =C(f).

Démonstration. D’après le lemme 2.8, la suite des sous-espaces vectoriels

ker Id ⊂ ker f ⊂ · · · ⊂ ker fn ⊂ · · · ⊂ E

est strictement croissante ou stationnaire à partir d’un certain rang. La suite d’entiers

0 ≤ dimker f ≤ · · · ≤ dimker fn ≤ · · · ≤ n

est bornée donc c’est la deuxième alternative qui prévaut et il existe N ∈ N tel queN(f) = ker fN . Pour tout n ∈ N, dim im fn = d − dimker fn donc la dimension deim fn est également stationnaire à partir de N . Le sous-espace vectoriel im fN estalors égal à C(f).

Proposition 2.10. Soit E un K-espace vectoriel de dimensions finie et f ∈ End(E)une application linéaire. Le nilespace N(f) et le coeur C(f) de f sont des sous-espacesvectoriels stables par f supplémentaires.

Démonstration. Nous savons déjà que N(f) et C(f) sont des sous-espaces vectorielsstables par le lemme 2.7. Pour montrer que E = C(f) ⊕ N(f), il suffit de montrerque

dimC(f) + dimN(f) = dimE (2.3.1)

et que C(f) ∩ N(f) = {0}. L’égalité (2.3.1) vient de ce qu’il existe N ∈ N tel queC(f) = im fN , N(f) = ker fN d’après le lemme 2.9 et du théorème de rang. Soitdonc u ∈ C(f) non-nul. Soit n ≥ N . Il existe v ∈ E tel que fn(v) = u 6= 0. Donc vn’appartient pas à ker fN = N(f). Donc v n’apparient pas à N(f) donc fm(v) 6= 0pour tout m ∈ N et de même fm(u) 6= 0 pour tout m ∈ N. Donc u n’appartient pasà N(f).

Remarquons queN(f) et C(f) n’ont aucune raison d’être en somme directe lorsqueE est de dimension infinie. Considérons par exemple la dérivation D comme applica-tion linéaire sur l’espace vectoriel C[X] des polynômes à coefficients complexes. Pourtout polynôme P , il existe n ∈ N tel que Dn(P ) = 0 (on peut par exemple prendren = degP + 1) donc le nilespace de la dérivation est C[X] tout entier. Pour toutpolynôme P et tout n ∈ N, il existe un polynôme Qn tel que Dn(Qn) = P (à savoir lepolynôme obtenu en prenant n fois la primitive de P ) donc le coeur de la dérivationest également C[X] tout entier.

2.3.3 Espaces propres généralisés

Définition 2.11. Soit E un K-espace vectoriel de dimension finie, f ∈ End(E) unendomorphisme et λ ∈ K un scalaire. L’espace propre généralisé Eλ de f pour lescalaire λ est le nilespace de l’endomorphisme f − λ Id.

33

Page 34: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Un espace propre généralisé est donc en particulier un sous-espace vectoriel stablepar f admettant un supplémentaire stable par f . Si n est un entier strictement positif,l’application linéaire (f − λ Id)n est injective si et seulement si l’application linéairef −λ Id est injective. Un espace propre généralisé pour le scalaire λ est donc non-nulsi et seulement si λ est une valeur propre de f .

Lemme 2.12. Soit (λ, µ) deux valeurs propres distinctes de f ∈ End(E). Alors lenilespace N(f − λ Id) de f − λ Id est inclus dans C(f − µ Id). En particulier, dessous-espaces propres généralisés pour des valeurs propres distinctes sont en sommedirecte.

Démonstration. Le sous-espace N(f − λ Id) est stable par f et stable par Id doncest stable par f − µ Id. Montrons que l’application f − µ Id restreinte à N(f − λ Id)est injective (donc inversible). Soit donc g l’application linéaire f − µ Id restreinte àN(f − λ Id) et soit u dans le noyau de g. Le vecteur u est dans N(f − λ Id) donc ilexiste un entier n ∈ N tel que (f − λ Id)n(u) = 0 et il est dans ker g donc f(u) = µu.Le polynôme d’endomorphismes de l’espace vectoriel Vect(u) égal à f est donc égalau polynôme d’endomorphismes µ Id. Donc

(f − λ Id)n(u) = (µ Id−λ Id)n(u) = (µ− λ)nu = 0.

Le scalaire µ − λ est non-nul donc u est nul. Donc f − µ Id est injective aprèsrestriction à N(f − λ Id). Donc f − µ Id est un isomorphisme de N(f − λ Id) doncN(f − λ Id) ⊂ C(f − µ Id).

Soit maintenant (Eλi)i∈I une famille d’espaces propres généralisés pour des valeurspropres distinctes et soit ∑

i∈J

αiui = 0

une combinaison linéaire nulle de vecteurs ui ∈ Eλi indexée par J ⊂ I. Soit j ∈ J eti 6= j. Le vecteur ui appartient au nilespace de f − λi Id donc au coeur de f − λj Id.Donc

αjuj +∑i 6=j

αiui = 0

est une écriture de 0 comme somme d’un élément de N(f − λj Id) et d’un élémentde C(f − λj Id). Ces deux espaces étant en somme directe, αjuj. La combinaisonlinéaire est donc nulle et les (Eλi) sont en somme directe.

Il s’en suit qu’un endomorphisme d’un espace de dimension d a au plus d espacespropres généralisés non nuls.

Proposition 2.13. Soit E un K-espace vectoriel de dimension finie et f ∈ End(E)un endomorphisme. Supposons que f admette une valeur propre λ ∈ K et soit Eλl’espace propre généralisé de f pour λ. Il existe alors une décomposition

E = Eλ ⊕ F

en sous-espaces vectoriels stables par f .

34

Page 35: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Sous l’hypothèse que f admet une valeur propre, on a donc réussi à réduire l’étudede f à l’étude de f restreint au sous-espace propre généralisé pour λ et au sous-espacevectoriel F .

Démonstration. Le scalaire λ est une valeur propre de f donc ker(f − λ Id) 6= {0}donc Eλ 6= {0}. On peut alors prendre pour F le coeur de f − λ Id.

Théorème 2.1. Soit E un C-espace vectoriel de dimension finie et f ∈ End(E) unendomorphisme. Il existe alors une décomposition

E =⊕λ

en sous-espaces propres généralisés de f , donc en particulier en sous-espaces stablespar f .

Si E est un C-espace vectoriel, on a donc réduit l’étude de f à l’étude de f restreintà ses sous-espaces propres généralisés.

Démonstration. Démontrons l’assertion par récurrence sur la dimension de E. L’as-sertion est vraie si dimE = 0 ou 1. Supposons maintenant qu’elle soit vraie pourtous les C-espaces vectoriels de dimension finie strictement positive au plus n ∈ N etconsidérons un espace vectoriel E de dimension n+ 1.

L’espace vectoriel End(E) est alors de dimension (n + 1)2 donc la famille (f s)s∈Nde vecteurs de End(E) est liée. Soit donc∑

s∈S

αsfs = 0 (2.3.2)

une combinaison linéaire nulle des (f s)s∈N dont tous les coefficients ne sont pas nulset soit

P =∑s∈S

αsXs

le polynôme correspondant. Ce polynôme est un polynôme non-nul à coefficient deC[X] donc il admet une factorisation

P = α∏s∈S

(X − λs).

avec S non-vide. Le polynôme d’endomorphismes P (f), qui est nul d’après (2.3.2),admet donc d’après la proposition 2.5 une factorisation similaire

P (f) = α∏s∈S

(f − λs Id) = 0.

L’endomorphisme P (f) est nul et n’est donc pas injectif. Une composition d’applica-tions injectives étant injective, l’un au moins des endomorphismes f − λs Id, disons

35

Page 36: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

f −λ Id, n’est pas injectif. L’application f admet donc un vecteur propre pour la va-leur propre λ et l’espace propre généralisé Eλ est donc non-nul. D’après la proposition2.13, l’espace E admet donc une décomposition

E = Eλ ⊕ F

avec F stable par f et de dimension strictement inférieure à celle de E. D’aprèsl’hypothèse de récurrence, F admet une décomposition

F =∑µ

en somme directe de sous-espaces propres généralisés. Donc E admet une décompo-sition

E = Eλ ⊕⊕µ

en sous-espaces propres généralisés. Par récurrence, tout espace vectoriel complexede décomposition finie admet donc une décomposition en sous-espaces propres géné-ralisés.

Soit (bi)1≤i≤n une base de E formée à partir de bases des sous-espaces propresgénéralisés Eλ. La matrice de f relativement à (bi)1≤i≤n est alors diagonale par blocs.

2.3.4 Polynôme caractéristique

Définition 2.14. La multiplicité géométrique d’une valeur propre d’un endomor-phisme f d’un K-espace vectoriel de dimension finie est l’entier dimN(f − λ Id).

Il résulte du théorème 2.1 que la somme des multiplicités géométriques des valeurspropres d’un endomorphisme d’un C-espace vectoriel de dimension finie d est égaleà d.

Définition 2.15. Soit E un C-espace vectoriel de dimension finie n strictement po-sitive et f ∈ End(E) un endomorphisme de E. Le spectre Spec(f) de f est l’ensembledes valeurs propres de f comptées avec leur multiplicité géométrique.

Le cardinal de Spec(f) est donc n. L’endomorphisme f est bijectif si et seulementsi 0 /∈ Spec(f).

Définition 2.16. Soit E un C-espace vectoriel de dimension finie n strictementpositive et f ∈ End(E) un endomorphisme de E. Le polynôme caractéristique µf ∈Cn[X] de f est le polynôme

µf =∏

λ∈Spec(f)

(X − λ)

Par construction, µf est un polynôme unitaire de degré n à coefficients dans C.D’après la remarque suivant la définition 2.15, f est un isomorphisme si et seulementle terme constant de µf est non-nul ou encore si et seulement si µf (0) 6= 0.

36

Page 37: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Théorème 2.2 (Théorème de Cayley-Hamilton). Soit f un endomorphisme d’unC-espace vectoriel E de dimension finie et µf ∈ C[X] son polynôme caractéristique.Le polynôme d’endomorphismes µf (f) est alors le polynôme nul.

Démonstration. D’après le théorème 2.1, E admet une décomposition

E =⊕λ

en sous-espaces propres généralisés. Les sous-espaces Eλ sont stables par f , donc parl’endomorphisme µf (f). Pour montrer que µf (f) est l’endomorphisme nul, il suffitdonc de montrer que µf (f) est l’endomorphisme nul après restriction à chaque Eλ.Soit donc λ une valeur propre de f de multiplicité géométrique m et u ∈ Eλ. Pardéfinition de la multiplicité géométrique, (f − λ Id)m(u) = 0 donc(∏

λ′ 6=λ

(f − λ Id)

)◦ (f − λ Id)m(u) = 0.

Donc µf (f)(u) = 0 et µf (f) est bien l’endomorphisme nul.

2.3.5 Réduction des endomorphismes diagonalisables

Soit E un C-espace vectoriel de dimension finie et f ∈ End(E). D’après le théorème2.1, E se décompose en somme de sous-espaces propres généralisés pour f .

Définition 2.17. Un endomorphisme f d’un K-espace vectoriel E de dimensionfinie est diagonalisable si E admet une décomposition en sous-espaces propres

E =⊕λ

ker(f − λ Id).

Relativement à une base formée de bases des ker(f − λ Id), la matrice de f estdiagonale avec les λ ∈ Spec(f) sur la diagonale. Ceci explique le terme diagonalisable.

Proposition 2.18. Soit f un endomorphisme d’un C-espace vectoriel E de dimen-sion finie. Soit P ∈ C[X] tel que P (f) soit l’endomorphisme nul. Alors le spectre def est inclus dans l’ensemble des racines de P . L’endomorphisme f est diagonalisablesi et seulement s’il existe un polynôme P de la forme

P =d∏i=1

(X − λi)

avec λi 6= λj si i 6= j tel que P (f) soit l’endomorphisme nul.

Démonstration. Soit λ ∈ Spec f et u un vecteur propre de f pour la valeur propreλ. Alors

P (f)(u) =

(d∑i=0

αiλi

)u = 0

37

Page 38: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

et u 6= 0 donc λ est une racine de P . Supposons que f soit diagonale. Alors E s’écritcomme la somme directe des ker(f − λ Id) donc∏

λ∈Spec f

(X − λ)

est l’endomorphisme nul de E. Supposons réciproquement qu’il existe un polynôme Pdont toutes les racines sont distinctes tel que P (f) soit l’endomorphisme nul. D’aprèsle théorème 2.1, E s’écrit comme la somme directe des espaces propres généralisésde f . Soit Eλ un des espaces propres généralisés de f . Si µ 6= λ est une racine de P ,alors f − µ Id est un endomorphisme injectif de Eλ donc∏

µ 6=λ

(f − µ Id)

est un endomorphisme injectif de Eλ. Or P (f) est l’endomorphisme nul de Eλ doncf−λ Id est l’endomorphisme nul de Eλ donc Eλ = ker(f−λ Id) et f est diagonalisable.

Corollaire 2.19. Supposons que f admette dimE valeurs propres distinctes. Alorsf est diagonalisable.

Démonstration. En effet, le polynôme caractéristique µf de f est alors un polynômeà racines simples tel que µf (f) = 0. On applique la proposition 2.18.

2.3.6 Réduction des endomorphismes nilpotents

Définition 2.20. Un endomorphisme f d’un K-espace vectoriel est nilpotent s’ilexiste n ∈ N tel que fn = 0.

De manière équivalente, un endomorphisme de E est nilpotent si son nilespaceest l’espace E tout entier. Soit E un C-espace vectoriel de dimension finie n et soitf ∈ End(E). Supposons f nilpotent et soit u un vecteur propre de f pour la valeurpropre λ (un tel vecteur existe d’après le théorème 2.1). Alors fn(u) = λnu doncλ = 0. Toutes les valeurs propres d’un endomorphisme nilpotent sont donc nulles.Réciproquement, si E est de dimension d et si Spec(f) = {0(d)}, alors E est lenilespace de f donc f est nilpotent.

On appelle ordre de nilpotence de f le plus petit entier n ∈ N tel que fn = 0 etordre de nilpotence de u ∈ E le plus petit entier m tel que fm(u) = 0. Il résulteimmédiatement de ces définitions que l’ordre de nilpotence de u est plus petit quel’ordre de nilpotence de f et qu’il existe un vecteur umax dont l’ordre de nilpotenceest égal à l’ordre de nilpotence de f lorsque E est de dimension finie. L’ensembledes éléments d’ordre de nilpotence au plus d est un sous-espace vectoriel de f . Enfin,nous savons que l’ordre de nilpotence de f est plus petit que la dimension de Elorsque celle-ci est finie.

Lemme 2.21. Des vecteurs non-nuls d’ordre de nilpotence distincts forment unefamille libre. En particulier, si u est un vecteur d’ordre de nilpotence d > 0, alors lafamille (f i(u))0≤i≤d−1 est libre.

38

Page 39: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Démonstration. Soit (ui)i∈I des vecteurs non nuls d’ordre de nilpotence di avec di 6=dj si i 6= j. Supposons qu’il existe une combinaison linéaire nulle des ui dont tous lescoefficients ne sont pas nuls. Il en existe alors une

n∑i=1

αiui = 0

de cardinal minimal. Soit dj le maximum des di. Alors

fdj−1

(n∑i=1

αiui

)=

n∑i=1

αifdj−1(ui) = αjf

dj−1(uj) = 0

et dj−1(uj) 6= 0 donc αj = 0. Contradiction.La deuxième assertion découle de la première et de l’observation que f(u) est

d’ordre de nilpotence d si et seulement si u est d’ordre de nilpotence d+ 1.

Proposition 2.22. Soit f un endomorphisme nilpotent de E un K-espace vectorielde dimension finie n. Il existe une base (v1, · · · , vn) telle que f(vi) appartienne àVect(v1, · · · , vi−1) pour tout 1 ≤ i ≤ n.

Démonstration. On définit le procédé suivant. L’étape zéro est un choix d’une basedu noyau de f . Si l’étape s ≥ 0 est terminée et si la famille construite ne contientque des éléments d’ordre de nilpotence s, on la complète si possible par une famillelibre maximale d’éléments d’ordre de nilpotence s + 1. D’après le lemme 2.21, lafamille obtenue est libre et engendre le sous-espace vectoriel des éléments d’ordre denilpotence au plus d + 1. Le procédé termine donc avec une famille libre maximale,donc une base de E, vérifiant la propriété voulue.

Dans la base de la proposition précédente, la matrice de f est triangulaire supé-rieure avec des 0 sur la diagonale. On pourra remarquer que la démonstration montreen fait une propriété plus forte que celle de l’énoncé. Ceci inspire la proposition sui-vante, nettement plus forte.

Proposition 2.23. Soit f un endomorphisme nilpotent de E un K-espace vectorielde dimension finie. Il existe des vecteurs (v1, · · · , vs) d’ordres de nilpotence respectifs(d1, · · · , ds) tels que

E =s⊕i=1

Vect(fn(vi))n∈N

ou, de manière équivalente, tels que

(v1, · · · , fd1−1(v1), v2, · · · , fd2−1(v2), · · · , vs, · · · , fds−1(vs))

soit une base de E et tels que (fdi−1(vi))1≤i≤s soit une base de ker f .

Démonstration. Soit E est de dimension 1. L’assertion est alors vraie. Soit E est dedimension strictement supérieur à 1 et on peut supposer par récurrence que l’assertionest vraie pour les endomorphismes nilpotents des espaces de dimensions strictementinférieure. Le noyau de f est non-nul donc im f est de dimension r strictement

39

Page 40: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

inférieur à E et est stable par f . D’après l’hypothèse de récurrence, il existe donc unebase de im f de la forme (v1, · · · , fd1−1(v1), v2, · · · , fd2−1(v2), · · · , vt, · · · , fdt−1(vt))avec (fdi−1(vi))1≤i≤t une based de ker f ∩ im f . Choisissons des (ui)1≤i≤t tels quef(ui) = vi pour tout 1 ≤ i ≤ t (ce qui est possible car les vi appartiennent à im f).Pour tout 1 ≤ i ≤ d, l’ordre de nilpotence de ui est alors l’ordre de nilpotence devi plus 1 donc est égal à di + 1. Soit (wi)1≤i≤k une base d’un supplémentaire deim f ∩ ker f dans ker f .

Rebaptisons la famille des

(u1, · · · , fd1(u1), · · · , ut, · · · , fdt(ut), w1, · · · , wk)

en(z1, · · · , f δ1−1(z1), · · · , z`, · · · , f δ`−1(z`))1≤`≤m.

Ici, δj = dj si zj est l’un des ui et δj si zj est un des wi et m = dim im f + k = r+ k.Montrons que

Z = (z1, · · · , f δ1−1(z1), · · · , z`, · · · , f δ`−1(z`))1≤`≤mforme une base de E vérifiant la propriété exigée. Par construction, les éléments dela base d’ordre de nilpotence 1 forment une base de ker f ∩ im f s’ils sont de la formefdj−1(vj) et une base d’un supplémentaire de ker f ∩ im f dans ker f s’ils sont de laforme wj. Ensemble, ils forment donc bien une base de ker f . Il suffit donc de montrerque la famille Z est libre et de cardinal égal à la dimension de E.

Soitm∑i=1

δj−1∑j=0

αi,jfj(zi) = 0 (2.3.3)

une combinaison linéaire nulle des vecteurs de Z. En appliquant f on obtient

0 =m∑i=1

δj−1∑j=0

αi,jfj+1(zi) =

r∑i=1

dj−1∑j=0

αi,jfj(vi)

car les wi sont dans le noyau de f . D’après l’hypothèse de récurrence, la famille desf j(vi) est une base donc la combinaison linéaire

r∑i=1

dj−1∑j=0

αi,jfj(vi)

a tous ses coefficients nuls. Les seuls αi,j éventuellement non-nuls sont donc ceuxpour r < i ≤ m, auquel cas δj = 1. La combinaison linéaire nulle (2.3.3) devientdonc

k∑i=1

αiwi = 0.

Mais les wi forment une famille libre, donc la combinaison linéaire (2.3.3) a tous sescoefficients nuls. Reste à démontrer que Z est de cardinal dimE. Par construction,il y dim im f vecteurs de la forme f i(vj) dans Z à quoi il faut ajouter les dimker f −dim(ker f ∩ dim im f) vecteurs wi et les vecteurs ui. Or, les vecteurs fdi(ui) formentune base de im f ∩ker f . Le cardinal de Z est donc dim im f +dimker f , donc dimEpar le théorème du rang.

40

Page 41: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

On appelle base adaptée à f une base comme dans la proposition 2.23. Les sous-espaces engendrés par (f i(uj)) et par (wk) sont stables par f (par construction pourles premiers, parce que les wk sont dans le noyau de f pour le second). La matricede f dans une base adaptée est donc diagonale par blocs. Certains des blocs sontnuls, les autres peuvent être réarrangés de telle sorte que la matrice de f ait tous sescoefficients aij nuls sauf ceux avec j = i+ 1 qui sont égaux à 1.

2.3.7 Réduction des endomorphismes de C2

Soit E un C-espace vectoriel de dimension 2 et f ∈ End(E). L’espace E admet unedécomposition en sous-espaces propres généralisés

E =⊕λ

Eλ.

Il n’y a donc que deux possibilités : ou bien f admet deux valeurs propres distinctes,auquel cas f est diagonalisable d’après la sous-section 2.3.5 et il existe donc une base

dans laquelle sa matrice est la matrice(λ 00 µ

), ou bien la multiplicité géométrique

de l’unique valeur propre λ de f est égale à 2, auquel cas E est le noyau de (f−λ Id)2et l’application g = f −λ Id est donc nilpotente. Dans le second cas, il existe d’aprèsla proposition 2.23 une base adaptée (g(v), v) de E relativement à laquelle la matrice

de f est(0 10 0

). La matrice de f dans cette base est donc

(λ 10 λ

).

2.3.8 Théorème de réduction de Jordan

En rassemblant les résultats des sous-sections précédentes, on arrive au théorèmesuivant.

Théorème 2.3. [Théorème de réduction de Jordan] Soit E un C-espace vectorielde dimension finie strictement positive et f ∈ End(E) un endomorphisme de E despectre S. Il existe une décomposition de E

E =⊕λ∈S

en sous-espaces stables généralisés et des choix de bases de chacun des Eλ tels que lamatrice de f relativement à ce choix de base soit diagonale par blocs de taille m×mde la forme

λ 1 0 · · · · · · 00 λ 1 · · · 00 0 λ · · · · · · 0

······

· · · · · · 00 0 · · · λ 10 0 · · · · · · 0 λ

41

Page 42: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

c’est-à-dire tels que

aij =

λ si i = j

1 si j = i+ 1

0 sinon.

Démonstration. D’après le théorème 2.1, il suffit de montrer qu’il existe une base deEλ telle que la matrice de f restreinte à Eλ soit diagonale par blocs de la forme

λ 1 0 · · · · · · 00 λ 1 · · · 00 0 λ · · · · · · 0

······

· · · · · · 00 0 · · · λ 10 0 · · · · · · 0 λ

.

L’endomorphisme f − λ Id est un endomorphisme nilpotent de Eλ donc admet unebase adaptée d’après la proposition 2.23 telle que sa matrice dans cette base soitdiagonale par blocs de la forme

0 1 0 · · · · · · 00 0 1 · · · 00 0 0 · · · · · · 0

······

· · · · · · 00 0 · · · 0 10 0 · · · · · · 0 0

.

Dans cette base, la matrice de λ Id est la matrice (λδij) car cette matrice est lamatrice de λ Id dans toutes les bases. La matrice de f est donc la matrice

λ 1 0 · · · · · · 00 λ 1 · · · 00 0 λ · · · · · · 0

······

· · · · · · 00 0 · · · λ 10 0 · · · · · · 0 λ

comme voulu.

En utilisant la proposition 2.22 plutôt que la proposition 2.23, on obtient le théo-rème suivant qui est un peu moins précis mais souvent suffisant pour les applications.

Théorème 2.4. Soit E un C-espace vectoriel de dimension finie strictement positiveet f ∈ End(E) un endomorphisme de E de spectre S. Il existe une décomposition deE

E =⊕λ∈S

en sous-espaces stables généralisés et des choix de bases de chacun des Eλ tels que lamatrice de f relativement à ce choix de base soit diagonale par blocs de taille m×m

42

Page 43: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

de la forme λ ∗ ∗ · · · · · · ∗0 λ ∗ · · · ∗0 0 λ · · · · · · ∗··

····

· · · · · · ∗0 0 · · · λ ∗0 0 · · · · · · 0 λ

c’est-à-dire tels que

aij =

{λ si i = j

0 si i > j.

Démonstration. Même démonstration que pour le théorème 2.3 mais en invoquantla proposition 2.22 plutôt que la proposition 2.23.

2.3.9 Trace et déterminant d’un endomorphisme

Définition 2.24. Soit E un C-espace vectoriel de dimension finie n strictementpositif et f ∈ End(E) un endomorphisme de spectre S. La trace tr(f) de f est lasomme des valeurs propres de f comptées avec multiplicité et le déterminant det(f)de f est le produit des valeurs propres de f comptées avec multiplicité.

Si

µf =n∑s=0

asXs =

∏λ∈S

(X − λ)

est le polynôme caractéristique µf , la trace de f est égale à −an−1 et le déterminantde f est (−1)na0.

Lemme 2.25. Un endomorphisme f est bijectif si et seulement si det(f) 6= 0. Sidet(f) 6= 0, l’inverse de f est un polynôme d’endomorphismes en f .

Démonstration. Un endomorphisme est bijectif si et seulement si 0 n’appartient pas àson spectre. D’après le théorème de Cayley-Hamilton, le polynôme d’endomorphismes

µf (f) =n∑s=0

asfs

est nul. Lorsque det(f) 6= 0, il en résulte que

Id = − 1

a0f

(n−1∑s=0

as+1fs

)et donc que l’inverse de f est un polynôme d’endomorphismes.

Définition 2.26. Soit M = (aij) ∈ Mn(K) une matrice. La trace tr(M) de M estla somme de ses coefficients diagonaux.

tr(M) =n∑i=1

aii

43

Page 44: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Proposition 2.27. Soit A = (aij) ∈ Mn(K) et B = (bij) ∈ Mn(K) deux matrices.Alors

tr(AB) = tr(BA).

Démonstration. Soit AB = (cij) et BA = (dij). Alors

tr(AB) =n∑i=1

cii =n∑i=1

n∑k=1

aikbki

=n∑k=1

n∑i=1

bkiaik =∑k=1

dkk = tr(BA).

Corollaire 2.28. Soit f un endomorphisme d’un K-espace vectoriel. Le scalairetr(f) défini comme étant la trace de la matrice de f relativement à un choix quel-conque de base est bien défini et est égal à la trace de f lorsque K = C.

Démonstration. Soit en effet M(f) et N(f) les matrices de f relativement à deuxchoix de bases. Alors N(f) = P−1M(f)P pour P une matrice de passage. Donctr(N(f)) = tr(P−1M(f)P ) = tr(M(f)P−1P ) = tr(M(f)). Si K = C, il existe unebase dans laquelle les termes diagonaux de la matrice de f sont les valeurs propresde f comptées avec multiplicité. La dernière assertion est donc vraie.

Ce corollaire démontre en particulier que si f est un endomorphisme d’un C-espacevectoriel dont la matrice dans une certaine base est à coefficients rationnels ou réels,alors il en est de même de sa trace. Ceci n’était pas évident en utilisant la définitionde la trace comme somme des valeurs propres de f et n’est pas évident non plus pourle déterminant de f .

Proposition 2.29. Soit f un endomorphisme de C2 dont la matrice dans une base

est(a bc d

). Alors la trace de f est a+d et le déterminant de f est ad−bc. Autrement

dit, le polynôme caractéristique de f est le polynôme

µf = X2 − (a+ d)X + (ad− bc).

Démonstration. L’endomorphisme f admet λ comme valeur propre si et seulement

s’il existe un vecteur u =

(xy

)non-nul propre pour la valeur propre λ donc si et

seulement si le système{ax+ by = λx

cx+ dy = λy⇔

{(a− λ)x+ by = 0

cx+ (d− λ)y = 0(2.3.4)

admet une solution non-nulle donc si et seulement si

(a− λ)(d− λ)− bc = λ2 − (a+ d)λ+ (ad− bc) = 0.

Les valeurs propres de f , qui sont par définition les racines du polynôme unitaireµf , sont donc les racines du polynôme unitaire λ2 − (a + d)λ + (ad − bc). Ces deuxpolynômes unitaires sont donc égaux. Toutes les assertions de la proposition en ré-sultent.

44

Page 45: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

2.3.10 Réduction des endomorphismes rationnels ou réels

Dans cette sous-section, on suppose que K = Q ou que K = R et que f est un endo-morphisme d’un K-espace vectoriel E de dimension finie strictement positive. Nousavons vu que dans ce cas, il est tout à fait possible que f n’admette pas de vecteurpropre et donc qu’il ne puisse être réduit comme dans les sous-sections précédentes.Néanmoins, f s’étend par linéarité dans ce cas à un endomorphisme du C-espacevectoriel F de même dimension que E obtenu en considérant les combinaisons li-néaires complexes d’une base de E. En tant qu’endomorphisme de F , f admet uneréduction de Jordan. Dans la démonstration de cette réduction, nous avons utilisédeux ingrédients fondamentaux :

1. Le fait que F se décompose en sous-espaces propres généralisés.

2. Le fait qu’un endomorphisme nilpotent admet une base adaptée.

Le second de ces deux faits est général et demeure donc vraie pour E. Le premier enrevanche utilise de manière cruciale le fait qu’un polynôme à coefficients complexesadmet une racine complexe, mais aucune autre propriété du corps C. Il résulte decette discussion que f admet une décomposition de Jordan sur E à la conditionsuffisante (et bien sûr nécessaire) que toutes ses valeurs propres en tant qu’endomor-phisme de F soit dans K.

3 Déterminants

A la fin de la section précédente, nous avons vu que la trace d’un endomorphismed’un espace vectoriel complexe admettant une matrice à coefficients réels était réelleet avons soulevé une question similaire pour le déterminant. Nous avons aussi vu

que le déterminant d’un endomorphisme de C2 de matrice(a bc d

)est ad − bc, qui

est exactement la quantité qui apparaît dans la résolution des systèmes d’équationslinéaires. L’objectif de cette section est de généraliser ces propriétés à la dimensionn.

3.1 Formes linéaires, multilinéaires

3.1.1 Formes linéaires

Définition 3.1. Soit E un K-espace vectoriel. Une forme linéaire de E est un élé-ment de Hom(E,K), c’est-à-dire une application linéaire à coefficients dans K.

La projection selon la première coordonnées dans la base canonique de Kn et plusgénéralement la projection selon une coordonnée quelconque sont des formes linéairesde Kn. L’application qui a un polynôme associe son n-ième coefficient est une formelinéaire de K[X]. L’évaluation x 7→ f(x) en x ∈ U fixé est une forme linéaire del’espace vectoriel Cn(U,R) (pour U un ouvert de R).

45

Page 46: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Proposition 3.2. L’ensemble E∗ des formes linéaires de E est un espace vectoriel.Supposons E de dimension finie égale à n et soit (bi)1≤i≤n une base de E. Il existeune unique famille (b∗i )1≤i≤n de formes linéaires vérifiant

∀(i, j) ∈ {1, · · · , n}2, b∗i (bj) = δij =

{1 si i = j

0 sinon.

La famille (b∗i )1≤i≤n est une base de E∗. En particulier, l’espace vectoriel E∗ est dedimension n. L’application

ev : E −→ E∗∗

u 7−→ (f 7→ f(u))

est un isomorphisme d’espaces vectoriels entre E et E∗∗.

Démonstration. L’ensemble E∗ est Hom(E,K) donc est un espace vectoriel et il estde dimension n lorsque dimE = n. Soit i ∈ {1, · · · , n}. La forme linéaire b∗i estdéfinie en posant

b∗i

(n∑j=1

αjbj

)= αj.

Le fait que (bi) soit une base implique alors que b∗i est bien défini (car un vecteuru admet une unique décomposition comme combinaison linéaire des bi) et la défini-tion d’une combinaison linéaire montre alors que b∗i est une application linéaire. Parconstruction, b∗i vérifie bien b∗i (bj) = δij pour tout j ∈ {1, · · · , n}. Pour montrer queles b∗i forment une base, il suffit de montrer qu’il forme une famille libre. Soit donc

f =n∑i=1

αib∗i = 0

une combinaison linéaire nulle des b∗i . Alors f(ej) = αj = 0 donc tous les αi sontnuls.

Considérons enfin l’application

ev : E −→ E∗∗

u 7−→ (f 7→ f(u))

de E dans E∗∗. Soit (u, v, λ) ∈ E2 × K et f ∈ E∗. Alors ev(u + v)(f) = f(u +v) = f(u) + f(v) = (ev(u) + ev(v))(f) donc ev(u + v) = ev(u) + ev(v). De mêmeev(λu)(f) = f(λu) = λf(u) = λ ev(u)(f) donc ev(λu) = λ ev(u). Donc ev est uneapplication linéaire. Soit u ∈ E non nul. Alors u appartient à une base donc il existeune forme linéaire u∗ vérifiant u∗(u) = 1 donc ev(u)(u∗) 6= 0 donc ev(u) 6= 0. Parcontraposition, ev est donc injective. Les dimensions de E et E∗∗ étant égale, ev estun isomorphisme d’espaces vectoriels.

L’espace vectoriel E s’appelle l’espace vectoriel dual de E et la base (b∗i ) s’appellela base duale de (bi). Notons que la construction de b∗i dépend du choix de tousles bj, si bien qu’à strictement parler on devrait plutôt écrire b∗,(bj)i . Le noyau d’uneforme linéaire d’un espace vectoriel de dimension finie n est un espace vectoriel dedimension n − 1 d’après le théorème du rang et s’appelle un hyperplan de E (paranalogie avec les plans dans R3).

46

Page 47: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

3.1.2 Formes bilinéaires

Définition 3.3. Soit E un K-espace vectoriel. Une forme bilinéaire de E est uneapplication

(·|·) : E × E −→ K

qui est linéaire par rapport aux deux variables ; c’est-à-dire que pour tout (u, v) ∈ E2,les applications (u|·) et (·|v) sont des formes linéaires.

Une forme bilinéaire est symétrique lorsque (u|v) = (v|u) pour tout (u, v) ∈ K2.Elle est antisymétrique lorsque (u|v) = −(v|u) pour tout (u, v) ∈ K2. Elle est définielorsque (u|u) 6= 0 pour tout u ∈ K.

3.1.3 Formes multilinéaires

Définition 3.4. Soit E un K-espace vectoriel. Une forme n-linéaire de E est uneapplication

ψ(·, · · · , ·) : En −→ K

qui est linéaire par rapport aux n variables ; c’est-à-dire que pour tout j et pour tout(ui)1≤i≤n−1 ∈ En−1, l’application

ψj : E −→ K

uj 7−→ ψ(u1, · · · , uj, · · · , un−1)

est une forme linéaire. Une forme multilinéaire est une forme n-linéaire pour uncertain n.

Une forme n-linéaire ψ est symétrique lorsque pour tout (i, j) ∈ {1, · · · , n}2 ettoute famille (us)1≤s≤n de E,

ψ(u1, · · · , ui, · · · , uj, · · · , un) = ψ(u1, · · · , uj, · · · , ui, · · · , un).

Une forme n-linéaire ψ est antisymétrique lorsque pour tout (i, j) ∈ {1, · · · , n}2 ettoute famille (us)1≤s≤n de E,

ψ(u1, · · · , ui, · · · , uj, · · · , un) = −ψ(u1, · · · , uj, · · · , ui, · · · , un). (3.1.1)

Une forme n-linéaire est alternée lorsque ψ(u1, · · · , un) = 0 dès lors que ui = uj pouri 6= j.

Lemme 3.5. Une forme n-linéaire alternée est antisymétrique. Si K = Q,R ou C,une forme multilinéaire antisymétrique est alternée.

Démonstration. Soit ψ une forme multilinéaire. Supposons ψ alternée et fixons unepaire d’indices (i, j). La forme bilinéaire φ obtenue en fixant toutes les vecteurs saufceux d’indices i ou j est alternée, et il suffit de montrer qu’elle est antisymétrique.Or

0 = φ(u+ v, u+ v) = φ(u, v) + φ(v, u)

47

Page 48: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

par bilinéarité de φ. Supposons réciproquement ψ antisymétrique. L’équation (3.1.1)appliquée à ψ(u1, · · · , ui, · · · , ui, · · · , un) implique

ψ(u1, · · · , ui, · · · , ui, · · · , un) = −ψ(u1, · · · , ui, · · · , ui, · · · , un)

et donc 2ψ(u1, · · · , ui, · · · , ui, · · · , un) = 0. Si K = Q,R ou C, ceci entraîne

ψ(u1, · · · , ui, · · · , ui, · · · , un) = 0.

Proposition 3.6. Soit K = Q,R ou C. Soit E un K-espace vectoriel de dimensionfinie n strictement positive. Soit ψ une forme n-linéaire alternée. Soit (ui)1≤i≤n unefamille de vecteurs de E. Alors ψ((ui)) 6= 0 seulement si (ui) est une base.

Les formes n-linéaires alternées non-nulles (si elles existent) ont donc la faculté dedétecter les bases.

Démonstration. Il suffit de montrer que ψ((ui)) 6= 0 seulement si (ui) est libre.Montrons la contraposée et supposons que la famille (ui) est liée. Il existe alors unecombinaison linéaire nulle

n∑i=1

αiui = 0

des ui dont tous les coefficients ne sont pas nuls et dont on peut donc supposer sansperte de généralité que les coefficients αj est égal à 1. Donc

ψ((ui)) = ψ

(u1, · · · ,−

∑i 6=j

αiuu, · · · , un

)= −

∑i 6=j

αiψ(u1, · · · , ui, · · · , un)

Pour tout i 6= j, deux des vecteurs de (u1, · · · , ui, · · · , un) sont égaux car ui est enposition j. Donc ψ(u1, · · · , ui, · · · , un) = 0 et il en est donc de même pour ψ((ui)).

Cette proposition admet une réciproque qui est néanmoins nettement plus difficileà démontrer. Commençons par une définition.

Définition 3.7. Soit σ ∈ Sn une permutation, c’est-à-dire une bijection de {1, · · · , n}vers lui-même. Soit n(σ) le nombre d’échange nécessaires pour transformer le n-uplet(σ(1), σ(2), · · · , σ(n)) en (1, 2, · · · , n) si l’on procède de la manière suivante : si les jpremiers éléments sont dans l’ordre voulu, on échange si nécessaire j+1 et σ(j+1).Soit ε(σ) l’entier (−1)n(σ).

Par exemple, si σ est la permutation telle que (σ(1), σ(2), σ(3)) soit égal à (2, 3, 1),alors le procédé de la définition 3.7 transforme (2, 3, 1) en (1, 3, 2) puis en (1, 2, 3)donc nécessite deux échanges. Donc ε(σ) = (−1)2 = 1. Si maintenant σ est lapermutation (1, 3, 5, 2, 4), le procédé de la définition 3.7 transforme (1, 3, 5, 2, 4) en(1, 2, 5, 3, 4) puis en (1, 2, 3, 5, 4) puis en (1, 2, 3, 4, 5) donc nécessite 3 échanges. Doncε(σ) = (−1)3 = −1. On peut démontrer que ε(σ) ne dépend en fait pas de la façonde réarranger le n-uplet (σ(1), · · · , σ(n)) mais nous n’aurons pas besoin de ce fait.

48

Page 49: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Proposition 3.8. Soit K = Q,R ou C. Soit E un K-espace vectoriel de dimensionfinie n strictement positif. Soit ψ une forme n-linéaire alternée. Si ψ est non-nulle,alors ψ((bi)) 6= 0 si et seulement si (bi) est une base. Plus précisément, si (bi) est unebase, l’application ψ 7→ ψ((bi)) est une injection de l’ensemble des formes n-linéairesalternées vers K.

Démonstration. Supposons ψ non-nulle. Il existe alors une famille (ci) de vecteurstelle que ψ((ci)) 6= 0 et cette famille est nécessairement une base. Soit (bi) une autrefamille de vecteurs. Nous savons déjà que ψ((bi)) 6= 0 seulement si (bi) est une base.Réciproquement, supposons que (bi) soit une base. Pour tout j, cj peut alors s’écrire

cj =n∑i=1

γijbi

dans la base des (bi). Donc

ψ((ci)) = ψ

(n∑i=1

γi1bi, · · · ,n∑i=1

γijbj, · · · ,n∑i=1

γinbi

).

Développons cette expression en utilisant la linéarité par rapport à chaque variableet en indexant les indices eux-mêmes.

ψ((ci)) = ψ

n∑i1=1

γi11bi1 , · · · ,n∑

ij=1

γijjbij , · · · ,n∑

ni=1

γinnbin

Donc

ψ((ci)) =n∑

i1=1

γi11ψ

bi1 , n∑i2=1

γi22bi2 , · · · ,n∑

ij=1

γijjbij , · · ·n∑

in=1

γinnbi

et plus généralement

ψ((ci)) =n∑

i1=1

· · ·n∑

in=1

(n∏j=1

γijjψ((bij))

). (3.1.2)

La forme n-linéaire ψ étant alternée, ψ((bij)) = 0 sauf si tous les ij sont distincts,ou de manière équivalente sauf si j 7→ ij est une bijection σ de l’ensemble {1, · · · , n}vers lui-même. Les termes non-nuls de la somme du membre de droite de (3.1.2) sontdonc les termes de la forme

n∏j=1

γσ(j)jψ((bσ(j)j))

où γ est une bijection de {1, · · · , n}2. Notons Sn l’ensemble de ces bijections. Alors

ψ((ci)) =∑σ∈Sn

n∏j=1

γσ(j)jψ((bσ(j))).

49

Page 50: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Maintenant, on peut réordonner les bσ(j) en permutant, si nécessaire, bσ(1) avec b1, puisbσ(2) avec b2 et ainsi de suite. Comme dans la définition 3.7, notons ε(σ) ∈ {−1, 1}le signe tel que

ψ((bσ(j))) = ε(σ)ψ((bj))

par le procédé de cette définition. On obtient finalement

ψ(c1, c2, · · · , cn) =

(∑σ∈Sn

ε(σ)n∏j=1

γσ(j)j

)ψ(b1, b2, · · · , bn).

Donc ψ(b1, · · · , bn) 6= 0.Pour montrer, la dernière assertion, il suffit de remarquer que si ψ((bi)) = φ((bi))

alorsψ((ci)) = 0 = φ((ci))

pour toute famille liée (ci) tandis que

ψ((ci)) =

(∑σ∈Sn

ε(σ)n∏j=1

γσ(j)j

)ψ(b1, b2, · · · , bn) =

(∑σ∈Sn

ε(σ)n∏j=1

γσ(j)j

)φ(b1, b2, · · · , bn)

et

φ((ci)) =

(∑σ∈Sn

ε(σ)n∏j=1

γσ(j)j

)φ(b1, b2, · · · , bn)

pour toute famille libre (ci).

3.2 Déterminants

Nous sommes en position de définir le déterminant d’une matrice carrée et d’unendomorphisme.

3.2.1 Déterminant d’une matrice

Soit n un entier strictement positif, K le corps Q,R ou C et soit M = (aij) ∈∈Mn(K).

Définition 3.9. La déterminant de M est le scalaire

det(M) =∑σ∈Sn

ε(σ)n∏j=1

aσ(j)j.

Le déterminant d’une famille (bi) de vecteurs de Kn est le déterminant de la matricedont les vecteurs colonnes sont les bi.

50

Page 51: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Exemples :

1. Soit M = a ∈M1(K) ' K. Alors det(M) = a.

2. Soit M = (mij) =

(a bc d

)∈M2(K). Alors

det(M) = mσ(1)1mσ(2)2 −mτ(1)1mτ(2)2

pour σ égal à l’identité et τ l’unique autre bijection de {1, 2} vers lui-même, àsavoir τ(1) = 2 et τ(2) = 1. Donc

det(M) = ad− bc.

3. Soit M = (δij) la matrice de l’identité. La seule bijection σ de {1, · · · , n} verslui-même telle que

n∏j=1

δσ(j)j 6= 0

est l’identité et dans ce cas, ce produit vaut 1 donc det(M) = 1. Plus généra-lement, le déterminant de M = (λδij) est égal à λn. Plus généralement encore,si M est une matrice diagonale avec des λi sur la diagonale, alors

det(M) =n∏i=1

λi.

4. Plus généralement encore, la seule permutation qui vérifie σ(i) ≤ i pour touti ∈ {1, · · · , n}2 ou σ(i) ≥ i pour tout i ∈ {1, · · · , n}2 est l’identité donc

det(M) =n∏i=1

λi

si M est triangulaire supérieure ou triangulaire inférieure avec des λi sur ladiagonale.

3.2.2 Propriétés fondamentales du déterminant

Définition 3.10. Soit n un entier strictement supérieur à 1. Soit A = (aij) ∈Mn(K). Pour (k, `) ∈ {1, · · · , n}n, la matrice Ak` est la matrice (aij)i 6=k,j 6=` ∈Mn−1(K).

Théorème 3.1. Soit n un entier strictement positif. L’application φn qui à A ∈Mn(K) associe a si n = 1 et A = (a) et qui associe à A

φn(A) =n∑i=1

(−1)i+1a1iφn−1(A1i)

si n > 1 et A = (aij) est une forme multilinéaire alternée égale à 1 en la matrice del’identité. De plus, φn = det pour tout n > 0.

51

Page 52: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Démonstration. Nous démontrons toutes les assertions par récurrence. Elles sonttoutes vraies si n = 1. Supposons maintenant que n soit strictement supérieur à 1et que toutes les assertions au sujet de φn−1 soient vraies pour toutes les matricesM ∈ Mn−1(K). Supposons toutes les colonnes fixées sauf la colonne j qui est égaleau vecteur u. Alors

φn(u1, · · · , λuj, · · · , un) = φ(λjA) =n∑i=1

(−1)i+1λija1iφn−1(λjA1i) = λφn(A)

où λjA est la matrice égale à A sauf en la colonne j où elle est égale à λuj et oùλij = 1 sauf en i = j ou λij = λ. De même, soit v un vecteur.

φn(u1, · · · , u+ v, · · · , un) =n∑i=1

(−1)i+1(a+ b)1iφn−1((A+B)1i) = φn(A) + φn(B)

où B est la matrice égale à A sauf en la colonne j où elle est égale à v. L’applicationφn est donc multilinéaire. Enfin, si deux colonnes (disons k et `) sont égales, alorsles colonnes k et ` sont encore égales dans Aij pour tout ij donc φn−1(Aij) = 0. Il enest donc de même pour φn(A) et φn est alternée. Enfin

φn(Idn) = φn−1(Idn−1) +n∑i=2

(−1)i+1a1iφn−1(A1i)

et a1i = 0 pour i > 1 donc φn(Idn) = φ(Idn−1) = 1.D’après la proposition 3.8, il existe une unique forme n-linéaire alternée égale à 1

en la base canonique de Kn et cette forme vérifie

φn(A) =∑σ∈Sn

ε(σ)n∏i=1

aσ(i)i

si A est la matrice d’une famille (bi) dans la base canonique. Donc φn = det.

Exemple : Le déterminant de la matricea b cd e fg h i

est égal à aei− afh− bdi+ bfg + cdh− ceg.

Nous avons maintenant deux définitions potentielles du déterminant d’une matricecarrée. D’une part on peut utiliser la définition 3.9, ou bien on peut choisir unendomorphisme de Cn dont la matrice dans la base canonique de Cn estM et calculerdet(f). Les calculs précédents montrent que ces deux définitions coincident lorsqueM est une matrice triangulaire supérieure ou bien lorsque n = 2. Le théorème suivantassure qu’il en est toujours ainsi.

52

Page 53: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Théorème 3.2. L’application

det : Mn(K) −→ K

(aij) 7−→∑σ∈Sn

ε(σ)∏i=1

aσ(i)i

vue comme application de (Kn)n est l’unique forme n-linéaire alternée égale à 1en la matrice de l’identité. Cette application vérifie det(AB) = det(A) det(B) pourtout (A,B) ∈ Mn(K) et det(A−1) = (det(A))−1 pour tout A ∈ GLn(K). Soit f unendomorphisme de Cn et M(f) sa matrice relativement à un choix quelconque debase. Alors det(f) est égal à det(M(f)).

Démonstration. D’après le théorème 3.1, l’application det est une forme n-linéairealternée valant 1 en la base canonique de Kn. D’après la proposition 3.8, c’est doncl’unique telle forme.

Soit (A,B) ∈ Mn(K)2. Soit A n’est pas inversible et alors AB ne l’est pas nonplus et donc det(AB) et det(A) det(B) sont tous les deux nuls. Soit A est inversible.L’application

det(A−)/ det(A) : Mn(K) −→ K

B 7−→ det(AB)/ det(A)

est alors une forme n-linéaire alternée non-nulle de valeur 1 en l’identité In. D’aprèsla proposition 3.8, les formes linéaires alternées det(A−)/ det(A) et det sont doncégales.

Soit A ∈ GLn(K). Alors det(AA−1) = 1 et det(AA−1) = det(A) det(A−1) doncdet(A−1) = (det(A))−1. En particulier, det(M) = det(P−1MP ) pour toute matriceinversible P et donc le déterminant le scalaire det(M(f)) est bien défini pour toutf ∈ End(Kn). Soit M(f) la matrice relativement à la base telle que M(f) soittriangulaire supérieure de diagonale égale au spectre de f . Le le déterminant deM(f) est alors égal au déterminant de f .

Ce théorème met en particulier sur le plan le déterminant et la trace d’un endo-morphisme.

3.2.3 Développement en ligne et en colonne

Définition 3.11. La transposée tA d’une matrice A = (aij) ∈ Mn,m(K) est la ma-trice (taij) = (aji) ∈Mm,n(K).

Lemme 3.12. Soit (A,B) ∈ Mn(K)2. Alors t(AB) = tB tA. En particulier, si A ∈Mn(K) est inversible alors tA est inversible et (tA)−1 = t

(A−1).

Démonstration. Soit A = (aij), B = (bij) et AB = (cij).

(cji) =n∑k=1

ajkbki =n∑k=1

bkiajk =n∑k=1

tbiktakj = (bji)(aji)

Si A est inversible, alors AA−1 = Idn donc t(A−1) tA = tIdn = Idn donc tA est

inversible et (tA)−1 = t(A−1).

53

Page 54: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Proposition 3.13. Soit A ∈Mn(C). Alors det(A) = det(tA).

Démonstration. Soit f l’endomorphisme représenté par A dans la base canoniquede Cn. Il existe une base de Cn dans laquelle la matrice M = P−1AP de f esttriangulaire supérieure. Si l’on nomme λi les éléments de la diagonale, det(A) est égalau produit des λi. La matrice N = tM est alors triangulaire inférieure avec les λi surla diagonale et donc det(N) = det(M). Par ailleurs, N =

tP−1(P−1AP ) = tP tA

tP−1

donc det(N) = det(tA).

Corollaire 3.14. Pour toute ligne i

det(A) =n∑j=1

(−1)i+jaij det(Aij) (3.2.1)

et pour toute colonne j

det(A) =n∑i=1

(−1)i+jaij det(Aij). (3.2.2)

On appelle l’équation (3.2.1) le développement de det(A) relativement à la ligne iet l’équation (3.2.2) le développement de det(A) relativement à la colonne j

Démonstration. Le développement en colonne de det(A) relativement à la colonnej est le développement en ligne de det(tA) = det(A) relativement à la ligne j. Ilsuffit donc de démontrer la première assertion. Elle est vraie pour i = 1 d’après lethéorème 3.1. Supposons qu’elle soit vraie pour i− 1 ≥ 1 et soit B la matrice de lafamille de vecteurs égale à la famille des vecteurs de colonne de tA mais avec bi−1 etbi permutés. Alors det(A) = det(tA) = − det(B) = − det(tB). D’après l’hypothèsede récurrence, on peut calculer det(B) par un développement selon la ligne i−1 donc

det(B) =n∑i=1

(−1)i+j−1aij det(Aij).

Donc

det(A) =n∑i=1

(−1)i+jaij det(Aij).

3.3 Lien avec l’inversion et les systèmes linéaires

Définition 3.15. Soit A = (aij) ∈ Mn(K) une matrice. La co-matrice A∗ de A estla matrice a∗ définie par

a∗ij = (−1)i+j det(Aij).

Le corollaire 3.14 a la conséquence suivante.

54

Page 55: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Proposition 3.16. Soit A ∈Mn(K) une matrice. Alors A est inversible si et seule-ment si det(A) 6= 0. Dans ce cas, son inverse est la matrice

1

det(A)tA∗ = (bij)

définie par

bij = (−1)i+j det(Aji)det(A)

Démonstration. En effet, le terme (i, j) de A tA∗ est donné par

n∑k=1

(−1)j+kaik det(Ajk)

donc est d’après le corollaire 3.14 égal au déterminant de la matrice dont toutesles lignes sont égales à celles de A sauf la ligne j qui est remplacé par la lignei de A (développé selon la ligne i). Lorsque i 6= j, cette matrice a deux lignesidentiques et son déterminant est donc nul. Lorsque i = j, cette matrice est égaleà A et son déterminant est donc égal à det(A). On a donc bien bij = δij et A−1 =tA∗/ det(A).

Exemple : Soit M la matrice 1 2 35 0 −12 2 2

.

Alors det(M) = 8 donc M est inversible et son inverse est égal à

M−1 =1

8

2 2 −2−12 −4 1610 2 −10

.

Soit N la matrice 1 −2 −2 0−1 2 0 01 −1 0 01 0 0 1

.

Alors det(N) = 2 donc N est inversible et son inverse est égal à

N−1 =1

2

0 2 4 00 2 2 0−1 −1 0 00 −2 −4 2

.

55

Page 56: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Corollaire 3.17. Le système d’équations linéaires à n équations et n inconnuesa1,1x1 + a1,2x2 + · · ·+ a1,nxn = u1

a2,1x1 + a2,2x2 + · · ·+ a2,nxn = u2

· · ·an,1x1 + an,2x2 + · · ·+ an,nxn = un

(3.3.1)

admet une unique solution si et seulement si det(aij) 6= 0. Lorsque det(aij) 6= 0,l’unique solution (xi) de (3.3.1) est

xi =1

det(A)

n∑k=1

(−1)i+k det(Aki)uk.

Donc xi = det(bk`) pour

bk` =

{ak` si ` 6= i

uk si ` = i.

Démonstration. Le système (3.3.1) admet une unique solution si et seulement sil’équation matricielle

AX = U

admet une unique solution donc si et seulement si A = (aij) est une matrice inversibledonc si et seulement si det(aij) 6= 0. Lorsque A est inversible, l’unique solution deAX = U est X = A−1U donc X = (xi) avec

xi =1

det(A)

n∑k=1

(−1)i+k det(Aki)uk

d’après la proposition 3.16. D’après le corollaire 3.14, xi est donc égal au déterminantde la matrice dont toutes les colonnes sont égales à A sauf la colonne i qui est égaleà U (développé selon la colonne i) divisé par le déterminant de A.

Exemple : Soit (S) le système d’équations linéaires3x1 + 3x2 + 3x3 = u1

−2x1 − x2 − 2x3 = u2

3x1 + 3x2 + 2x3 = u3

correspondant à l’équation AX = U . Alors det(aij) = −3 donc (S) admet une uniquesolution donnée par

x1 = −13(4u1 + 3u2 − 3u3)

x2 =13(2u1 + 3u2)

x3 = u1 − u3.

Il est important de remarquer que le déterminant est un outil théorique intéressantpour résoudre les systèmes mais qu’en pratique il ne faut jamais l’utiliser. En effet,la méthode de résolution nécessite de calculer n + 1 déterminants pour résoudre unsystème de n équations, et ceci requiert toujours beaucoup plus de calculs que laméthode par réduction.

56

Page 57: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

3.4 Lien avec la réduction

Définition 3.18. Une fonction polynomiale P à valeurs dans K est une fonction deK vers K telle qu’il existe des scalaires (as)0≤s≤n tels que

P (λ) =n∑s=0

asλs

pour tout λ ∈ K. Une fonction polynomiale matricielle M est une fonction de Kvers Mn(K) telle qu’il existe des fonctions polynomiales (Pij)1≤i,j≤n telles que

M(λ) = (Pij(λ))ij ∈Mn(K)

pour tout λ ∈ K.

A tout polynôme P ∈ K[X] est associé la fonction polynomiale λ 7→ P (λ) que l’onnote également P par abus de notation.

Proposition 3.19. La fonction polynomiale λ 7→ det(λ Id−f) est égale au polynômecaractéristique µf de f évalué en λ. En particulier, si K = C alors

det(λ Id−f) =∏

µ∈Spec(f)

(λ− µ)

Démonstration. Développons le déterminant det(λ Id−f) (ou bien en utilisant ladéfinition, ou bien selon la première colonne). Il apparaît que le seul terme en λn dudéveloppement est de coefficient 1 (cela se voit par récurrence si le développement estselon la première colonne ou en remarquant que c’est le coefficient correspondant àla bijection identité de {1, · · · , n} si on utilise la définition). La fonction polynomialedet(λ Id−f) est donc une fonction polynomiale unitaire de degré n nulle exactementlorsque λ est une racine de µf . Elle est donc égale à µf (λ).

Corollaire 3.20. Soit f ∈ End(E) un endomorphisme d’un K-espace vectoriel dedimension finie n dont la matrice M dans une base de E est à coefficients dansZ,Q,R ou C. Alors le polynôme caractéristique de f est un polynôme à coefficientsdans Z,Q,R ou C.

Démonstration. En effet, la fonction polynomiale matricielle λ 7→ λ Id−M est alorsà valeurs dans Mn(A) pour A égal à Z,Q,R ou C et det(λ Id−M) est alors unpolynôme à coefficients dans A.

Bien que cette proposition donne un outil théorique intéressant, il est important degarder à l’esprit qu’il ne faut en général pas tenter de déterminer les valeurs propresd’un endomorphisme de cette façon : non seulement cela demande beaucoup plusde calculs que de déterminer les espaces propres en résolvant les systèmes linéairesassociés, mais en plus ou bien l’endomorphisme en question est un endomorphismed’espaces vectoriels de dimension 1 ou 2 (auquel cas il existe une formule directedonnant le polynôme caractéristique) ou bien c’est un endomorphisme d’espaces vec-toriels de dimension n ≥ 3 et alors on ne connaît en général pas de méthode efficacepour trouver les racines de ce polynôme.

57

Page 58: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

4 Espaces vectoriels euclidiens

4.1 Définitions et premières propriétés

4.1.1 Produit scalaire

Définition 4.1. Soit E un R-espace vectoriel. Une forme bilinéaire (·|·) sur E estpositive si (u|u) ≥ 0 pour tout u ∈ E. Elle est définie si (u|u) = 0 seulement siu = 0.

Un espace vectoriel euclidien E est un R-espace vectoriel de dimension finie n munid’une forme (·|·) bilinéaire symétrique, définie et positive. La forme bilinéaire symé-trique définie positive d’un espace vectoriel euclidien est appelé le produit scalaireeuclidien de cet espace. Le produit scalaire d’un vecteur u ∈ E avec lui-même est unréel positif dont la racine carrée est appelée la norme de ce vecteur et est notée ‖u‖.Par définition, la norme d’un vecteur non-nul est un réel strictement positif.

Exemple : L’exemple fondamental d’espace euclidien est l’espace vectoriel Rn munide la forme (·|·) définie par

(u|v) =n∑i=1

uivi

u =n∑i=1

uiei, v =n∑i=1

viei

et (ei)1≤i≤n est la base canonique de Rn. Cet exemple est tellement important quenous le promouvons au rang de théorème de ce cours.

Théorème 4.1. Soit n ≥ 1. L’espace Rn muni de la forme

(·|·) : Rn × Rn −→ R

((ui), (vi)) 7−→n∑i=1

uivi

est un espace vectoriel euclidien.

Démonstration. Il suffit de montrer que (·|·) est une forme bilinéaire symétriquedéfinie positive. Soit donc (u, v, w, λ) ∈ Rn × Rn × Rn × R. Alors

(u+ v|w) =n∑i=1

(ui + vi)wi =n∑i=1

uiwi +n∑i=1

viwi = (u|w) + (v|w)

et

(λu|v) =n∑i=1

λuivi = λ(u|v)

donc (·|·) est une forme bilinéaire. De plus,

(u|v) =n∑i=1

uivi =n∑i=1

viui = (v|u)

58

Page 59: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

donc (·|·) est symétrique. De

(u|u) =n∑i=1

u2i ,

on déduit que (u|u) ≥ 0 et que (u|u) = 0 seulement si tous les ui sont nuls, et doncseulement si u = 0.

Le produit scalaire de Rn du théorème 4.1 est appelé le produit scalaire canoniquede Rn. Notons tout de même que le produit scalaire canonique de Rn n’est pas leseul produit scalaire défini sur Rn qui fasse de Rn un espace vectoriel euclidien. Atitre d’exemple, on peut considérer

< ·, ·> : Rn × Rn −→ R

((ui), (vi)) 7−→n∑i=1

2iuivi

et vérifier qu’il s’agit bien d’une forme bilinéaire symétrique définie positive. Unexemple essentiellement différent est la forme bilinéaire

(P,Q) 7→∫ 1

0

P (x)Q(x)dx

sur l’espace vectoriel Rn[X].La proposition suivante montre que le calcul du produit scalaire de deux vecteurs

peut se faire uniquement à partir de leurs normes et de la norme de leur somme.

Proposition 4.2. Soit E un espace euclidien et soit (u, v) ∈ E2. Alors

(u|v) = ‖u+ v‖2 − ‖u‖2 − ‖v‖2

2.

Démonstration. Par bilinéarité de (·|·), la norme de u+ v vérifie

(u+ v|u+ v) = (u|u) + 2(u|v) + (v|v) = ‖u‖2 + ‖v‖2 + 2(u|v)

et donc(u|v) = ‖u+ v‖2 − ‖u‖2 − ‖v‖2

2.

4.1.2 L’inégalité de Cauchy-Schwarz

Théorème 4.2. Soit E un espace euclidien. Pour tout (u, v) ∈ E2,

|(u|v)| ≤ ‖u‖‖v‖ (4.1.1)

et cette inégalité est une égalité si et seulement si (u, v) est une famille liée.

59

Page 60: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Démonstration. Soit (u, v) ∈ E2. Supposons tout d’abord que l’un des vecteurs uou v est nul. Alors les deux membres de l’inégalité (4.1.1) sont nuls donc l’inégalitéest vraie, est en fait une inégalité et (u, v) est bien une famille liée. Maintenant, onsuppose que l’un des deux vecteurs, disons v, est non-nul. Considérons la fonctionf : R −→ R définie par

f(t) = (u+ tv|u+ tv).

Alorsf(t) = (u|u) + 2t(v|u) + t2(v|v)

donc f est une fonction polynomiale du second degré exactement. La forme bilinéaire(·|·) est définie positive donc f(t) ≥ 0 pour tout t ∈ R et f(t) = 0 si et seulementsi u + tv = 0. Donc 4(u|v)2 − 4(u|u)(v|v) ≤ 0 et 4(u|v)2 − 4(u|u)(v|v) = 0 si etseulement s’il existe t ∈ R tel que u+ tv = 0 ; c’est-à-dire si et seulement si (u, v) estune famille liée. En prenant la racine carrée, on obtient bien

|(u|v)| ≤ ‖u‖‖v‖

avec égalité si et seulement si (u, v) est une famille liée.

Corollaire 4.3. Soit (u, v) ∈ E2. Alors

‖u+ v‖ ≤ ‖u‖+ ‖v‖

avec égalité si et seulement si (u, v) est une famille liée.

Démonstration. Soit (u, v) ∈ E2. Par définition de la norme, linéarité de (·|·) et parl’inégalité (4.1.1) de Cauchy-Schwarz, on obtient

‖u+ v‖2 = (u+ v|u+ v)

= (u|u) + (v|v) + 2(u|v)≤ ‖u‖2 + ‖v‖2 + 2‖u‖‖v‖= (‖u‖+ ‖v‖)2

et on conclut en prenant les racines carrées des deux membres. Ces inégalités sontdes égalités si et seulement si l’inégalité de Cauchy-Schwarz est une égalité donc siet seulement si (u, v) est une famille liée.

4.1.3 Bases orthogonales, orthonormalisation

Définition 4.4. Une famille (bi)1≤i≤m d’un espace vectoriel euclidien de produitscalaire (·|·) est orthogonale si (ei|ej) = 0 si i 6= j. Elle est normale si (ei|ei) = 1 pourtout i. Elle est orthonormale si elle est orthogonale et normale, donc si (ei|ej) = δijpour tout 1 ≤ i, j ≤ m.

La base canonique est orthonormale pour le produit scalaire canonique de Rn. Soit(bi)1≤i≤n une base orthonormale de l’espace vectoriel euclidien E et soit

u =n∑i=1

αibi ∈ E.

60

Page 61: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Alors

‖u‖2 = (u|u) =n∑i=1

n∑j=1

αiαj(bi|bj) =n∑i=1

α2i (4.1.2)

par bilinéarité de (·|·) et orthonormalité de la base (bi). Si u ∈ E est un vecteurnon-nul, alors (u|u) est strictement positif et le vecteur

v =1√(u|u)

u

est donc bien défini. De

(v|v) = (1√(u|u)

u| 1√(u|u)

u) =1

(u|u)(u|u) = 1,

et de (λv|λv) = λ2(v|v) = λ2, on déduit qu’il existe exactement deux vecteurs deVect(u) de norme 1 : à savoir v et −v. Le processus qui associé à u ∈ E non-nul levecteur

v =1

‖u‖u

s’appelle la normalisation et l’on dit que v est le normalisé de u.

Lemme 4.5. Soit (b1, · · · , bm) une famille orthonormale d’un espace euclidien E etsoit

u =m∑i=1

αibi ∈ Vect(bi).

Alors αi = (u|bi) pour tout i et

u =m∑i=1

(u|bi)bi.

En particulier, une famille orthogonale de vecteurs non nuls est libre.

Démonstration. Le vecteur u s’écrit de manière unique sous la forme

u =∑i=1

αibi.

Par bilinéarité de (·|·) et orthonormalité de la base (bi),

(u|bj) =n∑i=1

αi(bi|bj) = αj

pour tout j. La deuxième assertion découle de la première en normalisant les vecteursde la famille orthogonale, ce qui est possible car ils sont non-nuls par hypothèse.

Proposition 4.6. Soit E un espace vectoriel euclidien et (v1, · · · , vm) une famillelibre de E. Il existe alors une base orthonormale (b1, · · · , bm) de Vect(v1, · · · , vm).

61

Page 62: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Démonstration. S’il existe une base orthogonale comme dans la proposition, en nor-maliser les vecteurs produira une base orthonormale comme dans la proposition et laproposition sera donc démontrée. Il suffit donc de montrer qu’il existe une base or-thogonale (b1, · · · , bm) de Vect(v1, · · · , vm). Démontrons le par récurrence surm. Soitm = 1 et la condition d’orthogonalité est vide, donc satisfaite. Supposons mainte-nant que l’espace vectoriel engendré par une familles libre de cardinal au plus m ≥ 1admette une base orthonormale et soit (v1, · · · , vm+1) une famille libre. Il existe unebase orthonormale (bi) de Vect(v1, · · · , vm) par l’hypothèse de récurrence donc il suf-fit de montrer qu’il existe un vecteur non-nul bm+1 orthogonal aux bi tel que vm+1

appartienne à Vect(bi)1≤i≤m+1. Soit

bm+1 = vm+1 −m∑i=1

(vm+1|bi)bi.

. Alors vm+1 appartient à Vect(b1, · · · , bm+1). La famille des vi étant libre, vm+1

n’appartient pas à Vect(v1, · · · , vm) donc à Vect(b1, · · · , bm) donc bm+1 est non-nul.Soit 1 ≤ j ≤ m un entier.

(bm+1|bj) = (vm+1|bj)−m∑i=1

(vm+1|bi)(bi|bj) = (vm+1|bj)− (vm+1|bj) = 0

par bilinéarité de (·|·) et orthonormalité de la famille (bi)1≤i≤m. Donc bm+1 est or-thogonal à tous les bi.

La famille orthonormale que l’on obtient à partir de la famille libre (vi) par leprocédé de la proposition précédente s’appelle la famille de Gram-Schmidt associéeà (vi).

4.1.4 Orthogonal, supplémentaire orthogonal

Définition 4.7. Deux sous-espaces vectoriels F et G d’un espace vectoriel euclidienE sont orthogonaux si (u|v) = 0 pour tout (u, v) ∈ F × G. Ils sont supplémentairesorthogonaux s’ils sont supplémentaires et orthogonaux. L’orthogonal F⊥ d’un sous-espace vectoriel est

{v ∈ E|∀ u ∈ F, (u|v) = 0}.

Tout sous-espace vectoriel G ⊂ E orthogonal à F est par définition inclus dansF⊥.

Proposition 4.8. Deux espaces vectoriels orthogonaux sont en somme directe. Unsous-espace vectoriel F admet comme unique supplémentaire orthogonal F⊥.

Démonstration. Soit E un espace euclidien de dimension n et soit F,G deux sous-espaces. Supposons F et G orthogonaux. Soit u ∈ F ∩G. Alors (u|u) = 0 donc u = 0.Par définition, F⊥ est l’intersection sur u ∈ F des noyaux des formes linéaires (u|·).

F⊥ =⋂u∈F

ker(u|·)

62

Page 63: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Donc F⊥ est un sous-espace vectoriel de E orthogonal à F par construction. D’aprèsla première assertion, F⊥ est donc en somme directe avec F et il suffit pour conclurede montrer que F + F⊥ = E. Soit (bi)1≤i≤m une base de F et (bi, ci) une base deE obtenue en complétant la famille des (bi). Le procédé d’orthnormalisation de laproposition 4.6 produit alors une base (ui, vi) orthonormale de E telle que la famille(ui)1≤i≤m soit une base de F . Il s’ensuit que u ∈ E s’écrit

u =m∑i=1

αiui +n∑

i=m+1

αivi = v + w

avec v ∈ F et w ∈ F⊥ et donc que F + F⊥ = E.

En particulier, l’orthogonal de E tout entier est {0}.

Corollaire 4.9. Soit F ⊂ E un sous-espace vectoriel d’un espace euclidien. Alors(F⊥)⊥ = F .

Démonstration. En effet, F et (F⊥)⊥ sont tous deux l’unique supplémentaire ortho-gonal de F⊥.

Soit F ⊂ E un sous-espace vectoriel d’un espace euclidien. A la décomposition

E = F ⊕ F⊥

est associé un projecteur p ∈ End(E) d’image F et de noyau F⊥. Si u ∈ E s’écrit(nécessairement de manière unique) u = v +w avec v ∈ F et w ∈ F⊥, alors p(u) estégal à v. L’endomorphisme p vérifie donc p2 = p et est en fait l’unique endomorphismede E vérifiant p2 = p, de noyau F⊥ et d’image F . On appelle cet endomorphisme leprojecteur orthogonal de E sur F .

4.2 Endomorphisme adjoint

4.2.1 Définition

Soit E un espace vectoriel euclidien de produit scalaire (·|·).

Proposition 4.10. Soit E un espace vectoriel euclidien. L’application

(|·) : E −→ E∗

u 7−→ (·|u)

est un isomorphisme d’espace vectoriels. En particulier, pour toute forme linéaire φ,il existe un unique vecteur vφ ∈ E tel que φ = (·|vφ).

Démonstration. Par bilinéarité de (·|·), l’application (|·) est linéaire. Comme E etE∗ ont même dimension, il suffit de démontrer que (|·) est une injection et donc queson noyau est nul. Mais (·|u) est la forme linéaire nulle seulement si u = 0 car (·|·)est définie. La deuxième assertion est une reformulation de la première.

63

Page 64: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Théorème 4.3. Soit f ∈ End(E) un endomorphisme de E. Il existe une uniqueendomorphisme f ∗ ∈ End(E) tel que (f(u)|v) = (u|f ∗(v)) pour tout (u, v) ∈ E2.

Démonstration. Soit v ∈ E. L’application u 7→ (f(u)|v) est une forme linéaire doncil existe d’après la proposition 4.10 un unique vecteur w tel que (f(u)|v) = (u|w)pour tout u ∈ E. Posons

f ∗ : E −→ E

v 7−→ w

Il suffit de démontrer que f ∗ est bien une application linéaire. Soit donc (u, v1, v2) ∈E3 et λ ∈ R. Alors

(f(u)|v1+ v2) = (f(u)|v1)+ (f(u)|v2) = (u|f ∗(v1))+ (u|f ∗(v2)) = (u|f ∗(v1)+ f ∗(v2))

donc f ∗(v1 + v2) = f ∗(v1) + f ∗(v2). De même

(f(u), λv1) = λ(f(u), v1) = λ(u, f ∗(v1)) = (u|λf ∗(v1))

donc f ∗(λv1) = λf ∗(v1). Donc f ∗ est un endomorphisme de E.

Définition 4.11. L’endomorphisme f ∗ est appelé l’adjoint de f . Un endomorphismeest dit auto-adjoint s’il est égal à son adjoint, c’est-à-dire si f ∗ = f . Un endo-morphisme est dit orthogonal s’il est inversible d’inverse son adjoint, c’est-à-dire sif ∗ = f−1.

Exemples :

1. L’identité est un endomorphisme auto-adjoint et orthogonal.

2. Les endomorphismes de la forme λ Id sont auto-adjoints. Ils sont orthogonauxsi et seulement si λ ∈ {±1}.

3. Un endomorphisme dont la matrice dans la base canonique de Rn est diagonaleest auto-adjoint pour le produit scalaire canonique. Un tel endomorphisme estorthogonal si et seulement si toutes ses valeurs propres sont égales à 1 ou −1.

4. Soit F ⊂ E un sous-espace vectoriel d’un espace euclidien et soit p le projecteurorthogonal de E sur F . Soit (u, v) ∈ E2 qui s’écrivent respectivement u = p(u)+x et v = p(v) + y avec (x, y) ∈ (F⊥)2. Alors (p(u)|v) = (p(u)|p(v)) = (u|p(v))car (x|p(v)) et (p(u)|y) sont nuls. L’endomorphisme p est donc auto-adjoint.

5. L’endomorphisme dont la matrice dans la base canonique de R2 est(3 22 −5

)est auto-adjoint pour le produit scalaire canonique (mais pas orthogonal).

6. L’endomorphisme dont la matrice dans la base canonique de R2 est(3/5 −4/54/5 3/5

)est orthogonal pour le produit scalaire canonique (mais pas auto-adjoint).

L’opération d’adjonction est une involution linéaire.

64

Page 65: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Proposition 4.12. L’application

∗ : End(E) −→ End(E)

f 7−→ f ∗

est un isomorphisme de l’espace vectoriel End(E) qui est son propre inverse. Si(f, g) ∈ End(E)2, alors (fg)∗ = g∗f ∗. En particulier, la composé de deux endo-morphismes auto-adjoints qui commutent est un endomorphisme auto-adjoint. Si fest auto-adjoint, tout polynôme d’endomorphisme en f est auto-adjoint.

Démonstration. Soit (f, g, λ) ∈ End(E)2 × R et soit (u, v) ∈ E2. Alors

((f + g)(u)|v) = (f(u) + g(u)|v) = (f(u)|v) + (g(u)|v)= (u|f ∗(v)) + (u|g∗(v)) = (u|f ∗(v) + g∗(v))

donc (f + g)∗ = f ∗ + g∗. De même

(λf(u)|v) = λ(f(u)|v) = λ(u|f ∗(v)) = (u|λf ∗(v))

donc (λf)∗ = λf ∗. Donc ∗ est une application linéaire de End(E) vers lui-même.Pour montrer que ∗ est un isomorphisme, il suffit donc de montrer que c’est une

injection. Soit donc f dans le noyau de ∗ et u ∈ E. Alors (u|f ∗(f(u))) = 0 donc(f(u)|f(u)) = 0 donc f(u) = 0. Donc f est l’endomorphisme nul. Enfin, soit (u, v) ∈E2. Alors (f ∗∗(u)|v) = (u|f ∗(v)) = (f(u)|v) donc f ∗∗(u)− f(u) est dans l’orthogonalde E, donc est nul. Donc f ∗∗ = f .

Soit maintenant (f, g) ∈ End(E)2 et (u, v) ∈ E2. Alors (f(g(u))|v) = (g(u)|f ∗(v)) =(u|g∗(f ∗(v))) donc (fg)∗ = g∗f ∗. Si f et g sont auto-adjoints et commutent, alors(fg)∗ = g∗f ∗ = gf = fg donc fg est auto-adjoint. Un polynôme d’endomorphismesen f est une combinaison linéaire de puissances de f donc est auto-adjoint si f l’estpar l’assertion précédente et par linéarité de l’adjonction.

Notons que f est orthogonal si et seulement si (f(u)|f(v)) = (u|v) pour tout(u, b) ∈ E2, donc si et seulement si f préserve le produit scalaire.

Proposition 4.13. Un endomorphisme f est orthogonal si et seulement s’il préservela norme ; c’est-à-dire si et seulement si ‖f(u)‖ = ‖u‖ pour tout u ∈ E. En parti-culier, f est orthogonal si et seulement si l’image d’une base orthonormale par f estune base orthonormale.

Démonstration. Soit u ∈ E et f ∈ End(E). Si f est orthogonal, alors

‖f(u)‖ = (f(u)|f(u)) = (u|u) = ‖u‖

donc f préserve la norme. Réciproquement, supposons que f préserve la norme etsoit (u, v) ∈ E2. Alors

(u|v) = ‖u+ v‖2 − ‖u‖2 − ‖v‖2

2

65

Page 66: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

d’après la proposition 4.2 donc

(f(u)|f(v)) = ‖f(u+ v)‖2 − ‖f(u)‖2 − ‖f(v)‖2

2=‖u+ v‖2 − ‖u‖2 − ‖v‖2

2= (u|v)

par linéarité et orthogonalité de f .Si f est orthogonal et si (ei) est une base orthonormale, alors (f(ei)|f(ej)) =

(ei|ej) = δij donc la famille (f(ei)) est une base orthonormale. Réciproquement, si fenvoie la base orthonormale (ei) sur une base orthonormale (f(ei)), considérons

u =n∑i=1

αiei ∈ E.

Alors ‖u‖2 =n∑i=1

α2i par le calcul de l’équation (4.1.2). Par ailleurs

f(u) =n∑i=1

αif(ei)

par linéarité de f et (f(ei)) est une base orthonormale donc ‖f(u)‖2 =n∑i=1

α2i à

nouveau par l’équation (4.1.2). Donc ‖f(u)‖ = ‖u‖ et f est donc orthogonal d’aprèsla première partie de la preuve.

4.2.2 Matrice adjointe, matrice orthogonale

Proposition 4.14. La matrice de l’endomorphisme adjoint f ∗ d’un endomorphismef d’un espace euclidien E relativement à une base orthonormale est la transposée dela matrice de l’endomorphisme f relativement à cette base.

Démonstration. Soit (bi)1≤i≤n une base orthonormale de l’espace euclidien E, soitf ∈ End(E) un endomorphisme de E et soit M = (aij) la matrice de f relativementà la base (bi). Notons M∗ = (a∗ij) la matrice de l’adjoint f ∗ de f relativement à labase (bi). Par définition, on a alors

f(bj) =n∑i=1

aijbi

et donc aij = (f(bj)|bi). De même

f ∗(bj) =n∑i=1

a∗ijbi

et a∗ij = (f ∗(bj)|bi). Par définition de l’endomorphisme adjoint de f , on a également(f(bj)|bi) = (bj|f ∗(bi)) = (f ∗(bi)|bj) donc aij = a∗ji et M∗ = tM . nous avons montréla proposition suivante.

Corollaire 4.15. Un endomorphisme f de matrice M = (aij)1≤i,j≤n dans une baseorthonormale est auto-adjoint si et seulement si M est égale à sa transposée, ouencore si et seulement si aij = aji pour tout 1 ≤ i, j ≤ n. Il est orthogonal si etseulement s’il est inversible et tM =M−1 ou encore si tMM = Id.

66

Page 67: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

4.3 Réduction des endomorphismes auto-adjoints

4.3.1 Valeur propre

Soit E un espace euclidien et f un endomorphisme de E. L’espace vectoriel E étantun R-espace vectoriel, la réduction de Jordan ne s’applique pas à f et nous ignoronsdonc si f admet une valeur propre (et de fait, il peut très bien ne pas en admettre).La proposition suivante assure que les endomorphismes auto-adjoints admettent unevaleur propre.

Proposition 4.16. Soit f ∈ End(E) un endomorphisme auto-adjoint d’un espaceeuclidien E. Alors f admet un vecteur propre v pour la valeur propre λ ∈ R.

Démonstration. Nous savons (par exemple par le théorème de Cayley-Hamilton) qu’ilexiste un polynôme unitaire P ∈ Rn[X] qui annule f . D’après la proposition 2.4, Padmet une factorisation

P =m∏i=1

(X − λi)p∏i=1

(X2 + αiX + βi)

avec α2i − 4βi < 0 pour tout i. Donc l’endomorphisme

P (f) =m∏i=1

(f − λi Id)p∏i=1

(f 2 + αif + βi Id)

est l’endomorphisme nul de E, donc n’est en particulier pas injectif. Nous voulonsmontrer que l’un des endomorphismes f − λi Id n’est pas injectif. Il suffit donc dedémontrer que les endomorphismes f 2+αif+βi Id sont injectifs pour tout 1 ≤ i ≤ p.Soit donc u ∈ E un vecteur non-nul. Alors

((f 2 + αif + βi Id)(u)|u) = (f 2(u)|u) + αi(f(u)|u) + βi(u|u)= ‖f(u)‖2 + αi(f(u)|u) + βi‖u‖2

D’après l’inégalité (4.1.1) de Cauchy-Schwarz

−(f(u)|u) ≤ ‖f(u)‖‖u‖

donc|αi|(f(u)|u) ≥ −|αi|‖f(u)‖‖u‖

donc

((f 2 + αif + βi Id)(u)|u) ≥ ‖f(u)‖2 − |αi|‖f(u)‖‖u‖+ βi‖u‖2

=

(‖f(u)‖ − |αi|

2‖u‖)2

+

(βi −

α2i

4

)‖u‖2

Donc ((f 2 +αif + βi Id)(u)|u) est la somme d’un carré et du produit du réel stricte-ment positif ‖u‖2 et du réel strictement positif βi− α2

i

4. Donc ((f 2+αif+βi Id)(u)|u)

est strictement positif et (f 2 + αif + βi Id)(u) est donc non-nul.

67

Page 68: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

Proposition 4.17. Soit u et v deux vecteurs propres d’un endomorphisme auto-adjoint f pour des valeurs propres distinctes. Alors (u|v) = 0. Le noyau et l’imagede f sont orthogonaux

Démonstration. En effet (f(u)|v) = λ(u|v) = (u|f(v)) = µ(u|v) donc (λ− µ)(u|v) =0 donc (u|v) = 0. Soit maintenant u dans le noyau et v dans l’image de f . Il existealors w ∈ E tel que v = f(w). Donc (u|v) = (u|f(w)) = (f(u)|w) = (0|w) = 0.

4.3.2 Réduction des endomorphismes auto-adjoints

Nous donnons deux démonstrations légèrement différentes du théorème fondamentalsuivant.

Théorème 4.4. Soit E un espace euclidien et f un endomorphisme auto-adjoint deE. Alors il existe une base orthonormale de E formée de vecteurs propres de f . Demanière équivalente, f est diagonalisable dans une base orthonormale.

Démonstration. Par le théorème de réduction de Jordan, un endomorphisme est dia-gonalisable si et seulement ses espaces propres sont égaux à ses espaces propresgénéralisés. Soit Eλ un espace propre généralisé de f . Alors Eλ est un espace vecto-riel euclidien et f − λ Id est un endomorphisme auto-adjoint nilpotent de f − λ Id.Il suffit donc de démontrer qu’un endomorphisme auto-adjoint nilpotent d’un espacevectoriel euclidien est l’endomorphisme nul. Soit donc f un endomorphisme auto-adjoint nilpotent d’un espace vectoriel euclidien F et soit u ∈ F . Il existe alors un(unique) n ∈ N tel que fn(u) = 0 et fn−1(u) 6= 0. Supposons n > 0. Le vecteurv = fn−1(u) est alors à la fois dans le noyau de f et dans l’image de f . D’après laproposition 4.17, v vérifie donc (v|v) = 0 donc est nul, ce qui contredit la définitionde n. Donc n = 0 donc f(u) = 0. Donc f est l’endomorphisme nul.

Donc E admet une décomposition E =⊕λ

ker(f − λ Id). Chacun des espaces

ker(f −λ Id) admet une base orthonormale d’après la proposition 4.6. L’union de cesbases est une base de E orthonormale de vecteurs propres pour f .

Démonstration. Montrons que E admet une base orthonormale de vecteurs proprespour f par récurrence sur la dimension de E. Soit E est de dimension 1 et n’importequelle base convient. Maintenant on suppose l’assertion vraie pour tous les endo-morphismes auto-adjoints d’espaces euclidiens de dimension au plus n et on supposeque E est de dimension n + 1. D’après la proposition 4.16, f admet un vecteurpropre v que l’on peut normaliser afin qu’il soit de norme 1. Soit u ∈ Vect(v)⊥. Alors(f(u)|v) = (u|f(v)) = (u|λv) = λ(u|v) = 0 donc Vect(v)⊥ est stable par f . Donc Eadmet une décomposition en sous-espaces stables

E = Vect(v)⊥ ⊕ Vect(v).

La restriction de f à Vect(v)⊥ est diagonalisable en base orthonormale par hypothèsede récurrence, donc f est diagonalisable et la base obtenue en ajoutant v à la basede Vect(v)⊥ est bien orthonormale.

68

Page 69: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

5 Réduction de quelques endomorphismes impor-tants

5.1 Projecteur

Dans cette sous-section K désigne Q,R ou C et E désigne un K-espace vectoriel dedimension finie .

5.1.1 Définition et réduction

Définition 5.1. Un endomorphisme p de E est un projecteur s’il vérifie p2 = p.

On dit également que p est idempotent, ou un idempotent.

Proposition 5.2. Soit p un projecteur. Il existe deux sous-espaces vectoriels F etG tels que E = F ⊕ G, F est l’image de p, G est le noyau de p et si u ∈ E s’écritu = v + w avec v ∈ F et w ∈ G alors p(u) = v.

Démonstration. Le polynôme X2 − X s’écrit X2 − X = X(X − 1) dans K[X] etannule p donc l’endomorphisme p est diagonalisable et son spectre est inclus dans{0, 1} d’après la proposition 2.18. Posons F = ker(p−Id) et G = ker p. Alors E s’écritE = F ⊕G. L’endomorphisme p étant diagonalisable, G est également le nilespace dep et la décomposition E = F⊕G est aussi la décomposition E = C(p)⊕N(p) donc Fest l’image de p (et même son coeur). La dernière assertion découle des précédentesen calculant p(u).

On dit également que p est la projection sur F parallèlement à G.

5.1.2 Projection orthogonale

Lorsque E est un R-espace vectoriel euclidien et lorsque p est de plus auto-adjoint,alors p est une projection orthogonale. Ceci est équivalent à F = G⊥ et à F ⊂ G⊥.

5.2 Symétrie

5.2.1 Définition et réduction

Définition 5.3. Un endomorphisme s de E est une symétrie s’il vérifie s2 = Id.

Proposition 5.4. Soit s une symétrie. Il existe deux sous-espaces vectoriels F et Gtels que E = F ⊕G, F est l’espace propre de s pour la valeur propre 1, G est l’espacepropre pour la valeur propre −1. La projection sur F parallèlement à G est égale à(Id+s)/2 et s = 2p− Id.

Démonstration. Le polynôme X2 − 1 s’écrit X2 − 1 = (X − 1)(X + 1) dans K[X]et annule s donc l’endomorphisme s est diagonalisable et son spectre est inclus dans{−1, 1} d’après la proposition 2.18. Donc E s’écrit E = E1 ⊕ E−1 avec E±1 l’espace

69

Page 70: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

propre de s pour la valeur propre ±1. Soit p l’endomorphisme (Id+s)/2. Alors p2 = pdonc p est un projecteur, s = 2p − Id, E1 est l’image de p et E−1 est le noyau dep.

On dit également que s est la symétrie par rapport à G parallèlement à F .

5.2.2 Symétrie orthogonale

Supposons de plus que E est un R-espace vectoriel euclidien. Soit s une symétriede E telle que F = G⊥ (ou de manière équivalente telle que F ⊂ G⊥). Alors s estauto-adjoint. Soit (u, v) ∈ E2. Alors (s(u)|s(v)) = (u|s2(v)) = (u|v). Donc s estégalement orthogonal. Réciproquement, si s est un endomorphisme auto-adjoint etsymétrique alors s∗ = s et s∗ = s−1 donc s = s−1 donc s2 = Id et s est une symétrieauto-adjointe. Les symétries orthogonales, c’est-à-dire les symétries par rapport à Gparallèlement à G⊥, sont donc les endomorphismes orthogonaux auto-adjoints.

5.3 Rotation

Dans cette sous-section, E est l’espace euclidien R2 muni du produit scalaire cano-nique.

5.3.1 Définition et réduction

Définition 5.5. Un endomorphisme r de R2 est une rotation s’il est orthogonal etde déterminant 1.

Proposition 5.6. Soit r une rotation. Il existe θ ∈ [0, 2π] telle que la matrice de rdans dans la base canonique de R2 soit(

cos θ − sin θsin θ cos θ

).

Démonstration. Soit en effet u = r(e1) = αe1 + βe2. Alors ‖u‖ = 1 car r est ortho-gonal donc α2 + β2 = 1 donc α appartient à [−1, 1] donc il existe θ ∈ [0, 2π] tel queα = cos θ. De β2 = 1− α2, on déduit que sin θ = β ou sin θ = −β. En remplaçant sinécessaire θ par −θ (ce qui ne change pas cos θ), on peut assurer que sin θ = β. Sir(e2) = γe1 + δe2, alors (γ, δ) ∈ [−1, 1]2 vérifient

αδ − βγ = 1

γ2 + δ2 = 1

αγ + βδ = 0.

La seule solution de ces système est (γ, δ) = (− sin θ, cos θ).

5.4 Endomorphisme d’ordre fini

Dans cette sous-section, K est égal à C et E est donc un C-espace vectoriel dedimension finie.

70

Page 71: Algèbre linéaire, réduction - math.u-psud.frfouquet/src/AlgebreReductionFouquet.pdf · UniversitéParisXI Math202 2014/2015 Algèbre linéaire, réduction Olivier Fouquet Uningénieurvientécoutersonmeilleurami,unmathématicien,donneruneconfé-

5.4.1 Définition et réduction

Définition 5.7. Un endomorphisme f de E est d’ordre fini s’il existe n > 0 tel quefn = Id.

Proposition 5.8. Soit f un endomorphisme f d’ordre fini. Alors f est diagonalisableet son spectre est inclus dans {ζ ∈ C|ζn = 1}.

Démonstration. Soit λ ∈ C une racine du polynôme Xn − 1. Alors λ 6= 0 doncnλn−1 6= 0 donc λ n’est pas une racine du polynôme nXn−1 donc λ n’est pas uneracine double du polynôme Xn−1. Le polynôme Xn−1 est donc à racines simples etannule f . Donc l’endomorphisme f est diagonalisable et son spectre est inclus dans{ζ ∈ C|ζn = 1} d’après la proposition 2.18.

5.4.2 Permutation

Un endomorphisme f de E est un endomorphisme de permutation s’il existe une base(ei)1≤i≤n et une bijection σ de {1, · · · , n} dans lui-même telle que la matrice de fdans la base (ei) soit la matrice (δiσ(i))1≤i≤n ; ou de manière équivalente si la matricede f dans la base (ei) a tous ses coefficients nuls sauf exactement un coefficient parligne et par colonne, qui est égal à 1.

Proposition 5.9. Un endomorphisme de permutation est diagonalisable.

Démonstration. Soit f un endomorphisme de permutation. D’après la proposition5.8, il suffit de montrer qu’il existe n ∈ N non-nul tel que fn = Id. Soit 1 ≤ i ≤ n.L’ensemble {fn(ei)|n ∈ N} est inclus dans l’ensemble {ej|1 ≤ j ≤ n} donc il existedeux entiers distincts ai et bi tels que fai(ei) = f bi(ei). Il existe donc un entier ni ∈ Nnon-nul (par exemple ai − bi ou son inverse) tel que fni(ei) = ei. Soit n le produitsur i de tous les ni. Alors fn(ej) = ej pour tout 1 ≤ j ≤ n donc fn = Id.

71