Chapitre 11 : Calcul matriciel
Transcript of Chapitre 11 : Calcul matriciel
Chapitre 11 : Calcul matriciel
PCSI � LGT Baimbridge
2021-2022
� Il était environ trois heures du matin lorsque la solution aboutie du calcul
m'apparut. Je fus tout d'abord profondément secoué. J'étais si excité que je ne
pouvais songer à dormir. J'ai donc quitté la maison et attendu l'aube au sommet
d'un rocher. �
Werner Heisenberg (1901-1976).
Table des matières
1 Matrices à coe�cients dans K 21.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Combinaisons linéaires de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Transposition 82.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 L'algèbre Mn(K) des matrices carrées 93.1 Opérations dans Mn(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93.2 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113.3 Puissances de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133.4 Transposition des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4 Application aux systèmes linéaires 184.1 Interprétation matricielle d'un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184.2 Calcul pratique de l'inverse : résolution du système générique AX = B . . . . . . . . . . . . . . . 204.3 Opérations élémentaires sur les lignes et les colonnes d'une matrice . . . . . . . . . . . . . . . . . 214.4 Calcul pratique de l'inverse : méthode de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 22
Introduction
Nous initions dans ce chapitre l'étude du concept clé de matrice qui fut introduit en 1850 par Sylvester. En
première approche, une matrice peut être vue comme un simple tableau de nombres, ce qui en fait un objet très
général mais assez peu structuré. Nous allons voir qu'il est possible de dé�nir des opérations d'addition et de
multiplication de matrices qui permettent de réaliser des calculs avec ces tableaux de nombres de manière très
similaire à ce qu'il est possible de faire avec de simples nombres.
Si nous adoptons dans ce chapitre un point de vue essentiellement calculatoire, nous verrons dans un chapitre
ultérieur que ceci re�ète en fait des phénomènes mathématiques plus profonds, lesquels motiveront a posteriori
les dé�nitions données dans ce chapitre.
Notations
Dans tout ce chapitre, nous adoptons les notations suivantes :
� K désigne R ou C. Les éléments de K sont appelés des scalaires.
� m, n, p et q désignent des entiers naturels non nuls.
� Si ai,j est un scalaire muni de deux indices, on le note aussi aij (sans virgule) si cela ne crée pas d'ambiguïté.
1
1 Matrices à coe�cients dans K
1.1 Généralités
Dé�nition 1.1.1: Matrices à coe�cients dans K
On appelle matrice à n lignes et p colonnes à coe�cients dans K une famille à double indice :
A = (ai,j)1≤i≤n1≤j≤p
On la représente sous la forme d'un tableau de scalaires
A =
a1,1 a1,2 a1,3 · · · a1,p
a2,1 a2,2 a2,3 · · · a2,p...
......
......
an,1 an,2 an,3 · · · an,p
Pour tout (i, j) ∈ J1, nK × J1, pK, le scalaire ai,j s'appelle coe�cient ou entrée d'indice (i, j) de la
matrice A. On note alors ai,j = [A]i,j .
Les coe�cients ai,i sont appelés coe�cients diagonaux de A.
L'ensemble des matrices à n lignes et p colonnes à coe�cients dans K est noté Mn,p(K).
Remarque 1.1.2
On retiendra que, pour un coe�cient ai,j :
� le premier indice correspond à la ligne sur laquelle se situe le coe�cient ;
� le second indice correspond à la colonne sur laquelle se situe le coe�cient.
Le raisonnement analogue fonctionne pour la notation Mn,p(K).
Remarque 1.1.3: Inclusion de Mn,p(R) dans Mn,p(C)
Puisque R ⊂ C, toute matrice de Mn,p(R) est aussi une matrice de Mn,p(C). La réciproque est évidem-
ment fausse.
Dé�nition 1.1.4: Matrices carrées
Une matrice ayant le même nombre de lignes et de colonnes est appelée une matrice carrée.
L'ensemble des matrices carrées à n lignes et n colonnes et à coe�cients dans K est noté Mn(K).
Remarque 1.1.5
Avec ces notations, on a Mn(K) = Mn,n(K) et une matrice de Mn(K) est dite carrée de taille n.
Plus généralement si M ∈ Mn,p(K), on dit parfois que M est rectangulaire de taille (n, p) ou � n
par p �..
2 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Exercice 1.1.6
À quels ensembles de matrices appartiennent les matrices suivantes ?
A =
(1 2 3
4 5 6
), B =
1 2
3 4
5 6
, C =
(cos(θ) − sin(θ)
sin(θ) cos(θ)
), D =
(1 + i 2− i
i√2 0
).
Dé�nition 1.1.7: Matrices lignes, matrices colonnes
Un élément de Mn,1(K) est appelé matrice colonne.
Un élément de M1,p(K) est appelé matrice ligne.
Remarque 1.1.8
Les matrices colonnes de Mn,1(K) (resp. les matrices lignes de M1,p(K)) s'identi�ent naturellement avec
les vecteurs de Kn (resp. de Kp) et on utilise parfois cette identi�cation de manière légèrement abusive.
Néanmoins, pour les besoins du calcul matriciel, on prendra garde de bien distinguer les vecteurs des
matrices lignes et des matrices colonnes.
Remarque 1.1.9
Une matrice A ∈ Mn,p(K) peut être vue comme la juxtaposition de p matrices colonnes C1, . . . , Cp,
appelées colonnes de A, ou comme la superposition de n matrices lignes L1, . . . , Ln, appelées lignes de
A. On note alors
A =(
C1 · · · Cp
)ou A =
L1
...
Ln
.
Ces lignes et colonnes joueront en particulier un rôle important dans la résolution des systèmes d'équa-
tions linéaires.
1.2 Combinaisons linéaires de matrices
Dé�nition 1.2.1: Somme de matrices carrées
Soient A = (ai,j) et B = (bi,j) deux matrices de Mn,p(K). On appelle somme de A et de B la matrice
de Mn,p(K) dé�nie par :
A+B = (ai,j + bi,j)1≤i≤n1≤j≤p
.
Explicitement,a1,1 a1,2 · · · a1,p
a2,1 a2,2 · · · a2,p
.
.
.
.
.
.
.
.
.
.
.
.
an,1 an,2 · · · an,p
+
b1,1 b1,2 · · · b1,p
b2,1 b2,2 · · · b2,p.
.
.
.
.
.
.
.
.
.
.
.
bn,1 bn,2 · · · bn,p
=
a1,1 + b1,1 a1,2 + b1,2 · · · a1,p + b1,p
a2,1 + b2,1 a2,2 + b2,2 · · · a2,p + b2,p.
.
.
.
.
.
.
.
.
.
.
.
an,1 + bn,1 an,2 + bn,2 · · · an,p + bn,p
.
Remarque 1.2.2: Interprétation de la somme
La somme de deux matrices de mêmes tailles est donc dé�nie comme la somme terme à terme des
di�érents coe�cients des deux matrices.
3 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Remarque 1.2.3: Somme et taille des matrices
� La somme de deux matrices n'est dé�nie que pour des matrices de même taille. Il n'est pas possible
de sommer des matrices de tailles di�érentes.
Proposition 1.2.4
La somme ainsi dé�nie est associative et commutative.
Dé�nition 1.2.5: Multiple d'une matrice
Soit A = (ai,j) ∈ Mn,p(K) et λ ∈ K. On pose
λA = Aλ = (λai,j)1≤i≤n1≤j≤p
.
Explicitement,
λ
a1,1 a1,2 · · · a1,p
a2,1 a2,2 · · · a2,p
.
.
.
.
.
.
.
.
.
.
.
.
an,1 an,2 · · · an,p
=
λa1,1 λa1,2 · · · λa1,p
λa2,1 λa2,2 · · · λa2,p
.
.
.
.
.
.
.
.
.
.
.
.
λan,1 λan,2 · · · λan,p
.
Lemme 1.2.6: Distributivité
Soient A et B des matrices de Mn,p(K) et (λ, µ) ∈ K2. Alors
(λ+ µ)A = λA+ µA,
λ(A+B) = λA+ λB.
Dé�nition 1.2.7: La matrice nulle
La matrice nulle de Mn,p(K) est la matrice dont tous les coe�cients sont nuls. On la note 0Mn,p(K)
ou 0n,p ou simplement 0 s'il n'y a pas d'ambiguïté. Si n = p, on la note aussi 0n.
Explicitement :
0n,p =
0 · · · · · · 0...
...
0 · · · · · · 0
∈ Mn,p(K).
Remarque 1.2.8
1. La matrice nulle est neutre pour l'addition au sens où, pour toute matrice A ∈ Mn,p(K), on a
A+ 0n,p = A ;
2. Pour toute matrice A ∈ Mn,p(K), on a 0A = 0n,p et 1A = A ;
3. Pour toute matrice A ∈ Mn,p(K), on pose −A = (−1)A et, par distributivité
A+ (−A) = A+ (−1)A = (1 + (−1))A = 0A = 0n,p.
Ainsi, −A est appelée matrice opposée de la matrice A.
4 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Dé�nition 1.2.9: Combinaison linéaire de matrices
Soient A1, . . . , Am des matrices de Mn,p(K). On appelle combinaison linéaire de A1, . . . , Am toute
matrice de la formem∑i=1
λiAi = λ1A1 + · · ·+ λmAm.
On observe en particulier que Mn,p(K) est stable par combinaisons linéaires.
Exercice 1.2.10
Soient I =
(1 0
0 1
), J =
(0 1
1 0
)et K =
(1 1
0 0
)des matrices de M2(K). Déterminer une
condition nécessaire et su�sante sur (α, β, γ) ∈ K3 pour que αI + βJ + γK = 02.
Dé�nition 1.2.11: Matrices élémentaires
Pour tout (i, j) ∈ J1, nK× J1, pK, on appelle matrice élémentaire d'indice (i, j) de Mn,p(K) la matrice
Ei,j dont toutes les entrées sont nulles, sauf l'entrée d'indice (i, j) qui est égale à 1. Explicitement :
Ei,j =
j
0 · · · 0 0 0 · · · 0...
......
......
...... 0
......
i 0 · · · 0 1 0 · · · 0...
... 0...
......
......
......
0 · · · 0 0 0 · · · 0
Toute matrice est combinaison linéaire des matrices élémentaires. Plus précisément :
Proposition 1.2.12
Soit A = (ai,j) ∈ Mn,p(K). Alors
A =
n∑i=1
p∑j=1
ai,jEi,j .
Exemple 1.2.13
On a 1 0
0 −3
5 0
= E1,1 − 3E2,2 + 5E3,1.
1.3 Produit de matrices
Nous allons maintenant dé�nir une multiplication pour les matrices. Nous pourrions le faire terme à terme
comme nous l'avons fait pour la somme mais il s'avère qu'il est possible d'en dé�nir une autre apportant
beaucoup plus de structure. Pour l'instant la dé�nition va sembler un peu arti�cielle mais nous verrons au �l
des chapitres tout son intérêt.
5 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
1.3.A. Généralités
Dé�nition 1.3.1: Produit matriciel
Soient A = (ai,j) ∈ Mn,p(K) et B = (bi,j) ∈ Mp,q(K). Le produit de A par B est
AB = (ci,j) ∈ Mn,q(K)
telle que
∀(i, j) ∈ J1, nK × J1, qK, ci,j =
p∑k=1
ai,kbk,j
Méthode 1.3.2: Calcul pratique du produit
Le coe�cient ci,j de la matrice AB est obtenu comme suit :
1. On considère les p coe�cients de la i-ème ligne de A ;
2. On considère les p coe�cients de la j-ème colonne de B ;
3. On multiplie terme à terme cette ligne et cette colonne et on somme les valeurs obtenues.
Exercice 1.3.3
Calculer tous les produits de deux matrices possibles à l'aide de ces matrices :
A =
2 0
−1 3
−2 1
, B =
(4 0 2
−2 1 1
)et C =
2 2 2
0 5 −1
0 −3 2
Remarque 1.3.4: À propos de la taille des matrices dans les produits
� Le produit matriciel permet de dé�nir une application
µ :
{Mn,p(K)×Mp,q(K) −→ Mn,q(K)
(A,B) 7→ AB.
On observe qu'a�n que cette application soit dé�nie, il faut que le nombre de colonnes du premier facteur
coïncide avec le nombre de lignes du second. Il n'est donc pas possible de multiplier deux matrices
arbitraires.
Pour ne pas se tromper dans les tailles de matrices dans les produits, on pourra observer que les indices
se concatènent, au sens où un produit de la forme (n, p)× (p, q) est de la forme (n, q).
1.3.B. Propriétés du produit matriciel
Ainsi dé�ni, le produit matriciel permet de retrouver certaines des règles du calcul algébrique auxquelles
nous sommes habitués dans les ensembles de nombres. Néanmoins, certaines propriétés ne sont pas conservées
et il convient d'être très rigoureux dans l'application de ces règles de calcul.
Ce qui est commun aux calculs matriciels et réels ou complexes :
6 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Proposition 1.3.5: Associativité du produit matriciel
Le produit matriciel est associatif. Autrement dit, si A ∈ Mm,n(K), B ∈ Mn,p(K) et C ∈ Mp,q(K),
on a
A(BC) = (AB)C.
De ce fait, le parenthésage est dispensable dans les produits.
Proposition 1.3.6: Distributivité du produit matriciel
Le produit matriciel est distributif sur l'addition. Autrement dit :
1. Si A ∈ Mm,n(K), B ∈ Mn,p(K) et C ∈ Mn,p(K), on a :
A(B + C) = AB +AC,
2. Si A ∈ Mm,n(K), B ∈ Mm,n(K) et C ∈ Mn,p(K), on a :
(A+B)C = AC +BC.
Proposition 1.3.7: Bilinéarité du produit matriciel
Si A ∈ Mm,n(K), B ∈ Mn,p(K) et λ ∈ K, on a
(λA)B = A(λB) = λ(AB).
Remarque 1.3.8: Conventions d'écriture
Par convention, on place toujours les scalaires devant les matrices dans une écriture littérale.
Par exemple, on écrit 2A+3B et non A2+B3, sauf éventuellement au cours des étapes techniques d'un
calcul.
Ce qui di�ère dans les calculs matriciels et réels ou complexes :
Remarque 1.3.9: Non-commutativité du produit matriciel
� Nous avons déjà observé qu'en général, si AB est dé�ni, le produit BA ne l'est pas nécessairement.
Mais dans le cas où ces deux produits sont dé�nis, on a en général AB ̸= BA. Dans le cas où l'on a
égalité, on dit que A et B commutent.
Exercice 1.3.10
Soit A =
(1 2
3 4
).
1. Soit B =
(1 1
0 1
). Calculer AB puis BA.
7 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
2. Soit I =
(1 0
0 1
)la matrice identité de M2(K). Calculer AI puis IA.
3. Déterminer toutes les matrices de M2(R) qui commutent avec A.
Remarque 1.3.11: Non-intégrité du produit matriciel
� On peut obtenir la matrice nulle en multipliant deux matrices non nulles.
Par exemple, si on pose
A =
1 0 0
0 0 0
0 0 1
et B =
0 0 0
1 2 3
0 0 0
,
alors
AB =
0 0 0
0 0 0
0 0 0
et BA =
0 0 0
1 0 3
0 0 0
Ceci va avoir des implications importantes dans les calculs littéraux. Ainsi, quand on travaille avec des
matrices, on ne peut en général pas simpli�er une égalité de la forme AB = AC en B = C, même
si A ̸= 0.
Exercice 1.3.12
Soit A =
1 2 0
2 1 0
0 1 0
∈ M3(R).
1. Déterminer toutes les matrices B de M3(R) telles que AB = 0
2. Déterminer toutes les matrices C de M3(R) telles que AC = CA = 0
2 Transposition
Nous allons maintenant dé�nir une opération propre aux matrices qui, malgré sa dé�nition élémentaire,
s'avère jouer un rôle crucial en algèbre linéaire.
2.1 Généralités
Dé�nition 2.1.1
Soit A = (ai,j) ∈ Mn,p(K). On appelle transposée de A la matrice de Mp,n(K) notée tA ou A⊤ dé�nie
par
∀(i, j) ∈ J1, pK × J1, nK, [A⊤]i,j = aj,i.
Autrement dit, A⊤ est la matrice dont les lignes (respectivement les colonnes) sont les colonnes (respec-
tivement les lignes) de A.
Exemple 2.1.2
1. Si A =
(1 2 3 4
5 6 7 8
), on a A⊤ =
1 5
2 6
3 7
4 8
;
8 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
2. I⊤n = In et 0⊤n = 0n.
3. Si T ∈ T +n (K) alors T⊤ ∈ T −n (K).
Proposition 2.1.3
Pour toute matrice A ∈ Mn,p(K), on a (A⊤)⊤= A.
Dé�nition 2.1.4: Transposition
On appelle transposition de Mn,p(K) l'application{Mn,p(K) −→ Mp,n(K)
A 7→ A⊤.
2.2 Propriétés
Proposition 2.2.1: Linéarité de la transposition
Soient A,B ∈ Mn,p(K) et (λ, µ) ∈ K2. Alors
λA+ µB⊤ = λA⊤ + µB⊤.
Proposition 2.2.2: Transposée d'un produit
Soient A ∈ Mn,p(K) et B ∈ Mp,q(K). Alors
(AB)⊤= B⊤A⊤.
Remarque 2.2.3
� On prendra garde à l'ordre des facteurs dans la proposition précédente.
3 L'algèbre Mn(K) des matrices carrées
Pour deux matrices carrées A et B de Mn(K), il est possible de dé�nir simultanément les produits AB et BA
et ces produits restent dans Mn(K). De ce fait, la structure de Mn(K) va être particulièrement riche puisque
nous pouvons à la fois considérer des combinaisons linéaires et des produits à l'intérieur de cet ensemble. Une
telle structure est appelée une algèbre.
3.1 Opérations dans Mn(K)
Remarque 3.1.1
En conséquence de ce qui a été établi pour le produit matriciel en général, nous savons que :
� L'addition dans Mn(K) est associative et commutative et 0n est l'élément neutre pour l'addition ;
� La multiplication dans Mn(K) est associative, non commutative et distributive sur l'addition.
� Il existe des produits nuls de matrices non nulles.
9 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Nous allons maintenant introduire une matrice qui joue le rôle de l'unité dans l'algèbre des matrices.
Dé�nition 3.1.2: Matrice identité
On appelle matrice identité de Mn(K) la matrice In dont tous les coe�cient sont nuls sauf ses
coe�cients diagonaux qui sont égaux à 1.
Explicitement,
In =
1 0 · · · · · · 0
0 1.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 · · · · · · 0 1
∈ Mn(K).
Remarque 3.1.3: Symbole de Kronecker
Soit E un ensemble. On appelle symbole de Kronecker sur E l'application
δ :
{E × E −→ {0, 1}(i, j) 7→ δi,j
où
δi,j =
{1 si i = j
0 sinon.
Avec ces notations, pour tout (i, j) ∈ J1, nK2, on a
In = (δi,j)1≤i,j≤n .
Proposition 3.1.4
Soit A ∈ Mn(K). Alors,
AIn = InA = A.
La matrice identité est dite neutre pour le produit matriciel.
Remarque 3.1.5
Plus généralement, on peut montrer que pour toute matrice rectangulaire A ∈ Mn,p(K), on a InA = A
et AIp = A.
En particulier, si X ∈ Mn,1(K) est une matrice colonne, alors on a InX = X.
Exercice 3.1.6: Symbole de Kronecker
Donner, à l'aide du symbole de Kronecker, une expression explicite pour les coe�cients de la matrice
élémentaire Ei,j ∈ Mn,p(K).
10 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
3.2 Matrices inversibles
Nous avons pour l'instant dé�ni un élément neutre pour l'addition, lamatrice nulle, et la notion de matrice
opposée, qui est l'analogue dans Mn(K) de l'opposé −a d'un scalaire a ∈ K. Nous venons par ailleurs de dé�nirun élément neutre pour la multiplication, lamatrice identité, qui joue le rôle de l'unité dans K. Notre objectifest ici est de dé�nir l'inverse d'une matrice qui serait l'analogue de x 7→ 1
xpour les réels. Néanmoins, deux
problèmes viennent se poser :
� Le produit matriciel étant non-commutatif, nous n'utiliserons pas la notation1
Acar elle induirait des
ambiguïtés :B
Asigni�erait-il B × 1
Aou
1
A×B ?
� Dans K, on sait qu'un élément admet un inverse dès qu'il est non nul. Néanmoins, comme nous allons le
voir, la situation est loin d'être aussi simple dans Mn(K).
3.2.A. Généralités
Proposition/Dé�nition 3.2.1: Matrice inversible
Soit A ∈ Mn(K). On dit que A est inversible s'il existe une matrice B ∈ Mn(K) telle que
AB = BA = In.
Dans ce cas, la matrice B est unique. On l'appelle matrice inverse de A et on la note A−1.
L'ensemble des matrices inversibles de Mn(K) est appelé groupe linéaire et est noté GLn(K) :
GLn(K) = {A ∈ Mn(K) | A est inversible} .
Exemple 3.2.2
1. La matrice identité est inversible et I−1n = In ;
2. La matrice nulle n'est pas inversible.
Remarque 3.2.3
Nous démontrerons dans un chapitre ultérieur que, si A et B sont des matrices carrées, alors :
AB = In ⇔ BA = In.
Il su�t donc en pratique de véri�er l'une de ces deux égalités pour justi�er que B = A−1.
Exercice 3.2.4
Véri�er que la matrice P =
1 1 1
0 1 1
0 0 1
est inversible, d'inverse P−1 =
1 −1 0
0 1 −1
0 0 1
.
Exercice 3.2.5
Déterminer si les matrices suivantes sont inversibles et calculer leur inverse le cas échéant :
M =
(1 2
3 4
)et N =
(1 1
1 1
).
11 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
3.2.B. Propriétés du produit matriciel
Proposition 3.2.6: Produit de matrices inversibles
Soient A,B ∈ GLn(K). Alors AB ∈ GLn(K) et
(AB)−1 = B−1A−1.
Remarque 3.2.7
� On prendra garde à l'ordre des facteurs dans la proposition précédente.
Nous avons déjà eu l'occasion de mentionner que les produits de matrices ne sont pas simpli�ables en général.
Néanmoins, dans le cas de produits impliquant des matrices inversibles, on peut utiliser le résultat suivant :
Lemme 3.2.8: Simpli�abilité des matrices inversibles
Soit A ∈ GLn(K).
1. Pour toutes matrices B,C ∈ Mn,p(K), on a
AB = AC ⇔ B = C ;
2. Pour toutes matrices B,C ∈ Mm,n(K), on a
BA = CA ⇔ B = C.
3.2.C. Calcul pratique d'inverse de matrices
Dans le cas particulier des matrices d'ordre 2, on dispose du résultat suivant :
Proposition 3.2.9: Inversion d'une matrice d'ordre 2
Soit A =
(a b
c d
)∈ M2(K). Alors A est inversible si et seulement si ad− bc ̸= 0 et dans ce cas,
A−1 =1
ad− bc
(d −b
−c a
).
Le réel ad− bc est appelé déterminant de la matrice A et est noté det(A).
Dans le cas général, calculer l'inverse d'une matrice de Mn(K) en cherchant à résoudre un système en ses
coe�cients amène à résoudre n2 équations linéaires, ce qui est rapidement infaisable en pratique. Nous verrons
aux sections 4.2 et 4.4 des méthodes pour e�ectuer ces calculs en pratique.
12 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
3.3 Puissances de matrices
3.3.A. Généralités
Dé�nition 3.3.1: Puissances d'une matrice
Soit A ∈ Mn(K). Pour tout k ∈ N∗, on pose
Ak = A×A× · · · ×A︸ ︷︷ ︸k fois
.
Par convention, si A n'est pas la matrice nulle, on pose A0 = In.
Lemme 3.3.2
Soit A ∈ Mn(K) et k, ℓ des entiers naturels non nuls. Alors
Ak+ℓ = Ak ×Aℓ.
Exercice 3.3.3
Soit A =
(1 1
1 1
). Calculer An, pour tout n ∈ N.
Remarque 3.3.4
� Le produit matriciel n'étant pas dé�ni terme à terme, il est assez naturel que la puissance n-ième d'une
matrice carrée A ne soit en général pas la matrice des puissances n-ième des coe�cients de A. Il s'agit
là d'une erreur grossière à ne pas commettre.
Corollaire 3.3.5
Soit A ∈ GLn(K). Alors pour tout k ∈ N∗, Ak ∈ GLn(K) et
(Ak)−1 = (A−1)k.
On note A−k cette matrice.
3.3.B. Puissances de matrices diagonales
Dé�nition 3.3.6: Matrices diagonales
Une matrice A ∈ Mn(K) est dite diagonale si tous ses coe�cients non diagonaux sont nuls, c'est-à-dire
si,
∀(i, j) ∈ J1, nK2, (i ̸= j ⇒ ai,j = 0) .
13 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Explicitement, c'est une matrice de la forme
A =
a1,1 0 · · · · · · 0
0 a2,2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 · · · · · · 0 an,n
et on note A = diag(a1,1, . . . , an,n).
Remarque 3.3.7
Une matrice diagonale est une matrice dont les coe�cients en-dehors de la diagonale sont nuls mais on
ne fait aucune hypothèse sur les coe�cients diagonaux, ils peuvent être nuls ou non nuls. Par exemple,
la matrice nulle est diagonale, tout comme la matrice identité.
Pour les matrices diagonales, les produits sont particulièrement simples :
Lemme 3.3.8
Soient A = diag(a1, . . . , an) et B = diag(b1, . . . , bn). Alors
AB = BA = diag(a1b1, . . . , anbn).
Corollaire 3.3.9
Soit D = diag(d1, . . . , dn) ∈ Mn(K) une matrice diagonale. Alors D est inversible si et seulement si tous
les coe�cients diagonaux sont non nuls. Dans ce cas,
D−1 = diag
(1
d1, . . . ,
1
dn
).
Corollaire 3.3.10
Si A = diag(a1, . . . , an), alors, pour tout k ∈ N∗, on a
Ak = diag(ak1 , . . . , akn).
3.3.C. Puissances de matrices triangulaires
Dé�nition 3.3.11: Matrices triangulaires supérieures et inférieures
1. Une matrice A ∈ Mn(K) est dite triangulaire supérieure si tous les coe�cients en-dessous de
sa diagonale sont nuls
∀(i, j) ∈ J1, nK2, (i > j ⇒ ai,j = 0) .
14 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Explicitement, c'est une matrice de la forme
A =
a1,1 a1,2 · · · · · · a1,n
0 a2,2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. an−1,n
0 · · · · · · 0 an,n
On note T +
n (K) l'ensemble des matrices triangulaires supérieures de Mn(K).
2. Une matrice A ∈ Mn(K) est dite triangulaire inférieure si tous les coe�cients au-dessus de sa
diagonale sont nuls
∀(i, j) ∈ J1, nK2, (i < j ⇒ ai,j = 0) .
Explicitement, c'est une matrice de la forme
A =
a1,1 0 · · · · · · 0
a2,1 a2,2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
an,1 · · · · · · an,n−1 an,n
On note T −n (K) l'ensemble des matrices triangulaires inférieures de Mn(K).
Remarque 3.3.12
T +n (K) ∩ T −n (K) est l'ensemble des matrices diagonales de Mn(K).
Lemme 3.3.13
Soient A et B des matrices de T +n (K) (respectivement de T −n (K)), alors AB est dans T +
n (K) (respecti-
vement dans T −n (K)).
En outre, les coe�cients diagonaux de AB sont les produits terme à terme de ceux de A et de B.
Corollaire 3.3.14
Si A est une matrice de T +n (K) (respectivement de T −n (K)), alors pour tout k ∈ N∗, Ak est dans T +
n (K)
(respectivement dans T −n (K)).
En outre, les coe�cients diagonaux de A sont les puissances k-èmes de ceux de A.
Exercice 3.3.15
Soit M =
1 0 1
0 1 0
0 0 1
. Montrer que, pour tout k ∈ N∗, Mk =
1 0 k
0 1 0
0 0 1
.
15 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
3.3.D. Matrices nilpotentes
Dé�nition 3.3.16: Matrice nilpotente
Une matrice A ∈ Mn(K) est dite nilpotente s'il existe k ∈ N∗ tel que Ak = 0n.
Dans ce cas, on appelle indice de nilpotence de A l'entier
i0 = min{k ∈ N∗ | Ak = 0n
}.
Lemme 3.3.17
Si A ∈ Mn(K) est nilpotente d'indice i0, alors Ak = 0n pour tout k ≥ i0.
Remarque 3.3.18
Nous démontrerons dans un chapitre ultérieur que si A est nilpotente, alors son indice de nilpotence est
inférieur ou égal à n. En d'autres termes, si A ∈ Mn(K) et An ̸= 0, alors A n'est pas nilpotente.
Exercice 3.3.19
Soit A =
0 a b
0 0 c
0 0 0
∈ M3(K), avec (a, b, c) ∈ K3 tels que a et c sont non nuls. Montrer que A est
nilpotente d'indice 3.
Remarque 3.3.20
Nous démontrerons ultérieurement que toute matrice triangulaire ayant une diagonale nulle est nilpo-
tente. Néanmoins, toutes les matrices nilpotentes ne sont pas de cette forme, comme le montre l'exercice
ci-dessous.
Exercice 3.3.21
Soit N =
1 3 2
−1 −1 0
1 1 0
. Montrer que N est nilpotente d'indice 3.
Exercice 3.3.22
Montrer qu'une matrice nilpotente n'est pas inversible.
3.3.E. Puissances d'un produit et d'une somme
Remarque 3.3.23: Puissances d'un produit
� Le produit n'étant pas commutatif, on n'a pas en général (AB)k = AkBk. En e�et,
(AB)k = (AB)× (AB)× · · · (AB)︸ ︷︷ ︸k fois
= ABAB · · ·AB
mais rien ne permet en général de rassembler les A et les B.
Néanmoins, si A et B commutent, alors on a e�ectivement (AB)k = AkBk.
16 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Théorème 3.3.24: Puissances d'une somme (formule du binôme)
Soient A,B ∈ Mn(K) deux matrices qui commutent. Alors, pour tout k ∈ N∗, on a
(A+B)k =
k∑i=0
(k
i
)AiBk−i.
Exercice 3.3.25
En considérant les matrices
A =
(0 1
0 0
)et B =
(0 0
1 0
),
véri�er que la condition de commutativité est nécessaire.
Exercice 3.3.26
Soit M =
3 3 2
−1 1 0
1 1 2
et N = M − 2I.
1. Calculer Nk, pour tout k ∈ N∗.
2. En déduire une expression simple de Mk, pour tout k ∈ N∗.
3.4 Transposition des matrices carrées
Dé�nition 3.4.1: Matrices symétriques, matrices antisymétriques
Soit A ∈ Mn(K).
1. On dit que A est symétrique si et seulement si A⊤ = A ;
2. On dit que A est antisymétrique si et seulement si A⊤ = −A.
Exemple 3.4.2
1. La matrice A =
1 2 3
2 4 5
3 5 6
est symétrique et la matrice B =
0 1 2
−1 0 3
−2 −3 0
est antisymé-
trique.
2. La matrice identité est symétrique, comme toute matrice diagonale.
3. La matrice nulle est symétrique et antisymétrique. C'est la seule matrice à véri�er cette propriété.
Remarque 3.4.3
Le fait pour une matrice d'être symétrique (respectivement antisymétrique) peut s'interpréter comme la
symétrie (respectivement l'antisymétrie) des coe�cients par rapport à la diagonale de la matrice.
Lemme 3.4.4
Si A ∈ Mn(K) est antisymétrique, tous ses coe�cients diagonaux sont nuls.
17 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Proposition 3.4.5: Stabilité par combinaison linéaire
Soient A,B ∈ Mn(K) et (λ, µ) ∈ K2.
1. Si A et B sont symétriques, alors λA+ µB aussi ;
2. Si A et B sont antisymétriques, alors λA+ µB aussi.
Exercice 3.4.6
Soit M ∈ Mn(K). On pose
S =1
2(M +M⊤) et A =
1
2(M −M⊤).
1. Montrer que S est symétrique et que A est antisymétrique.
2. Montrer que toute matrice M ∈ Mn(K) se décompose de manière unique comme somme d'une
matrice symétrique et d'une matrice antisymétrique.
Proposition 3.4.7
Si A ∈ Mn(K) est inversible, alors A⊤ est inversible et
(A⊤)−1 = (A−1)⊤.
En particulier, si A est symétrique (resp. antisymétrique), alors A−1 aussi.
4 Application aux systèmes linéaires
Nous explicitons dans cette section le lien qui existe entre matrices et systèmes linéaires.
4.1 Interprétation matricielle d'un système linéaire
4.1.A. Écriture matricielle d'un système linéaire
On considère dans cette section un système d'équations linéaires à coe�cients dans K de la forme
(S) :
a1,1x1 + a1,2x2 + · · ·+ a1,pxp = b1
a2,1x1 + a2,2x2 + · · ·+ a2,pxp = b2...
...
an,1x1 + an,2x2 + · · ·+ an,pxp = bn
Pour tout (x1, . . . , xp) ∈ Kp, on pose
A =
a1,1 a1,2 a1,3 · · · a1,p
a2,1 a2,2 a2,3 · · · a2,p...
......
......
an,1 an,2 an,3 · · · an,p
, X =
x1
x2
...
xp
et B =
b1
b2...
bn
.
de sorte que
(x1, . . . , xp) ∈ SS ⇔ AX = B.
18 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Dé�nition 4.1.1: Écriture matricielle d'un système linéaire
La relation AX = B est appelée écriture matricielle du système linéaire (S).
Exercice 4.1.2
Écrire sous forme matricielle les systèmes suivants :
a.
{2x+ y = 1
x− y = −2 b.
2x+ y = 1
x− y = −2
3x+ y = 5
c.
x− y + 3z = 0
2x+ z = −1
x+ 5y − z = 0
4.1.B. Structure des solutions d'un système linéaire
Comme pour les équations di�érentielles, on peut ramener l'étude d'un système linéaire la résolution du
système homogène associé et à la recherche d'une solution particulière.
Dé�nition 4.1.3: Système homogène associé à (S)
On appelle système homogène associé à (S) le système :
(H) :
a1,1x1 + a1,2x2 + · · ·+ a1,pxp = 0
a2,1x1 + a2,2x2 + · · ·+ a2,pxp = 0...
...
an,1x1 + an,2x2 + · · ·+ an,pxp = 0
En reprenant les notations précédentes, on a donc :
(x1, . . . , xp) ∈ SH ⇔ AX = 0.
On a alors le résultat suivant :
Proposition 4.1.4
Avec les notations précédentes, on si V0 ∈ Kp est une solution de (S), alors on a :
SS = {V0 +X | X ∈ SH} .
Autrement dit, on a l'égalité :
SH = V0 + SH .
Remarque 4.1.5: Nombre de paramètres des ensembles de solutions
Si on détermine le nombre de paramètres dans l'ensemble des solutions du système homogène (H) associé
à A, on aura le nombre de paramètres de l'ensemble des solutions du système de départ (S), sous réserve
que celui-ci admette au moins une solution.
Il est possible de caractériser l'existence de solutions pour un système linéaire donné à partir de son écriture
matricielle. Pour cela, on s'appuie sur la remarque suivante.
19 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Remarque 4.1.6
On observe au passage que si A = (ai,j) ∈ Mn,p(K) et si X =
x1
...
xp
∈ Mp,1(K) est une matrice
colonne, alors
AX =
a1,1x1 + · · ·+ a1,pxp
a2,1x1 + · · ·+ a2,pxp
...
an,1x1 + · · ·+ an,pxp
Ainsi, si on note C1, . . . , Cn les colonnes de A, alors
AX = x1C1 + x2C2 + · · ·+ xpCp
est combinaison linéaire des colonnes de A.
On en déduit alors la caractérisation suivante :
Proposition 4.1.7: Condition nécessaire et su�sante de compatibilité des équations
Soit AX = B est l'écriture matricielle de (S). Alors (S) admet des solutions si et seulement si B est
combinaison linéaire des colonnes de A.
4.2 Calcul pratique de l'inverse : résolution du système générique AX = B
Théorème 4.2.1
Soit A ∈ Mn(K) une matrice inversible. Alors, pour toutes matrices colonnes X et B de Kn, on a :
AX = B ⇔ X = A−1B.
En particulier, dans ce cas, (S) possède une unique solution.
Application au calcul de A−1 : Le théorème précédent fournit une méthode pratique pour calculer
l'inverse de A dans le cas où A est une matrice inversible. On peut essentiellement la résumer de la manière
suivante.
Méthode 4.2.2: Inverser une matrice à l'aide d'un système générique
Pour inverser une matrice inversible A, on peut procéder comme suit :
� Poser un système générique AX = B associé à A,
� Le résoudre (typiquement, à l'aide du pivot de Gauss),
� Lire les coe�cients de A−1 dans l'expression de X en fonction de B.
A�n de ne pas alourdir les notations, nous montrons le fonctionnement de cette méthode sur un exemple.
Considérons la matrice
A =
0 1 1
1 0 1
1 1 0
.
20 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Posons X =
x
y
z
et B =
a
b
c
deux matrices colonnes de K3. On a alors
AX = B ⇔
x+ y = a
x+ z = b
y + z = c.
On résout ce système avec les méthodes habituelles et on obtient :
AX = B ⇔
x = − 1
2a+ 12b+
12c
y = 12a− 1
2b+12c
z = 12a+ 1
2b−12c.
D'après le Théorème 4.2.1, cette dernière égalité est la traduction en système de X = A−1B. En revenant à la
forme matricielle, on a donc :
A−1 =
−1/2 1/2 1/2
1/2 −1/2 1/2
1/2 1/2 −1/2
.
Exercice 4.2.3
À l'aide de la méthode précédente, déterminer A−1 dans les cas suivants :
A =
(1 2
−1 1
), B =
0 1 0
1 0 0
0 0 1
et C =
1 1 1
0 1 1
0 0 1
Remarque 4.2.4
Si en appliquant la méthode précédente nous ne trouvons pas une unique solution au système générique,
cela signi�era simplement que A n'est pas inversible. Nous reviendrons sur ce point précis dans un
chapitre ultérieur.
4.3 Opérations élémentaires sur les lignes et les colonnes d'une matrice
Nous terminons ce chapitre par une traduction matriciele de la méthode de Gauss pour la résolution de
systèmes. Nous verrons en particulier comment utiliser l'algorithme de Gauss pour calculer l'inverse d'une
matrice.
Dé�nition 4.3.1: Opérations élémentaires sur les lignes d'une matrice
Étant donnée une matrice A ∈ Mn,p(K) composée des lignes L1, . . . , Ln, on appelle opération élé-
mentaire sur les lignes de A le fait de procéder à l'une des opérations suivantes :
� Échanger deux lignes de la matrice.
� Ajouter à une ligne un multiple d'une autre ligne,
� Multiplier une ligne de la matrice par un scalaire non nul.
Deux matrices A et A′ sont dites équivalentes en lignes si on peut passer de l'une à l'autre par une
suite �nie d'opérations élémentaires sur les lignes. On note alors
A ∼LA′.
21 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
Exercice 4.3.2
Montrer que :
a.
(1 2
3 4
)∼LI2, b.
1 1 1
0 1 1
0 0 1
∼LI3.
Chaque opération élémentaire appliquée sur les lignes d'une matrice A peut s'interpréter comme un produit
à gauche par une matrice inversible. En particulier, on a le résultat suivant :
Proposition 4.3.3
Soient A et A′ deux matrices de Mn,p(K). Alors sont équivalentes :
1. A ∼LA′,
2. il existe P ∈ GLn(K) telle que PA = A′.
Corollaire 4.3.4
Soit A ∈ Mn(K) telle que A ∼LIn. Alors A est inversible.
Remarque 4.3.5
Nous établirons dans un chapitre ultérieur que le précédent résultat est en fait une équivalence.
4.4 Calcul pratique de l'inverse : méthode de Gauss-Jordan
La méthode de Gauss-Jordan pour inverser une matrice inversible A ∈ Mn(K) repose sur l'idée suivante.
Si on arrive à établir une suite d'opérations élémentaires sur les lignes de A de manière à la transformer en
la matrice In, ces produits successifs correspondent à une certaine matrice inversible P telle que PA = In, de
sorte que P = A−1. Mais alors, la même suite d'opérations élémentaires appliquée sur les lignes de In reviendra
à calculer PIn = P = A−1.
Nous en déduisons la méthode suivante :
Méthode 4.4.1: Méthode de Gauss-Jordan pour inverser une matrice
Soit A ∈ GLn(K) et (A|In) ∈ Mn,2n(K) la matrice obtenue en juxtaposant A et la matrice identité.
1. On applique un algorithme de Gauss aux lignes de cette matrice de manière à transformer A en la
matrice identité.
2. On obtient une matrice de la forme (In|P ). Alors P = A−1.
Exemple 4.4.2
Inversons la matrice
A =
0 1 1
1 0 1
1 1 0
en appliquant la méthode de Gauss-Jordan.
22 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.
On a
(A|In) =
0 1 1 1 0 0
1 0 1 0 1 0
1 1 0 0 0 1
∼L1↔L3
1 1 0 0 0 1
1 0 1 0 1 0
0 1 1 1 0 0
∼
L2←L2−L1
1 1 0 0 0 1
0 −1 1 0 1 −1
0 1 1 1 0 0
∼
L3←L3+L2
1 1 0 0 0 1
0 −1 1 0 1 −1
0 0 2 1 1 −1
∼
L2←−L2
L3← 12L3
1 1 0 0 0 1
0 1 −1 0 −1 1
0 0 1 1/2 1/2 −1/2
∼
L2←L2+L3
1 1 0 0 0 1
0 1 0 1/2 −1/2 1/2
0 0 1 1/2 1/2 −1/2
∼
L1←L1−L2
1 0 0 −1/2 1/2 1/2
0 1 0 1/2 −1/2 1/2
0 0 1 1/2 1/2 −1/2
Ainsi, A est inversible et
A−1 =
−1/2 1/2 1/2
1/2 −1/2 1/2
1/2 1/2 −1/2
Remarque 4.4.3
� Si la matrice A n'est pas inversible, l'algorithme de Gauss-Jordan ne fonctionne pas. En e�et, dans ce cas
il n'est pas possible de transformer la matrice A en la matrice identité à l'aide d'opérations élémentaires
sur les lignes. Il convient donc de justi�er l'inversibilité de A avant de se lancer dans ces calculs.
Remarque 4.4.4: Opérations élémentaires sur les colonnes
Les opérations élémentaires étudiées précédemment étaient dé�nies sur les lignes de A ∈ Mn,p(K) par
analogie avec les opérations élémentaires sur les systèmes linéaires. Néanmoins, il est tout à fait possible
de dé�nir des opérations élémentaires sur les colonnes de A. Celles-ci se traduisent plus di�cilement en
termes de systèmes linéaires mais elles s'interprètent de la même manière en termes de produits à droite
par des matrices inversibles de Mp(K).
23 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.