Sauter au contenu

Section 4.2 Matrices et systèmes linéaires

Note : lecture supplémentaire dans l’Chapitre 6.

Sous-section Matrices et vecteurs

Avant de parler de systèmes linéaires d’EDO, il faut parler de matrices, alors une révision rapide s’impose. Une matrice est un tableau de \(m \times n\) nombres (\(m\) lignes et \(n\) colonnes). Par exemple, on écrit une matrice \(3 \times 5\) comme suit :
\begin{equation*} A = \begin{bmatrix} a_{11} \amp a_{12} \amp a_{13} \amp a_{14} \amp a_{15} \\ a_{21} \amp a_{22} \amp a_{23} \amp a_{24} \amp a_{25} \\ a_{31} \amp a_{32} \amp a_{33} \amp a_{34} \amp a_{35} \end{bmatrix}\text{.} \end{equation*}
On appelle éléments ou composantes les nombres \(a_{ij}\text{.}\)
Un vecteur désigne généralement un vecteur colonne , c’est-à-dire une matrice \(m \times 1\text{.}\) Lorsqu’on parle d’un vecteur ligne , on le précise (un vecteur ligne est une matrice \(1 \times n\)). On désigne généralement les matrices par des lettres majuscules, et les vecteurs par des minuscules avec une flèche au-dessus, comme \(\vec{x}\) ou \(\vec{b}\text{.}\) Un vecteur ne comprenant que des 0 s’écrit \(\vec{0}\text{.}\)
Définissons quelques opérations sur les matrices. Comme on veut que les matrices \(1 \times 1\) se comportent comme des nombres, les opérations doivent être compatibles avec ce principe.
Pour commencer, on peut multiplier une matrice par un scalaire (un nombre). On multiplie simplement chaque élément de la matrice par le scalaire. Par exemple,
\begin{equation*} 2 \begin{bmatrix} 1 \amp 2 \amp 3 \\ 4 \amp 5 \amp 6 \end{bmatrix} = \begin{bmatrix} 2 \amp 4 \amp 6 \\ 8 \amp 10 \amp 12 \end{bmatrix}\text{.} \end{equation*}
L’addition de matrices est aussi simple. On additionne élément par élément. Par exemple,
\begin{equation*} \begin{bmatrix} 1 \amp 2 \amp 3 \\ 4 \amp 5 \amp 6 \end{bmatrix} + \begin{bmatrix} 1 \amp 1 \amp -1 \\ 0 \amp 2 \amp 4 \end{bmatrix} = \begin{bmatrix} 2 \amp 3 \amp 2 \\ 4 \amp 7 \amp 10 \end{bmatrix}\text{.} \end{equation*}
On ne peut additionner que deux matrices de même taille.
Si l’on désigne par 0 une matrice dont tous les éléments sont nuls, par \(c\) et \(d\) des scalaires, et par \(A\text{,}\) \(B\) et \(C\) des matrices, on obtient les règles suivantes :
\begin{align*} A + 0 \amp = A = 0 + A ,\\ A + B \amp = B + A ,\\ (A + B) + C \amp = A + (B + C) ,\\ c(A+B) \amp = cA+cB,\\ (c+d)A \amp = cA + dA\text{.} \end{align*}
La transposition est une autre opération matricielle utile. Cette opération intervertit simplement les lignes et les colonnes d’une matrice. La transposition de \(A\) est notée \(A^T\text{.}\) Par exemple,
\begin{equation*} \begin{bmatrix} 1 \amp 2 \amp 3 \\ 4 \amp 5 \amp 6 \end{bmatrix}^T = \begin{bmatrix} 1 \amp 4 \\ 2 \amp 5 \\ 3 \amp 6 \end{bmatrix}\text{.} \end{equation*}

Sous-section Multiplication de matrices

Voyons maintenant la multiplication de matrices. Commençaons par définir le produit scalaire (ou produit intérieur ) de deux vecteurs. En règle générale, c’est le produit d’un vecteur ligne par un vecteur colonne de même dimension. Pour obtenir le produit scalaire, on multiplie chaque paire d’éléments du premier et du second vecteur, et l’on fait la somme des résultats. Le résultat est un nombre. Par exemple,
\begin{equation*} \begin{bmatrix} a_1 \amp a_2 \amp a_3 \end{bmatrix} \cdot \begin{bmatrix} b_1 \\ b_2 \\ b_3 \end{bmatrix} = a_1 b_1 + a_2 b_2 + a_3 b_3\text{.} \end{equation*}
Le principe est le même pour les vecteurs plus grands (ou plus petits).
Définissons ensuite le produit des matrices . Désignons par \(\operatorname{ligne}_i(A)\) la \(i^{\text{ième} }\) ligne de \(A\) et par \(\operatorname{colonne}_j(A)\) la \(j^{\text{ième} }\) colonne de \(A\text{.}\) Pour une matrice \(A\) de dimensions \(m \times n\) et pour une matrice \(B\) de dimensions \(n \times p\text{,}\) \(AB\) désigne le produit. La matrice \(AB\) est de dimensions \(m \times p\text{,}\) et le \(ij^{\text{ième} }\) élément est le produit scalaire
\begin{equation*} \operatorname{ligne}_i(A) \cdot \operatorname{colonne}_j(B)\text{.} \end{equation*}
Notez la correspondance des tailles : \(m \times n\) multipliée par \(n \times p\) donne \(m \times p\text{.}\) Par exemple,
\begin{align*} \end{align*}
Pour la multiplication de matrices, on veut un élément neutre jouant le rôle de 1. Cet élément neutre est la matrice identité ou matrice unité . La matrice identité est une matrice carrée avec des 1 sur la diagonale et avec des 0 ailleurs. On la désigne généralement par \(I\text{.}\) Pour chaque dimension, il y a une matrice identité différente, et la dimension est parfois inscrite en indice. Par exemple, \(I_3\) représente une matrice identité \(3 \times 3\text{.}\)
\begin{equation*} I = I_3 = \begin{bmatrix} 1 \amp 0 \amp 0 \\ 0 \amp 1 \amp 0 \\ 0 \amp 0 \amp 1 \end{bmatrix}\text{.} \end{equation*}
Les règles suivantes s’appliquent à la multiplication de matrices. Supposons que \(A\text{,}\) \(B\) et \(C\) sont des matrices de dimensions appropriées pour que les règles suivantes soient logiques. Le symbole \(\alpha\) représente un scalaire (nombre).
\begin{align*} A(BC) \amp = (AB)C,\\ A(B+C) \amp = AB + AC,\\ (B+C)A \amp = BA + CA,\\ \alpha(AB) \amp = (\alpha A)B = A(\alpha B),\\ IA \amp = A = AI \text{.} \end{align*}

Mise en garde 4.2.1.

Quelques avertissements s’imposent.
  1. En règle générale, \(AB \not= BA\) (le hasard peut faire que ce soit vrai). La multiplication de matrices n’est pas commutative. Par exemple, prenez \(A = \left[ \begin{matrix}1 \amp 1 \\ 1 \amp 1 \end{matrix} \right]\) et \(B = \left[ \begin{matrix}1 \amp 0 \\ 0 \amp 2 \end{matrix} \right]\text{.}\)
  2. Le fait que \(AB = AC\) ne signifie pas nécessairement que \(B=C\text{,}\) même si \(A\) n’est pas nulle.
  3. Le fait que \(AB = 0\) ne signifie pas nécessairement que \(A=0\) ou \(B=0\text{.}\) Essayez, par exemple, avec \(A = B = \left[ \begin{matrix}0 \amp 1 \\ 0 \amp 0 \end{matrix} \right]\text{.}\)
Afin que les deux derniers points soient vrais, on doit “diviser” par une matrice. C’est ici qu’entre en jeu l’inversion de matrices . Supposons que \(A\) et \(B\) sont des matrices \(n \times n\) telles que
\begin{equation*} AB = I = BA\text{,} \end{equation*}
alors la matrice \(B\) est l’inverse de \(A\text{,}\) et nous désignons \(B\) par \(A^{-1}\text{.}\) Si l’inverse de \(A\) existe, on dit que \(A\) est inversible . Si \(A\) n’est pas inversible, on dit parfois que \(A\) est singulière .
Si \(A\) est inversible, alors \(AB = AC\) signifie que \(B = C\) (l’inverse de \(A\) est alors unique). On multiplie simplement les deux côtés de l’équation par \(A^{-1}\) (à gauche) et l’on obtient \(A^{-1}AB = A^{-1}AC\) ou \(IB=IC\) ou \(B=C\text{.}\) On voit bien que \({(A^{-1})}^{-1} = A\text{.}\)

Sous-section Déterminant

Le déterminant est un outil utile pour les matrices carrées. Le déterminant d’une matrice \(1 \times 1\) est la valeur de son élément unique. Dans le cas d’une matrice \(2 \times 2\text{,}\) on définit
\begin{equation*} \det \left( \begin{bmatrix} a \amp b \\ c \amp d \end{bmatrix} \right) \overset{\text{ def } }{=} ad-bc\text{.} \end{equation*}
Avant de passer aux matrices plus grandes, examinons ce que signifie le déterminant. Considérons une matrice \(n \times n\) comme une projection d’un espace euclidien de dimension \(n\) sur lui-même, désigné par \({\mathbb{R}}^n\text{,}\)\(\vec{x}\) est envoyé à \(A \vec{x}\text{.}\) Une matrice \(A\) de dimensions \(2 \times 2\) est donc une projection du plan sur lui-même. Le déterminant de \(A\) est le facteur par lequel l’aire des objets change. Si l’on prend le carré unitaire (un carré de 1 x 1) dans le plan, alors la matrice \(A\) transforme le carré en parallélogramme avec une aire égale à \(\lvert\det(A)\rvert\text{.}\) Le signe du \(\det(A)\) désigne le changement d’orientation (négatif si les axes s’inversent). Par exemple, prenons
\begin{equation*} A = \begin{bmatrix} 1 \amp 1 \\ -1 \amp 1 \end{bmatrix}\text{.} \end{equation*}
Alors, \(\det(A) = 1+1 = 2\text{.}\) Voyez comment le carré (unitaire) avec les sommets \((0,0)\text{,}\) \((1,0)\text{,}\) \((0,1)\) et \((1,1)\) se transforme. Évidemment, \((0,0)\) demeure à \((0,0)\text{.}\)
\begin{equation*} \begin{bmatrix} 1 \amp 1 \\ -1 \amp 1 \end{bmatrix} \begin{bmatrix} 1 \\ 0 \end{bmatrix} = \begin{bmatrix} 1 \\ -1 \end{bmatrix} , \qquad \begin{bmatrix} 1 \amp 1 \\ -1 \amp 1 \end{bmatrix} \begin{bmatrix} 0 \\ 1 \end{bmatrix} = \begin{bmatrix} 1 \\ 1 \end{bmatrix} , \qquad \begin{bmatrix} 1 \amp 1 \\ -1 \amp 1 \end{bmatrix} \begin{bmatrix} 1 \\ 1 \end{bmatrix} = \begin{bmatrix} 2 \\ 0 \end{bmatrix}\text{.} \end{equation*}
L’image du carré est un autre carré avec les sommets \((0,0)\text{,}\) \((1,-1)\text{,}\) \((1,1)\) et \((2,0)\text{.}\) La longueur du côté du carré image est de \(\sqrt{2}\text{,}\) et son aire est donc de 2.
À l’école secondaire, vous avez peut-être appris une formule pour calculer l’aire d’un parallélogramme à partir des sommets \((0,0)\text{,}\) \((a,c)\text{,}\) \((b,d)\) et \((a+b,c+d)\text{.}\) C’est justement
\begin{equation*} \left\lvert \, \det \left( \begin{bmatrix} a \amp b \\ c \amp d \end{bmatrix} \right) \, \right\lvert\text{.} \end{equation*}
Les lignes verticales dans l’équation ci-dessus signifient valeur absolue. La matrice \(\left[ \begin{matrix}a \amp b \\ c \amp d \end{matrix} \right]\) transforme le carré unitaire en parallélogramme.
Regardons maintenant le déterminant de matrices plus grandes. On définit \(A_{ij}\) comme la matrice \(A\) avec la \(i^{\text{ième} }\) ligne et la \(j^{\text{ième} }\) colonne effacées. Pour calculer le déterminant d’une matrice, il faut choisir une ligne, disons la \(i^{\text{ième} }\) ligne, et calculer :
\begin{equation*} \det (A) = \sum_{j=1}^n {(-1)}^{i+j} a_{ij} \det (A_{ij}) . \end{equation*}
Pour la première ligne, on obtient
\begin{equation*} \det (A) = a_{11} \det (A_{11}) - a_{12} \det (A_{12}) + \cdots \begin{cases} + a_{1n} \det (A_{1n}) \amp \text{ si } n \text{ est impair} \\ - a_{1n} \det (A_{1n}) \amp \text{ si } n \text{ est pair. } \end{cases} \end{equation*}
On alterne entre l’addition et la soustraction des déterminants de la sous-matrice \(A_{ij}\) multipliés par \(a_{ij}\) pour un \(i\) fixe et pour tous les \(j\text{.}\) Dans le cas de la première ligne d’une matrice \(3 \times 3\text{,}\) on obtient \(\det (A) = a_{11} \det (A_{11}) - a_{12} \det (A_{12}) + a_{13} \det (A_{13})\text{.}\) Par exemple,
\begin{equation*} \begin{split} \det \left( \begin{bmatrix} 1 \amp 2 \amp 3 \\ 4 \amp 5 \amp 6 \\ 7 \amp 8 \amp 9 \end{bmatrix} \right) \amp = 1 \cdot \det \left( \begin{bmatrix} 5 \amp 6 \\ 8 \amp 9 \end{bmatrix} \right) - 2 \cdot \det \left( \begin{bmatrix} 4 \amp 6 \\ 7 \amp 9 \end{bmatrix} \right) + 3 \cdot \det \left( \begin{bmatrix} 4 \amp 5 \\ 7 \amp 8 \end{bmatrix} \right) \\ \amp = 1 (5 \cdot 9 - 6 \cdot 8) - 2 (4 \cdot 9 - 6 \cdot 7) + 3 (4 \cdot 8 - 5 \cdot 7) = 0 . \end{split} \end{equation*}
On appelle cofacteurs de la matrice les nombres \({(-1)}^{i+j}\det(A_{ij})\) et expansion par cofacteurs cette façaon de calculer le déterminant. On obtient toujours le même nombre, peu importe la ligne choisie. On peut aussi calculer le déterminant par expansion le long d’une colonne (en choisissant une colonne au lieu d’une ligne dans l’exemple ci-dessus). L’équation \(\det(A) = \det(A^T)\) est vraie.
On note habituellement un déterminant avec une paire de lignes verticales :
\begin{equation*} \begin{vmatrix} a \amp b \\ c \amp d \end{vmatrix} = \det \left( \begin{bmatrix} a \amp b \\ c \amp d \end{bmatrix} \right)\text{.} \end{equation*}
Cette notation peut être déroutante étant donné que les lignes verticales représentent habituellement une quantité positive, alors que les déterminants peuvent être négatifs. Pensez aussi à la difficulté d’écrire la valeur absolue d’un déterminant. Cette notation ne sera pas utilisée dans ce manuel.
Les déterminants renseignent sur la mise à l’échelle d’une projection. Si \(B\) double les dimensions d’une forme géométrique et que \(A\) les triple, alors \(AB\) (qui applique d’abord \(B\) et ensuite \(A\) à un objet) devrait multiplier la grosseur par \(6\text{.}\) En général, l’affirmation suivante est vraie :
\begin{equation*} \det(AB) = \det(A)\det(B)\text{.} \end{equation*}
Cette propriété est l’une des plus utiles et elle est fréquemment utilisée pour calculer les déterminants. Il est intéressant de noter la conséquence de cette propriété sur l’existence des matrices inversibles. Prenons \(A\) et \(B\) qui sont l’inverse l’une de l’autre, c’est-à-dire \(AB=I\text{.}\) Alors,
\begin{equation*} \det(A)\det(B) = \det(AB) = \det(I) = 1\text{.} \end{equation*}
Ni \(\det(A)\) ni \(\det(B)\) ne peuvent être nuls. Reformulons ce principe en théorème étant donné qu’il sera très important dans le cadre de ce cours.
En réalité, \(\det(A^{-1}) \det(A) = 1\) signifie que \(\det(A^{-1}) = \frac{1}{\det(A)}\text{.}\) On connaît donc la valeur du déterminant de \(A^{-1}\) avant de savoir comment calculer \(A^{-1}\text{.}\)
Il y a une formule simple pour l’inverse d’une matrice \(2 \times 2\) :
\begin{equation*} \begin{bmatrix} a \amp b \\ c \amp d \end{bmatrix}^{-1} = \frac{1}{ad-bc} \begin{bmatrix} d \amp -b \\ -c \amp a \end{bmatrix}\text{.} \end{equation*}
Remarquez la présence du déterminant de la matrice \([\begin{matrix}a\amp b\\c\amp d \end{matrix} ]\) dans le dénominateur de la fraction. La formule fonctionne seulement si le déterminant est non nul, sinon on obtient une division par zéro.

Sous-section Résolution de systèmes linéaires

Les matrices peuvent entre autres servir à résoudre des systèmes d’équations linéaires. La façaon la plus simple de le démontrer est à l’aide d’un exemple. Supposons le système linéaire d’équations suivant :
\begin{align*} 2 x_1 + 2 x_2 + 2 x_3 \amp = 2 ,\\ x_1 + x_2 + 3 x_3 \amp = 5 ,\\ x_1 + 4 x_2 + x_3 \amp = 10 \text{.} \end{align*}
Sans modifier la solution, on peut permuter des équations dans ce système, multiplier n’importe quelle équation par un nombre non nul et additionner un multiple d’une équation à une autre. Ces opérations sont toujours suffisantes pour trouver une solution.
Écrire le système sous forme d’équation matricielle rend l’analyse plus simple. Le système précédent peut s’écrire
\begin{equation*} \begin{bmatrix} 2 \amp 2 \amp 2 \\ 1 \amp 1 \amp 3 \\ 1 \amp 4 \amp 1 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ x_3 \end{bmatrix} = \begin{bmatrix} 2 \\ 5 \\ 10 \end{bmatrix}\text{.} \end{equation*}
Afin de résoudre le système, il suffit d’assembler la matrice de coefficients (celle à gauche dans l’équation) et de placer le vecteur à droite pour obtenir ce que l’on appelle une matrice augmentée :
\begin{equation*} \left[ \begin{array}{ccc|c} 2 \amp 2 \amp 2 \amp 2 \\ 1 \amp 1 \amp 3 \amp 5 \\ 1 \amp 4 \amp 1 \amp 10 \end{array} \right]\text{.} \end{equation*}
On peut appliquer les trois opérations élémentaires suivantes :
  1. Permuter deux lignes;
  2. Multiplier une ligne par un nombre non nul;
  3. Additionner un multiple d’une ligne à une autre.
On répète ces opérations jusqu’à ce que la solution soit évidente ou jusqu’à l’obtention d’une contradiction qui signifie qu’il n’y a pas de solution (par exemple, si l’on arrive à une équation comme \(0=1\)).
Examinons l’exemple précédent. Premièrement, multiplions la première ligne par \(\nicefrac{1}{2}\) pour obtenir
\begin{equation*} \left[ \begin{array}{ccc|c} 1 \amp 1 \amp 1 \amp 1 \\ 1 \amp 1 \amp 3 \amp 5 \\ 1 \amp 4 \amp 1 \amp 10 \end{array} \right]\text{.} \end{equation*}
Deuxièmement, soustrayons la première rangée de la deuxième et de la troisième :
\begin{equation*} \left[ \begin{array}{ccc|c} 1 \amp 1 \amp 1 \amp 1 \\ 0 \amp 0 \amp 2 \amp 4 \\ 0 \amp 3 \amp 0 \amp 9 \end{array} \right]\text{.} \end{equation*}
Troisièmement, multiplions la dernière rangée par \(\nicefrac{1}{3}\) et la deuxième par \(\nicefrac{1}{2}\) :
\begin{equation*} \left[ \begin{array}{ccc|c} 1 \amp 1 \amp 1 \amp 1 \\ 0 \amp 0 \amp 1 \amp 2 \\ 0 \amp 1 \amp 0 \amp 3 \end{array} \right]\text{.} \end{equation*}
Quatrièmement, permutons les lignes 2 et 3 :
\begin{equation*} \left[ \begin{array}{ccc|c} 1 \amp 1 \amp 1 \amp 1 \\ 0 \amp 1 \amp 0 \amp 3 \\ 0 \amp 0 \amp 1 \amp 2 \end{array} \right]\text{.} \end{equation*}
Finalement, soustrayons la dernière ligne de la première, puis la deuxième de la première :
\begin{equation*} \left[ \begin{array}{ccc|c} 1 \amp 0 \amp 0 \amp -4 \\ 0 \amp 1 \amp 0 \amp 3 \\ 0 \amp 0 \amp 1 \amp 2 \end{array} \right]\text{.} \end{equation*}
Si l’on considère les équations que cette matrice augmentée représente, on constate que \(x_1 = -4\text{,}\) \(x_2 = 3\) et \(x_3 = 2\text{.}\) Il suffit de tester cette solution dans le système original pour voir qu’elle fonctionne.

Exercice 4.2.3.

Vérifiez que la solution précédente résout réellement les équations proposées.
En notation matricielle, cette équation s’écrit
\begin{equation*} A \vec{x} = \vec{b}\text{,} \end{equation*}
\(A\) est la matrice \(\left[ \begin{matrix}2 \amp 2 \amp 2 \\ 1 \amp 1 \amp 3 \\ 1 \amp 4 \amp 1 \end{matrix} \right]\) et où \(\vec{b}\) est le vecteur \(\left[ \begin{matrix}2 \\ 5 \\ 10 \end{matrix} \right]\text{.}\) On peut aussi solutionner avec la matrice inverse :
\begin{equation*} \vec{x} = A^{-1} A \vec{x} = A^{-1} \vec{b}\text{.} \end{equation*}
Il se peut que la solution ne soit pas unique ou qu’aucune solution n’existe. Il est facile de savoir si aucune solution n’existe. Lors de la réduction des lignes, si tous les éléments d’une ligne sont nuls sauf le dernier (le dernier élément d’une ligne correspond au côté droit de l’équation), alors le système est incohérent et n’a pas de solution. Par exemple, pour un système de 3 équations à 3 inconnues, si l’on trouve une ligne telle que \([\,0 0 0 ~\,|\,~ 1\,]\) dans la matrice augmentée, on peut conclure que le système est incohérent, car la ligne correspond à \(0=1\text{.}\)
En règle générale, on utilise les opérations sur les lignes jusqu’à ce que les conditions suivantes soient remplies. Le premier élément non nul (à partir de la gauche) de chaque ligne est appelé élément principal.
  1. Chaque premier élément non nul d’une ligne est dans la colonne à droite du premier élément non nul de la ligne supérieure.
  2. Les lignes nulles se trouvent sous toutes les lignes non nulles.
  3. Chaque premier élément non nul est égal à 1.
  4. Tous les éléments au-dessus et en dessous de chaque premier élément non nul sont égaux à 0.
On dit d’une telle matrice qu’elle est à sa forme échelonnée réduite. On appelle variables libres les variables qui correspondent aux colonnes sans premier élément non nul. On peut remplacer les variables libres par n’importe quoi et résoudre ensuite pour le reste des inconnues.

Exemple 4.2.4.

La matrice augmentée suivante est à sa forme échelonnée réduite.
\begin{equation*} \left[ \begin{array}{ccc|c} 1 \amp 2 \amp 0 \amp 3 \\ 0 \amp 0 \amp 1 \amp 1 \\ 0 \amp 0 \amp 0 \amp 0 \end{array} \right] \end{equation*}
Supposons que les variables sont \(x_1\text{,}\) \(x_2\) et \(x_3\text{.}\) Alors, \(x_2\) est la variable libre, \(x_1 = 3 - 2x_2\) et \(x_3 = 1\text{.}\)
Cependant, si le procédé de réduction de lignes mène à la matrice
\begin{equation*} \left[ \begin{array}{ccc|c} 1 \amp 2 \amp 13 \amp 3 \\ 0 \amp 0 \amp 1 \amp 1 \\ 0 \amp 0 \amp 0 \amp 3 \end{array} \right]\text{,} \end{equation*}
il n’est pas nécessaire d’aller plus loin. La dernière ligne correspond à l’équation \(0 x_1 + 0 x_2 + 0 x_3 = 3\text{,}\) qui n’a aucun sens. Par conséquent, aucune solution n’existe.

Sous-section Calcul de l’inverse

Si la matrice \(A\) est carrée et qu’une solution unique \(\vec{x}\) à \(A \vec{x} = \vec{b}\) existe pour chaque \(\vec{b}\) (il n’y a pas de variable libre), alors \(A\) est inversible. Si l’on multiplie les deux côtés par \(A^{-1}\text{,}\) on obtient \(\vec{x} = A^{-1} \vec{b}\text{.}\) Le calcul de l’inverse est utile afin de résoudre l’équation pour plusieurs \(\vec{b}\) différents.
Il y a une formule pour l’inverse d’une matrice \(2 \times 2\text{,}\) et le calcul de l’inverse de matrices plus larges n’est pas plus compliqué. Même si l’occasion de calculer l’inverse de matrices plus larges que \(2 \times 2\) à la main ne se présente pas souvent, voyons comment le faire. Trouver l’inverse de \(A\) consiste en fait à résoudre un ensemble d’équations linéaires. Si l’on peut résoudre \(A \vec{x}_k = \vec{e}_k\text{,}\)\(\vec{e}_k\) est le vecteur avec des 0 partout à l’exception d’un 1 à la \(k^{\text{ième} }\) position, alors l’inverse est la matrice avec les colonnes \(\vec{x}_k\) pour \(k=1,2,\ldots,n\) (exercice: pourquoi?). Par conséquent, afin de trouver l’inverse, on écrit une matrice augmentée \(n \times 2n\) plus grande \([ \,A ~|~ I\, ]\text{,}\)\(I\) est la matrice identité. On procède alors à la réduction par ligne. La forme échelonnée réduite de \([ \,A ~|~ I\, ]\) sera de la forme \([ \,I ~|~ A^{-1}\, ]\) si et seulement si \(A\) est inversible. Il suffit alors de lire l’inverse \(A^{-1}\text{.}\)

Exercices Exercices

1.

Résolvez \(\left[ \begin{matrix}1 \amp 2 \\ 3 \amp 4 \end{matrix} \right] \vec{x} = \left[ \begin{matrix}5 \\ 6 \end{matrix} \right]\) en utilisant la matrice inverse.

2.

Calculez le déterminant de \(\left[ \begin{matrix}9 \amp -2 \amp -6 \\ -8 \amp 3 \amp 6 \\ 10 \amp -2 \amp -6 \end{matrix} \right]\text{.}\)

3.

Calculez le déterminant de \(\left[ \begin{matrix}1 \amp 2 \amp 3 \amp 1 \\ 4 \amp 0 \amp 5 \amp 0 \\ 6 \amp 0 \amp 7 \amp 0 \\ 8 \amp 0 \amp 10 \amp 1 \end{matrix} \right]\text{.}\) Conseil : Procédez à l’expansion le long de la ligne ou de la colonne qui simplifiera les calculs.

4.

Calculez l’inverse de \(\left[ \begin{matrix}1 \amp 2 \amp 3 \\ 1 \amp 1 \amp 1 \\ 0 \amp 1 \amp 0 \end{matrix} \right]\text{.}\)

5.

Pour quel \(h\) la matrice \(\left[ \begin{matrix}1 \amp 2 \amp 3 \\ 4 \amp 5 \amp 6 \\ 7 \amp 8 \amp h \end{matrix} \right]\) n’est pas inversible? Est-ce que \(h\) est unique? a plusieurs valeurs? a une infinité de solution?

6.

Pour quel \(h\) la matrice \(\left[ \begin{matrix}h \amp 1 \amp 1 \\ 0 \amp h \amp 0 \\ 1 \amp 1 \amp h \end{matrix} \right]\) n’est pas inversible? Trouvez tous les \(h\text{.}\)

7.

Résolvez \(\left[ \begin{matrix}9 \amp -2 \amp -6 \\ -8 \amp 3 \amp 6 \\ 10 \amp -2 \amp -6 \end{matrix} \right] \vec{x} = \left[ \begin{matrix}1 \\ 2 \\ 3 \end{matrix} \right]\) .

8.

Résolvez \(\left[ \begin{matrix}5 \amp 3 \amp 7 \\ 8 \amp 4 \amp 4 \\ 6 \amp 3 \amp 3 \end{matrix} \right] \vec{x} = \left[ \begin{matrix}2 \\ 0 \\ 0 \end{matrix} \right]\text{.}\)

9.

Résolvez \(\left[ \begin{matrix}3 \amp 2 \amp 3 \amp 0 \\ 3 \amp 3 \amp 3 \amp 3 \\ 0 \amp 2 \amp 4 \amp 2 \\ 2 \amp 3 \amp 4 \amp 3 \end{matrix} \right] \vec{x} = \left[ \begin{matrix}2 \\ 0 \\ 4 \\ 1 \end{matrix} \right]\text{.}\)

10.

Trouvez 3 matrices \(2 \times 2\) non nulles \(A\text{,}\) \(B\) et \(C\) telles que \(AB = AC\text{,}\) mais \(B \not= C\text{.}\)

11.

Calculez le déterminant de \(\left[ \begin{matrix}1 \amp 1 \amp 1 \\ 2 \amp 3 \amp -5 \\ 1 \amp -1 \amp 0 \end{matrix} \right]\)
Réponse.
\(-15\)

12.

Trouvez \(t\) tel que \(\left[ \begin{matrix}1 \amp t \\ -1 \amp 2 \end{matrix} \right]\) n’est pas inversible.
Réponse.
\(-2\)

13.

Résolvez \(\left[ \begin{matrix}1 \amp 1 \\ 1 \amp -1 \end{matrix} \right] \vec{x} = \left[ \begin{matrix}10 \\ 20 \end{matrix} \right]\text{.}\)
Réponse.
\(\vec{x} = \left[ \begin{matrix}15 \\ -5 \end{matrix} \right]\)

14.

Supposez que \(a, b, c\) sont des nombres non nuls, que \(M=\left[ \begin{matrix}a \amp 0 \\ 0 \amp b \end{matrix} \right]\) et \(N=\left[ \begin{matrix}a \amp 0 \amp 0 \\ 0 \amp b \amp 0 \\ 0 \amp 0 \amp c \end{matrix} \right]\text{.}\)
  1. Calculez \(M^{-1}\text{.}\)
  2. Calculez \(N^{-1}\text{.}\)
Réponse.
a) \(\left[ \begin{matrix}\nicefrac{1}{a} \amp 0 \\ 0 \amp \nicefrac{1}{b} \end{matrix} \right]\) b) \(\left[ \begin{matrix}\nicefrac{1}{a} \amp 0 \amp 0 \\ 0 \amp \nicefrac{1}{b} \amp 0 \\ 0 \amp 0 \amp \nicefrac{1}{c} \end{matrix} \right]\)