Sauter au contenu

Algèbre linéaire et géométrie vectorielle

Section 5.2 Propriétés multiplicatives et règle de Cramer

Dans cette section, on établit le lien entre le déterminant d’une matrice et son inversibilité. Ceci permettra de revoir certains faits géométriques sous l’éclairage des déterminants et le lien avec l’indépendance linéaire. Dans un deuxième temps, on verra comment le déterminant se comporte vis-à-vis du produit matriciel. Comme application, on présente la règle de Cramer.

Sous-section Déterminants et inversibilité

Démonstration.

La matrice \(R\) s’obtient à partir de \(A\) par une suite d’opérations élémentaires. Chaque opération élémentaire a comme effet de multiplier le déterminant par un nombre non nul (voir le théorème 5.1.21). Le résultat suit.

Démonstration.

Soit \(R\) une forme échelonnée de \(A\text{.}\) D’après le lemme 5.2.1, on a \(\det{A} = 0\) si et seulement si \(\det{R} = 0\text{.}\)
On suppose pour commencer que les rangées de \(A\) sont linéairement dépendantes. Dans ce cas, en vertu du théorème 2.2.20 une des rangées est combinaison linéaire des autres. Avec une suite d’opérations élémentaires on peut donc obtenir une matrice ayant une rangée de \(0\text{.}\) Dans \(R\) on aura donc une rangée nulle, et donc, comme il s’agit d’une matrice triangulaire, \(\det{R}=0\text{,}\) ce qui force \(\det{A} = 0\text{.}\)
Si les colonnes de \(A\) sont linéairement dépendantes, l’équation \(A\vx = \vZero\) admet une infinité de solutions. Dans ce cas, la réduction de \(A\) à \(R\) donne lieu à au moins une colonne sans pivot (pour avoir une variable libre), de sorte que le rang de \(A\) est strictement inférieur au nombre de colonnes. Dans ce cas, dans \(R\) on doit avoir aussi une rangée de \(0\text{.}\)

Démonstration.

On suppose pour commencer que \(A\) est inversible, de sorte qu’une suite d’opérations élémentaires permet de réduire \(A\) à l’identité qui est en fait la forme échelonnée et réduite de \(A\text{.}\) Comme \(\det{I} = 1 \neq 0\text{,}\) le lemme 5.2.1 donne directement que \(\det{A} \neq 0\text{.}\)
Si \(\det{A}\neq 0\text{,}\) en vertu du corollaire 5.2.2 les colonnes de \(A\) sont linéairement indépendantes. Le théorème 3.2.22 donne le résultat voulu.

Exemple 5.2.4.

Trouver les valeurs de \(k\) telles que \(A=\mtt{k}{k}{0}{k^2}{2}{k}{0}{k}{k}\) soit inversible.
Solution.
On calcule le déterminant de la matrice.
\begin{align*} \det{A} \amp = \left| \begin{array}{rrr} k\amp k \amp 0\\ k^2 \amp 2 \amp k\\ 0 \amp k\amp k \end{array}\right| \xlongequal[\tfrac{1}{k}R_3]{\tfrac{1}{k}R_1} k^2 \left| \begin{array}{rrr} 1\amp 1 \amp 0\\ k^2 \amp 2 \amp k\\ 0 \amp 1\amp 1 \end{array}\right| \xlongequal{C_2-C_1} k^2 \left| \begin{array}{rcr} 1\amp 0 \amp 0\\ k^2 \amp 2-k^2 \amp k\\ 0 \amp 1\amp 1 \end{array}\right|\\ \amp \xlongequal{R_1} k^2\left|\begin{array}{cc} 2-k^2 \amp k \\ 1 \amp 1 \end{array}\right| = k^2((2-k^2) - k)= - k^2(k+2)(k-1) \end{align*}
Ainsi, \(A\) est inversible si et seulement si \(k\not\in\{ 0, -2, 1\}\text{.}\)

À vous de jouer 5.2.5.

Déterminer \(k\) pour que la matrice \(M\) suivante soit non inversible (on dit souvent "singulière").
\begin{equation*} M = \displaystyle\left[\begin{array}{crr} -4 \amp 1 \amp 4 \cr 0 \amp 3 \amp 1 \cr -13+k \amp 4 \amp 5 \cr \end{array}\right] \end{equation*}
\(k=\)
Réponse.
\(9\)
On s’intéresse maintenant au comportement du déterminant vis-à-vis du produit matriciel, plus précisément, si \(A,B\in \mmn{n}{n}\) sont données, peut-on :
  1. Dire quelque chose au sujet de \(|AB|\) connaissant \(|A|\) et \(|B|\text{?}\)
  2. Dire quelque chose au sujet de \(\left|A^{-1}\right|\) connaissant \(|A|\text{?}\)
On verra que les réponses sont celles qu’on voudrait avoir.

Démonstration.

On suppose pour commencer que \(A\) n’est pas inversible. Dans ce cas, quelle que soit la matrice \(B\text{,}\) le produit \(AB\) ne peut pas être inversible. En effet, si c’était le cas, on aurait une matrice \(X\) telle que \(I = (AB)X = A(BX)\) et donc \(A\) serait inversible elle-même. Ainsi
\begin{equation*} 0 =\det{AB} = 0 \cdot \det{B} =\det{A}\det{B}\text{.} \end{equation*}
On montre le résultat lorsque \(A\) est inversible. Il a déjà été montré que si \(E\) est une matrice élémentaire alors
\begin{equation*} \det{EB} = \det{E}\cdot \det{B} \quad \text{ ou encore } \quad |EB| = |E|\, |B| \text{.} \end{equation*}
Comme les matrices inversibles sont des produits de matrices élémentaires (voir le théorème 3.2.34), le résultat suivra. En effet, il existe des matrices élémentaires \(E_1,\ldots, E_k\) telles que \(A = E_1E_2\cdots E_k\text{.}\) Alors
\begin{align*} |AB| \amp = | \left(E_1E_2\cdots E_k \right)B| \\ \amp =| E_1\left(E_2\cdots E_k B\right)| \\ \amp = |E_1|\cdot |E_2\cdots E_k B| \\ \amp = \cdots \\ \amp = |E_1|\cdot |E_2| \cdots |E_k|\cdot |B| \\ \amp = |E_1 E_2| \cdots |E_k|\cdot |B|\\ \amp = |E_1\cdots E_k| |B| \\ \amp = |A|\, |B| \end{align*}
Une conséquence de ce résultat est la réponse à la deuxième question posée ci-haut.

Démonstration.

  1. On procède par récurrence sur \(n\text{.}\) Pour \(n=2\) on n’a qu’à invoquer le théorème 5.2.6 avec \(A\) dans les rôles de \(A\) et \(B\text{.}\)
    On suppose l’énoncé vrai pour \(k\text{.}\) Alors
    \begin{align*} |A^{k+1}| \amp =|A A^{k}| = |A|\,|A^k| = |A|\,|A|^k = |A|^{k+1} \end{align*}
    où la troisième égalité est donnée par l’hypothèse de récurrence.
  2. Encore une fois, le résultat suit du théorème 5.2.6 et du fait que le déterminant de la matrice identité est \(1\text{.}\) En effet :
    \begin{equation*} 1 = \det{I} = \det{AA^{-1}} = \det{A}\det{A^{-1}} \end{equation*}
    et le résultat s’obtient en divisant cette égalité par \(\det{A}\) des deux côtés.
    Le cas général s’obtient avec la partie (a) appliquée à la matrice \(A^{-1}\)

Exemple 5.2.8.

Supposez que \(A,B\in \mmn{n}{n}\) et que \(|A|= 3, |B| = -2\text{,}\) trouver les valeurs des déterminants :
  1. \(\displaystyle |AB|\)
  2. \(\displaystyle |A^2|\)
  3. \(\displaystyle |B^{-1}A|\)
  4. \(\displaystyle |2A|\)
  5. \(\displaystyle |3B^T|\)
  6. \(\displaystyle |AA^T|\)
Solution.
  1. \(\displaystyle |AB| = |A||B| = 3(-2) = -6\)
  2. \(\displaystyle |A^2| = |A|^2 = 3^2 = 9\)
  3. \(\displaystyle |B^{-1}A| = |B^{-1}||A| = \tfrac{1}{|B|} |A| = \tfrac{3}{-2} = -\tfrac{3}{2}\)
  4. \(\displaystyle |2A| = 2^n |A| = 2^n \cdot 3\)
  5. \(\displaystyle |3B^T| = 3^n |B^T| = 3^n |B| = 3^n \cdot (-2)\)
  6. \(\displaystyle |AA^T| = |A||A^T| = |A|^2 = 3^2 = 9\)

Exemple 5.2.9.

Supposez que \(A\) est une matrice idempotente, c’est-à-dire que \(A^2 = A\text{.}\) Quelles sont les valeurs possibles de \(|A|\text{?}\)
Solution.
En utilisant le théorème 5.2.6 on a
\begin{equation*} \det{A} = \det{A^2} = \det{A}\cdot \det{A} = (\det{A})^2 \end{equation*}
de sorte que les seules valeurs possibles pour \(|A|\) sont \(0\text{ et }1\text{.}\)

À vous de jouer 5.2.10.

Soit \(A\) et \(B\) deux matrices \(2 \times 2\text{.}\) Si \(\textnormal{det}(A)=2\) et \(\textnormal{det}(B)=4\text{,}\) alors :
\(\textnormal{det}(AB) =\) ,
\(\textnormal{det}(2 A) =\) ,
\(\textnormal{det}(A^{T}) =\) ,
\(\textnormal{det}(B^{-1}) =\) ,
\(\textnormal{det}(B^{4}) =\) .

À vous de jouer 5.2.11.

Si
\begin{equation*} B = \left[ \begin{array}{rrr} 1 \amp 0 \amp 1 \\ -1 \amp 2 \amp 1 \\ 2 \amp 2 \amp 1 \end{array} \right], \end{equation*}
alors \(\textnormal{det}(B^{7}) =\) .
Réponse.
\(-279936\)
Finalement on peut, grâce aux déterminants, donner la preuve de la remarque 3.2.6 qui affirme que lorsqu’une matrice carrée a un inverse d’un côté, alors il s’agit automatiquement d’un inverse de l’autre côté. Ce fait a été utilisé dans la preuve du théorème 3.2.22.

Démonstration.

En utilisant le théorème 5.2.6 on a
\begin{equation*} \det{I} = \det{BA} = \det{B}\cdot \det{A} \end{equation*}
de sorte que \(\det{B}\neq 0\) et donc \(B\) est inversible, de sorte que l’unique solution de l’équation \(B\vx = \vZero\) est \(\vZero\text{.}\) Comme \(BA= I\) on a \(BAB = B\) ou encore \(B(AB-I) = 0\text{,}\) ce qui veut dire que pour tout vecteur \(\vx\in R^n\text{,}\) on a \(B(AB-I)\vx = \vZero\text{,}\) c’est-à-dire que pour tout vecteur \(\vx \in \R^n\) on a \(B((AB-I)\vx) = \vZero\) de sorte que \((AB-I)\vx = \vZero\) ou encore \(AB \vx = \vx\text{.}\) Comme ceci est vrai pour tout vecteur \(\vx \in \R^n\text{,}\) on a bien \(AB = I\text{.}\)

Sous-section De retour à la géométrie

Étant donné que la dépendance / indépendance linéaire est caractérisée par la nullité ou pas d’un déterminant, on peut utiliser les déterminants pour établir des équations de droites et plans.

Exemple 5.2.13.

  1. Trouver l’équation de la droite passant par \(A(1,2)\) et \(B(3,-1)\text{.}\)
  2. Trouver l’équation du plan \(\plan{P}\) passant par les points \(A(a,0,0), B(0,b,0)\) \(C(0,0,c)\text{.}\)
  3. Soient \(\vu = \rvt{1}{3}{-1}\) et \(\vv = \rvt{-1}{2}{3}\text{.}\) Donner une condition sur \(\vx = \rvt{x_1}{x_2}{x_3}\) de sorte que \(\vx \in \gen{\vu, \vv }\text{.}\)
Solution.
  1. Soit \(\plan{D}\) la droite en question. Un point \(M(x,y)\) appartient à \(\plan{D}\) si et seulement si les vecteurs \(\overrightarrow{AM}\) et \(\overrightarrow{AB}\) sont colinéaires. Ainsi,
    \begin{align*} M\in \plan{D} \amp \iff \det{\vm - \va, \vb - \va} = 0 \\ \amp \iff \left| \begin{array}{cc} x-1 \amp 2\\ y-2 \amp -3 \end{array}\right| = 0 \\ \amp \iff -3(x-1) - 2(y-2) = 0 \\ \amp \iff 3x+2y = 7 \end{align*}
  2. Soit \(\plan{P}\) le plan en question. Un point \(M(x,y,z)\) appartient à \(\plan{P}\) si et seulement si les vecteurs \(\overrightarrow{AM}, \overrightarrow{AB}, \overrightarrow{AC}\) sont coplanaires. Ainsi,
    \begin{align*} M\in \plan{P} \amp \iff \det{\vm - \va, \vb - \va, \vc - \va} = 0 \\ \amp \iff \left| \begin{array}{ccc} x-a \amp -a \amp -a\\ y\amp b \amp 0 \\ z\amp 0 \amp c \end{array}\right| = 0 \\ \amp \iff (-a)\cdot(-1)^3 \left| \begin{array}{cc} y \amp 0 \\ z\amp c\end{array}\right| + b\cdot (-1)^4\left| \begin{array}{cc} x-a \amp -a\\ z\amp c\end{array}\right| = 0 \\ \amp \iff acy + b(c(x-a) + az) = 0 \\ \amp \iff bcx + acy + abz = abc \end{align*}
    où la troisième équivalence est obtenue avec le développement du déterminant selon la deuxième colonne.
  3. On a \(\vx \in \gen{\vu,\vv}\) si et seulement si \(\vx\) est combinaison linéaire de \(\vu\) et \(\vv\text{,}\) c’est-à-dire, si et seulement si les vecteurs \(\vx, \vu, \vv\) sont linéairement dépendants. Ainsi,
    \begin{align*} \vx \in \gen{\vu,\vv} \amp \iff \det{ \vu, \vv,\vx} = 0 \amp \quad \\ \amp\iff \left|\begin{array}{rrr} 1\amp-1 \amp x_1 \\ 3\amp 2 \amp x_2\\ -1\amp 3 \amp x_3\end{array}\right| = 0 \amp \quad \\ \amp \iff \left|\begin{array}{rrr} 1\amp -1 \amp x_1 \\ 0\amp 5 \amp x_2-3x_1\\ 0\amp 2 \amp x_3+x_1\end{array}\right| = 0 \amp (R_2 - 3R_1, R_3 + R_1) \\ \amp \iff 11x_1 - 2x_2 + 5x_3 = 0 \amp \quad \text{.} \end{align*}

Remarque 5.2.14.

Une autre approche est possible pour ce genre de problèmes. Il s’agit plutôt de raisonner sur l’existence de solutions à un certain système d’équations. Par exemple, pour la partie (a), on peut trouver une équation de la droite en question en cherchant une équation du type \(ax + by + c =0\) vérifiée par les points \(A\text{ et }B\text{.}\) Le fait que chacun des points doit vérifier l’équation se traduit par deux équations dont les inconnues sont \(a,b,c\text{,}\) à savoir \(a+2b+c=0\) et \(3a-b+c=0\text{.}\) Un point générique de coordonnées \((x,y)\) appartient à la droite cherchée si et seulement si il existe une solution \(ax+by+c=0\text{.}\) On a donc un système homogène (les inconnues sont \(a,b,c\))
\begin{equation*} \left\{ \begin{array}{lcr} a+2b +c \amp = \amp 0\\ 3a-b+c \amp = \amp 0\\ ax + by + c \amp = \amp 0 \end{array}\right. \end{equation*}
qui admet une solution non triviale si et seulement si le déterminant de la matrice des coefficients est nul, c’est-à-dire, si et seulement si
\begin{equation*} \left| \begin{array}{rrr} 1\amp 2\amp 1\\ 3\amp -1\amp 1\\ x\amp y \amp 1\end{array}\right| = 0 \text{.} \end{equation*}
On laisse en exercice la vérification que l’équation ainsi obtenue est équivalente.
Les interprétations géométriques des déterminants font aussi intervenir le calcul d’aires et de volumes. Rappelons (voir la remarque 1.3.29 et la discussion autour de celle-ci) que le produit vectoriel de deux vecteurs de \(\R^3\) s’exprime à l’aide de déterminants \(2\times 2\text{,}\) et un “déterminant symbolique\(3\times 3\text{,}\) à savoir, le produit vectoriel de \(\vu = \rvt{u_1}{u_2}{u_3}\) et \(\vv = \rvt{v_1}{v_2}{v_3}\) est donné par
\begin{align*} \vu \times \vv \amp = \begin{vmatrix}\vi \amp u_1 \amp v_1 \\ \vj \amp u_2 \amp v_2\\ \vk \amp u_3 \amp v_3 \end{vmatrix} \\ \amp = \begin{vmatrix} u_2 \amp v_2 \\ u_3 \amp v_3\end{vmatrix}\vi - \begin{vmatrix} u_1 \amp v_1 \\ u_3 \amp v_3\end{vmatrix}\vj + \begin{vmatrix} u_1 \amp v_1 \\ u_2 \amp v_2\end{vmatrix}\vk. \end{align*}

Démonstration.

  1. Soient \(\vu = \rvd{u_1}{u_2}\) et \(\vv = \rvd{v_1}{v_2}\) deux vecteurs dans \(\R^2\text{.}\) L’aire du parallélogramme s’obtient comme le produit de sa base par sa hauteur. Afin d’obtenir cette dernière on doit projeter un des vecteurs dans la direction orthogonale à l’autre. Soit donc \(\vw = \rvd{-u_2}{u_1}\) qui est orthogonal à \(\vu\) et en plus vérifie \(\nrm{\vw} = \nrm{\vu}\text{.}\) Alors, la hauteur est
    \begin{align*} \nrm{\proj{\vv}{\vw}} \amp= \frac{|\vv \cdot \vw |}{\vw \cdot \vw} \nrm{\vw} = \frac{|\vv\cdot \vw|}{\nrm{\vw}}\text{.} \end{align*}
    L’aire cherchée vaut donc
    \begin{equation*} \nrm{\vu}\, \nrm{\proj{\vv}{\vw}} = |\vv \cdot \vw| = |-u_2 v_1 + u_1 v_2| = \left| \det{\vu,\vv}\right|\text{.} \end{equation*}
  2. On a déjà établi au corollaire 1.3.43 que le volume du parallélépipède déterminé par les vecteurs \(\vu, \vv, \vw\in \R^3\) est donné par \(\left| \vu \cdot(\vv \times \vw) \right|\text{.}\)
    Or on a
    \begin{align*} \vu \amp= u_1 \vi + u_2 \vj + u_3\vk \\ \vv \times \vw \amp= \Ddd{v_2}{w_2}{v_3}{w_3} \vi - \Ddd{v_1}{w_1}{v_3}{w_3} \vj + \Ddd{v_1}{w_1}{v_2}{w_2} \vk \end{align*}
    de sorte que
    \begin{align*} \vu \cdot (\vv \times \vw) \amp = u_1\,\Ddd{v_2}{w_2}{v_3}{w_3} - u_2\, \Ddd{v_1}{w_1}{v_3}{w_3} + u_3\ \Ddd{v_1}{w_1}{v_2}{w_2} \\ \amp = \left| \begin{array}{ccc} u_1 \amp v_1\amp w_1\\ u_2\amp v_2 \amp w_2\\ u_3\amp v_3\amp w_3\end{array}\right|\\ \amp = \det{\vu, \vv,\vw}\text{.} \end{align*}

Exemple 5.2.16.

Calculer le volume du parallélépipède déterminé par les vecteurs \(\vu = \rvt{-1}{-2}{1}, \vv= \rvt{4}{3}{2}\) et \(\vw = \rvt{0}{-5}{-2}\text{.}\)
Solution.
On calcule le déterminant:
\begin{align*} \det{\vu, \vv,\vw} \amp = \left| \begin{array}{ccc} -1 \amp 4\amp 0\\ -2\amp 3 \amp -5\\ 1\amp 2\amp -2\end{array}\right| \xlongequal{C_2+4C_1} \left| \begin{array}{rrr} -1 \amp 0\amp 0\\ -2\amp -5 \amp -5\\ 1\amp 6\amp -2\end{array}\right|\\ \amp \xlongequal{R_1} (-1)\Ddd{-5}{-5}{6}{-2} \xlongequal{-\tfrac{1}{5}R_1} 5\Mdd{1}{1}{6}{-2} = -40 \end{align*}
de sorte que le volume cherché est \(40\text{.}\)

Sous-section La règle de Cramer

La règle de Cramer permet de résoudre des systèmes linéaires en effectuant des quotients de déterminants. Il s’agit d’une méthode efficace pour les systèmes \(2\times 2\text{,}\) voire \(3\times 3\text{.}\) Elle fournit cependant une méthode pour le calcul de l’inverse.

Démonstration.

Comme d’habitude, soient \(\va_1,\ldots \va_n\) les colonnes de \(A\text{.}\) Alors
\begin{align*} A I_i(\vs) \amp = A \left[ \begin{array}{ccccccc} \ve_1 \amp \cdots \amp \ve_{i-1} \amp \vs \amp \ve_{i+1} \amp \cdots \amp \ve_n \end{array}\right] \\ \amp = \left[ \begin{array}{ccccccc} A\ve_1 \amp \cdots \amp A\ve_{i-1} \amp A\vs \amp A\ve_{i+1} \amp \cdots \amp A\ve_n \end{array}\right] \\ \amp = \left[ \begin{array}{ccccccc} \va_1 \amp \cdots \amp \va_{i-1} \amp \vb \amp \va_{i+1} \amp \cdots \amp \va_n \end{array}\right]\\ \amp = A_i(\vb) \end{align*}
Ainsi, au niveau des déterminants, on a
\begin{align*} \det{AI_i(\vs)} \amp = \det{A} \det{I_i(\vs)} = \det{A_i(\vb)} \end{align*}
mais \(\det{I_i(\vs)} = s_i\) de sorte que la deuxième égalité ci-haut devient
\begin{equation*} \det{A} s_i = \det{A_i(\vb)} \end{equation*}
et le résultat suit.

Exemple 5.2.18.

Utiliser la règle de Cramer pour résoudre les systèmes d’équations suivants.
  1. \(\displaystyle \left\{ \begin{alignedat}{3} 2x \amp {} + {} \amp y \amp {}={} \amp -1\\ 5x\amp {} + {} \amp 3y \amp ={} \amp 2 \end{alignedat} \right.\)
  2. \(\displaystyle \left\{ \begin{alignedat}{4} x \amp {} + {} \amp y \amp {} - {} \amp z \amp {}={} \amp 1\\ x \amp {} + {} \amp y \amp {} + {} \amp z \amp {}={} \amp 2\\ x \amp {} - {} \amp y \amp {} {} \amp \amp {}={} \amp 3 \end{alignedat}\right.\)
Solution.
  1. On commence par écrire le système sous forme matricielle, soit \(A\vx = \vb\text{,}\) \(A = \mdd{2}{1}{5}{3}, \vx = \rvd{x}{y}\) et \(\vb = \rvd{-1}{2}\text{.}\) Alors \(\det{A} = 2\cdot 3 - 5\cdot 1 = 1\) de sorte que le système admet une unique solution donnée par
    \begin{align*} x \amp = \frac{|A_1(\vb)|}{|A|} = \frac{\left|\begin{array}{rr} -1 \amp 1 \\ 2 \amp 3\end{array}\right|}{1} = -5, \amp y \amp = \frac{|A_2(\vb)|}{|A|} = \frac{\left|\begin{array}{rr} 2 \amp -1 \\ 5 \amp 2\end{array}\right|}{1} = 9 \end{align*}
  2. À nouveau, on commence par l’écriture sous forme matricielle \(A\vx = \vb\) et le calcul du déterminant de la matrice de coefficients
    \begin{equation*} \left[ \begin{array}{rrr} 1 \amp 1 \amp -1 \\ 1 \amp 1 \amp 1 \\ 1 \amp -1 \amp 0\end{array} \right] \left[ \begin{array}{c}x\\y\\z\end{array} \right] = \left[ \begin{array}{c}1\\2\\3\end{array} \right] \end{equation*}
    Alors
    \begin{align*} |A| \amp = \left| \begin{array}{rrr} 1 \amp 1 \amp -1 \\ 1 \amp 1 \amp 1 \\ 1 \amp -1 \amp 0\end{array} \right| \xlongequal[R_3-R_1]{R_2-R_1} \left| \begin{array}{rrr} 1 \amp 1 \amp -1 \\ 0 \amp 0 \amp 2 \\ 0 \amp -2 \amp 1\end{array} \right|\xlongequal{C_1} \Ddd{0}{2}{-2}{1} =4 \text{.} \end{align*}
    On calcule ensuite les déterminants nécessaires pour trouver les composantes de la solution.
    \begin{align*} x = \amp \tfrac{1}{4} \left|\begin{array}{rrr}1\amp 1\amp -1\\ 2\amp 1\amp 1\\ 3\amp -1\amp 0 \end{array}\right| \xlongequal{R_1+R_2} \tfrac{1}{4} \left|\begin{array}{rrr}3\amp 2\amp 0\\ 2\amp 1\amp 1\\ 3\amp -1\amp 0 \end{array}\right| \xlongequal{C_3} \tfrac{-1}{4} \Ddd{3}{2}{3}{-1} = \tfrac{9}{4}\\ y \amp =\tfrac{1}{4} \left|\begin{array}{rrr}1\amp 1 \amp -1\\ 1 \amp 2\amp 1\\ 1\amp 3\amp 0 \end{array}\right|\xlongequal[R_3-R_1]{R_2-R_1} \left|\begin{array}{rrr} 1\amp 1\amp -1\\ 0\amp 1 \amp 2\\ 0\amp 2\amp 1 \end{array}\right| \xlongequal{C_1} \tfrac{1}{4} \Ddd{1}{2}{2}{1} = \tfrac{-3}{4}\\ z \amp = \tfrac{1}{4} \left|\begin{array}{rrr}1\amp 1\amp 1\\ 1\amp 1\amp 2\\ 1\amp -1\amp 3 \end{array}\right| \xlongequal[R_3-R_1]{R_2-R_1} \left|\begin{array}{rrr} 1\amp 1\amp 1\\ 0\amp 0 \amp 1\\ 0\amp -2\amp 2 \end{array}\right| \xlongequal{C_1} \tfrac{1}{4} \Ddd{0}{1}{-2}{2} =\tfrac{1}{2} \end{align*}

À vous de jouer 5.2.19.

Résoudre le système à l’aide de la règle de Cramer où \(A\) est la matrice des coefficients du système.
\begin{equation*} \left\lbrace \begin{array}{rcr} -2x+y \amp =\amp 3\\ -6x+2y\amp =\amp -4\\ \end{array} \right. \end{equation*}
Réponse :
\(\textnormal{det}(A) =\) , \(x =\) , \(y =\) .
Réponse 1.
\(-2\cdot 2-1\cdot \left(-6\right)\)
Réponse 2.
\(\frac{3\cdot 2-1\cdot \left(-4\right)}{2}\)
Réponse 3.
\(\frac{-2\cdot \left(-4\right)-3\cdot \left(-6\right)}{2}\)

À vous de jouer 5.2.20.

Résoudre le système à l’aide de la règle de Cramer où \(A\) est la matrice des coefficients du système.
\begin{equation*} \left\lbrace \begin{array}{rcr} -3x+3y-z \amp =\amp 4\\ x+2y+5z\amp =\amp -2\\ -2x-5y-4z \amp =\amp 3 \end{array} \right. \end{equation*}
Réponse :
\(\textnormal{det}(A) =\) , \(x =\) , \(y =\) , \(z =\) .
Réponse 1.
\(-68\)
Réponse 2.
\(-1.25\)
Réponse 3.
\(0.0294118\)
Réponse 4.
\(-0.161765\)
La méthode de Cramer est particulièrement efficace pour les systèmes de petites tailles, mais elle devient rapidement impraticable lorsque la taille du système augmente. Pour les systèmes \(2\times 2\) c’est la méthode la plus efficace, pour les \(3\times 3\) elle est encore utilisable, mais pour les systèmes plus grands, il est préférable d’utiliser d’autres méthodes comme la réduction de Gauss. Elle a cependant une importance théorique, notamment pour le calcul de la matrice inverse

Remarque 5.2.21.

  • On sait que la première colonne de \(A^{-1}\) est solution à \(A\vx = \bbm{e}_1\) et quelque chose de semblable tient pour les autres colonnes...
  • Ainsi, la règle de Cramer devrait fournir une méthode pour le calcul de la matrice inverse!

Définition 5.2.22.

Étant donnée \(A\in \mmn{n}{n}\text{,}\) son adjointe classique est \(C= \text{adj}\, A\) définie par \(c_{ij} = (-1)^{i+j}|A_{j,i}|\text{.}\)
En d’autres termes, la matrice adjointe classique est la transposée de la matrice des cofacteurs.

Exemple 5.2.23.

Calculer les adjointes (classiques) des matrices suivantes :
  1. \(\displaystyle A = \mdd{a}{b}{c}{d}\)
  2. \(\displaystyle A = \mtt{2}{1}{3}{1}{-1}{1}{1}{3}{-2}\)
Solution.
  1. Pour \(A=\mdd{a}{b}{c}{d}\text{,}\) la matrice des cofacteurs est \(\mdd{d}{-c}{-b}{a}\text{.}\) Par transposition,
    \begin{equation*} \text{adj}\,A=\Mdd{d}{-b}{-c}{a}. \end{equation*}
  2. Pour \(A=\mtt{2}{1}{3}{1}{-1}{1}{1}{3}{-2}\text{,}\) on obtient
    \begin{equation*} \text{adj}\,A = \Mtt{-1}{11}{4}{3}{-7}{1}{4}{-5}{-3}. \end{equation*}

À vous de jouer 5.2.24.

Déterminer la matrice des mineurs \(M\) (où \(M_{i,j} = \textnormal{det}(A_{i,j})\)) ainsi que la matrice des cofacteurs \(C\) de la matrice :
\begin{equation*} A = \displaystyle\left[\begin{array}{rrr} 3 \amp 7 \amp -9 \cr -8 \amp 5 \amp -7 \cr -7 \amp 6 \amp -4 \cr \end{array}\right] \end{equation*}
Réponse :
\(M =\) (3 × 3 Tableau), \(C =\) (3 × 3 Tableau).

Démonstration.

Soient \(\vx_1,\ldots, \vx_n\) les colonnes de \(A^{-1}\text{.}\) On a alors
\begin{equation*} A\vx_j = \ve_j. \end{equation*}
Chaque colonne est donc solution d’une équation qu’on peut résoudre avec la méthode de Cramer. Si on écrit
\begin{equation*} \vx_j = \left[ \begin{array}{r}x_{1,j}\\ x_{2,j}\\ \vdots \\ x_{n,j} \end{array}\right], \end{equation*}
on a, d’après la règle de Cramer,
\begin{equation*} x_{i,j} = \frac{|A_i(\ve_j)|}{|A|}\text{.} \end{equation*}
Or \(A_i(\ve_j)\) est obtenue de \(A\) en remplaçant sa \(i^{\text{e}}\) colonne par \(\ve_j\text{,}\) et donc dans la \(i^{\text{e}}\) colonne il y a une unique entrée qui est non nulle:
\begin{equation*} A_i(\ve_j) = \left[\begin{array}{ccccccc} a_{1,1} \amp \cdots \amp a_{1, i-1} \amp 0 \amp a_{1,i+1}\amp \cdots \amp a_{1,n}\\ a_{2,1} \amp \cdots \amp a_{2, i-1} \amp 0 \amp a_{2,i+1}\amp \cdots \amp a_{2,n}\\ \vdots \amp \amp \amp \vdots \amp \amp \amp \vdots \\ a_{j-1,1} \amp \cdots \amp a_{j-1, i-1} \amp 0 \amp a_{j-1,i+1}\amp \cdots \amp a_{j-1,n}\\ a_{j,1} \amp \cdots \amp a_{j, i-1} \amp 1 \amp a_{j,i+1}\amp \cdots \amp a_{j,n}\\ a_{j+1,1} \amp \cdots \amp a_{j+1, i-1} \amp 0 \amp a_{j+1,i+1}\amp \cdots \amp a_{j+1,n}\\ \vdots \amp \amp \amp \vdots \amp \amp \amp \vdots \\ a_{n,1} \amp \cdots \amp a_{n, i-1} \amp 0 \amp a_{n,i+1}\amp \cdots \amp a_{n,n}\\ \end{array} \right]. \end{equation*}
Le calcul de \(|A_i(\ve_j)|\) le long de la \(i^{\text{e}}\) colonne donne un seul terme. On remarque que la sous-matrice qui importe est précisément \(A_{j,i}\text{,}\) de sorte que
\begin{equation*} |A_i(\ve_j)| = (-1)^{i+j}|A_{j,i}| \end{equation*}
qui est le coefficient en position \((i,j)\) de l’adjointe de \(A\text{.}\)

Exemple 5.2.26.

Calculer le produit \(A (\text{adj}\, A)\) avec \(A = \mtt{2}{1}{3}{1}{-1}{1}{1}{3}{-2}\text{.}\) Déduire ensuite la valeur du déterminant de \(A\) ainsi que son inverse.
Solution.
On a déjà calculé l’adjointe de \(A\) dans un exemple précédent, il s’agit de
\begin{equation*} \text{adj}\,A = \Mtt{-1}{11}{4}{3}{-7}{1}{4}{-5}{-3}\text{.} \end{equation*}
On calcule le produit
\begin{equation*} A (\text{adj}\, A) = \Mtt{2}{1}{3}{1}{-1}{1}{1}{3}{-2} \Mtt{-1}{11}{4}{3}{-7}{1}{4}{-5}{-3} = \Mtt{13}{0}{0}{0}{13}{0}{0}{0}{13} = 13 I \end{equation*}
et on conclut que \(|A| = 13\) et que l’inverse de \(A\) est
\begin{equation*} A^{-1}= \frac{1}{13} \Mtt{-1}{11}{4}{3}{-7}{1}{4}{-5}{-3}\text{.} \end{equation*}

À vous de jouer 5.2.27.

Soit \(A= \left[\begin{array}{ccc} 1 \amp 0 \amp 0\cr 2 \amp 2 \amp 1\cr -2 \amp -1 \amp 1 \end{array}\right]\text{.}\) Alors :
a) \(\textnormal{det}(A) =\) ,
b) La matrice des cofacteurs est \(C=\) (3 × 3 Tableau),
c) \(\mathrm{adj}(A)=\) (3 × 3 Tableau),
d) \(A^{-1}=\) (3 × 3 Tableau).
Réponse.
\(3\)