Sauter au contenu

Algèbre linéaire et géométrie vectorielle

Section 3.1 Algèbre matricielle

On commence par définir les opérations sur les matrices et à en étudier les propriétés. Plus concrètement, on s’intéresse à:
  • l’addition des matrices et leur multiplication par un scalaire;
  • la transposition des matrices;
  • le produit matriciel.
On débute avec un peu de vocabulaire.

Définition 3.1.1.

  • Une matrice est un tableau rectangulaire de nombres. Sa taille est la paire \((m,n)\text{,}\) que l’on écrit aussi \(m \times n\text{,}\)\(m\) est le nombre de rangées (ou lignes) et \(n\) le nombre de colonnes. On note \(\mmn{m}{n}\) l’ensemble de toutes les matrices de taille \(m \times n\text{.}\) Lorsque l’on souhaite mettre en relief la taille d’une matrice \(A \in \mmn{m}{n}\text{,}\) on écrira parfois \(A_{m \times n}\text{.}\)
  • Une matrice est dite matrice carrée si \(m = n\text{.}\) L’ensemble de toutes les matrices carrées de taille \(n \times n\) est noté \(\mmn{n}{n}\text{.}\)
  • Étant donnée une matrice \(A \in \mmn{m}{n}\text{,}\) on écrit \(A = [a_{ij}]\text{,}\)\(a_{ij}\) désigne le coefficient de \(A\) situé à la rangée \(i\) et à la colonne \(j\text{.}\)
  • Deux matrices \(A = [a_{ij}]\) et \(B = [b_{ij}]\) sont égales si elles sont de la même taille, disons \(m \times n\text{,}\) et si \(a_{ij} = b_{ij}\) pour tout \(i\) tel que \(1 \leqslant i \leqslant m\) et tout \(j\) tel que \(1 \leqslant j \leqslant n\text{.}\)
  • Les coefficients situés sur la diagonale d’une matrice carrée \(A\) sont les coefficients \(a_{ii}\text{.}\)
  • Une matrice rangée, ou matrice ligne, est une matrice de taille \(1 \times n\) pour un certain \(n\text{,}\) c’est-à-dire une matrice à une seule rangée.
  • Une matrice colonne est une matrice de taille \(n \times 1\) pour un certain \(n\text{,}\) c’est-à-dire une matrice à une seule colonne. On identifie les vecteurs (colonnes) de \(\R^n\) aux matrices colonne de \(\mmn{n}{1}\text{.}\)
  • Une matrice diagonale est une matrice carrée \(A\) telle que \(a_{ij} = 0\) lorsque \(i \neq j\text{.}\)
  • Une matrice scalaire est une matrice diagonale de \(\mmn{n}{n}\) dont tous les éléments de la diagonale sont égaux à une même constante \(c\text{.}\) Lorsque \(c = 1\text{,}\) on obtient la matrice identité d’ordre \(n\), notée \(I_n\text{,}\) ou simplement \(I\) lorsque le contexte ne prête pas à confusion.

Exemple 3.1.2.

Soient \(A = \mdd{a}{b}{c}{d}\text{,}\) \(B = \mdd{2}{0}{5}{3}\text{,}\) \(C = \mdt{2}{0}{x}{3}{-3}{y}\) et \(D = \mtd{2}{3}{0}{-3}{x}{y}\text{.}\)
  1. Les matrices \(A\) et \(B\) sont de taille \(2 \times 2\text{,}\) donc \(A, B \in \mmn{2}{2}\text{.}\) La matrice \(C\) est de taille \(2 \times 3\) et la matrice \(D\) est de taille \(3 \times 2\text{,}\) d’où \(C \in \mmn{2}{3}\) et \(D \in \mmn{3}{2}\text{.}\)
  2. La matrice \(A\) est diagonale si et seulement si \(b = c = 0\text{,}\) et elle est scalaire si, de plus, \(a = d\text{.}\)
  3. La matrice \(B\) n’est pas diagonale.
  4. Les matrices \(C\) et \(D\) ne peuvent pas être égales puisqu’elles n’ont pas la même taille.

Sous-section Combinaisons linéaires

Afin de former des combinaisons linéaires de vecteurs, on a utilisé la multiplication par un scalaire ainsi que l’addition. On examine maintenant les opérations correspondantes pour les matrices.

Définition 3.1.3.

Soient \(A = [a_{ij}]\) et \(B = [b_{ij}]\) dans \(\mmn{m}{n}\text{,}\) et soit \(k \in \R\text{.}\) On définit:
  1. \(C = A + B\) comme la matrice \(C = [c_{ij}]\text{,}\)\(c_{ij} = a_{ij} + b_{ij}\text{.}\)
  2. \(D = kA\) comme la matrice \(D = [d_{ij}]\text{,}\)\(d_{ij} = k a_{ij}\text{.}\)
Autrement dit, ces deux opérations se définissent exactement comme l’addition de vecteurs et la multiplication d’un vecteur par un scalaire.

Remarque 3.1.4.

Il est souvent pratique de considérer une matrice comme une liste de ses vecteurs colonnes. Ainsi, si \(A \in \mmn{m}{n}\) a pour colonnes \(\va_1, \va_2, \ldots, \va_n\text{,}\) et si \(B \in \mmn{m}{n}\) a pour colonnes \(\vb_1, \vb_2, \ldots, \vb_n\text{,}\) on peut écrire
\begin{align*} A + B \amp = \left[\begin{array}{ccc}\va_1 \amp \cdots \amp \va_n\end{array}\right] + \left[\begin{array}{ccc}\vb_1 \amp \cdots \amp \vb_n\end{array}\right]\\ \amp = \left[\begin{array}{ccc} \va_1 + \vb_1 \amp \cdots \amp \va_n + \vb_n \end{array}\right] \end{align*}
et
\begin{align*} kA \amp = k\left[\begin{array}{ccc}\va_1 \amp \cdots \amp \va_n\end{array}\right] = \left[\begin{array}{ccc}k\va_1 \amp \cdots \amp k\va_n\end{array}\right]. \end{align*}
Il faut aussi noter qu’il existe une matrice nulle dans \(\mmn{m}{n}\text{,}\) que l’on note simplement \(0\text{,}\) ou, si la taille doit être précisée, \(0_{m \times n}\text{.}\)

Exemple 3.1.5.

Soient \(A = \mdd{3}{0}{-1}{5}\) et \(B = \mdd{0}{-3}{-2}{1}\text{.}\) Calculer:
  1. \(\displaystyle -3A\)
  2. \(\displaystyle A + 2B\)
Solution.
  1. On calcule directement \(-3A = -3 \mdd{3}{0}{-1}{5} = \mdd{-9}{0}{3}{-15}\text{.}\)
  2. On calcule
    \begin{align*} A + 2B \amp = \Mdd{3}{0}{-1}{5} + 2\Mdd{0}{-3}{-2}{1} = \Mdd{3}{0}{-1}{5} + \Mdd{0}{-6}{-4}{2}\\ \amp = \Mdd{3}{-6}{-5}{7}. \end{align*}

À vous de jouer 3.1.6.

Si
\(A = \left[ \begin{array}{rrr} 2 \amp -3 \amp 2 \\ -2 \amp -1 \amp -2 \\ -3 \amp 4 \amp 4 \end{array} \right]\quad\) et \(\quad B = \left[ \begin{array}{rrr} 1 \amp 2 \amp -2 \\ 0 \amp -3 \amp -4 \\ 3 \amp 4 \amp 3 \end{array} \right]\text{,}\)
alors
\(\displaystyle 4 A - 2 B =\) (3 × 3 Tableau).

Remarque 3.1.7.

Puisque on peut former des combinaisons linéaires de matrices, plusieurs notions vues pour les vecteurs possèdent des analogues dans ce contexte:
  • la dépendance ou l’indépendance linéaire d’une famille de matrices;
  • l’ensemble de toutes les matrices qui peuvent être obtenues comme combinaisons linéaires d’un ensemble donné. Si \(A_1, \ldots, A_r \in \mmn{m}{n}\) sont données, cet ensemble est noté \(\gen{A_1, \ldots, A_r}\text{.}\) Bien qu’il ne s’agisse pas de vecteurs au sens usuel, cet ensemble forme ce que l’on appelle un espace vectoriel, notion qui dépasse toutefois la portée de ces notes.

Exemple 3.1.8.

Soient \(B = \mtt{2}{-2}{3}{0}{0}{-2}{0}{0}{2}\text{,}\) \(A_1 = \mtt1 0 0 0 1 0 0 0 1\text{,}\) \(A_2 = \mtt0 1 1 0 0 1 0 0 0\) et \(A_3 = \mtt{-1}{\phantom{-}0}{-1}{0}{2}{0}{0}{0}{-1}\text{.}\)
  1. Déterminer si \(B \in \gen{A_1, A_2, A_3}\text{.}\) Si c’est le cas, écrire \(B\) comme combinaison linéaire de \(A_1\text{,}\) \(A_2\) et \(A_3\text{.}\)
  2. Déterminer si les matrices \(A_1\text{,}\) \(A_2\) et \(A_3\) sont linéairement dépendantes ou indépendantes.
Solution.
  1. On cherche à déterminer s’il existe des constantes \(c_1, c_2, c_3\) telles que
    \begin{align*} B \amp = c_1 A_1 + c_2 A_2 + c_3 A_3. \end{align*}
    Autrement dit,
    \begin{align*} \Mtt{2}{-2}{3}{0}{0}{-2}{0}{0}{2} \amp = c_1 \Mtt1 0 0 0 1 0 0 0 1 + c_2 \Mtt0 1 1 0 0 1 0 0 0 + c_3 \Mtt{-1}{0}{-1}{0}{2}{0}{0}{0}{-1}\\ \amp = \left[\begin{array}{ccc} c_1 - c_3 \amp c_2 \amp c_2 - c_3 \\ 0 \amp c_1 + 2c_3 \amp c_2 \\ 0 \amp 0 \amp c_1 - c_3 \end{array}\right]. \end{align*}
    L’égalité de matrices fournit un système d’équations linéaires. Il y a trois inconnues, à savoir \(c_1\text{,}\) \(c_2\) et \(c_3\text{,}\) et neuf équations, une pour chaque position dans la matrice. Certaines de ces équations sont toutefois redondantes. Par exemple, les équations correspondant aux positions \((1,2)\) et \((2,3)\) sont identiques (\(c_2 = -2\)), tout comme celles correspondant aux positions \((1,1)\) et \((3,3)\text{.}\)
    On peut donc se limiter au système suivant:
    \begin{equation*} \left\{ \begin{array}{rcrcrcr} c_1 \amp {} \amp {} \amp - \amp c_3 \amp = \amp 2 \\ {} \amp {} \amp c_2 \amp {} \amp {} \amp = \amp -2 \\ {} \amp {} \amp c_2 \amp - \amp c_3 \amp = \amp 3 \\ c_1 \amp {} \amp {} \amp + \amp 2c_3 \amp = \amp 0 \end{array} \right. \end{equation*}
    Bien que l’on puisse résoudre ce système directement, il sera utile, pour la partie (b), de le mettre sous forme matricielle. On considère donc la matrice augmentée et sa réduction:
    \begin{align*} \hphantom{\;R_4 - R_1\;} \left[\begin{array}{rrr|r} 1 \amp 0 \amp -1 \amp 2 \\ 0 \amp 1 \amp 0 \amp -2 \\ 0 \amp 1 \amp -1 \amp 3 \\ 1 \amp 0 \amp 2 \amp 0 \end{array}\right] \amp \xrightarrow{\;R_4 - R_1\;} \left[\begin{array}{rrr|r} 1 \amp 0 \amp -1 \amp 2 \\ 0 \amp 1 \amp 0 \amp -2 \\ 0 \amp 1 \amp -1 \amp 3 \\ 0 \amp 0 \amp 3 \amp -2 \end{array}\right]\\ \xrightarrow{R_3 - R_2} \left[\begin{array}{rrr|r} 1 \amp 0 \amp -1 \amp 2 \\ 0 \amp 1 \amp 0 \amp -2 \\ 0 \amp 0 \amp -1 \amp 5 \\ 0 \amp 0 \amp 3 \amp -2 \end{array}\right] \amp \xrightarrow[\;R_4 + 3R_3\;]{-R_3} \left[\begin{array}{rrr|r} 1 \amp 0 \amp -1 \amp 2 \\ 0 \amp 1 \amp 0 \amp -2 \\ 0 \amp 0 \amp 1 \amp -5 \\ 0 \amp 0 \amp 0 \amp 13 \end{array}\right]. \end{align*}
    La quatrième rangée indique que le système n’admet pas de solution. Ainsi, \(B \not\in \gen{A_1, A_2, A_3}\text{.}\)
  2. On cherche maintenant à déterminer si les seules constantes \(c_1\text{,}\) \(c_2\) et \(c_3\) telles que
    \begin{equation*} 0 = c_1 A_1 + c_2 A_2 + c_3 A_3 \end{equation*}
    sont \(c_1 = c_2 = c_3 = 0\text{.}\) Cela revient à résoudre le système homogène associé à celui de la partie (a). La matrice du système est la même que précédemment, mais sans la colonne de droite.
    Les mêmes opérations élémentaires montrent que le rang de la matrice est \(3\text{,}\) ce qui est égal au nombre d’inconnues. La seule solution est donc la solution triviale, et les matrices \(A_1\text{,}\) \(A_2\) et \(A_3\) sont linéairement indépendantes.

À vous de jouer 3.1.9.

Pour chaque ensemble \(S\) de matrices, déterminer s’il s’agit d’un ensemble lináirement dépendant ou intépendant.
  1. \(\displaystyle S= \left\{ \left[ \begin{array}{rr} 3 \amp 5 \\ -6 \amp 6 \end{array} \right],\, \left[ \begin{array}{rr} -12 \amp -20 \\ 24 \amp -24 \end{array} \right] \right\}\)
  2. \(\displaystyle S= \left\{ \left[ \begin{array}{rr} 3 \amp 5 \\ -6 \amp 6 \end{array} \right],\, \left[ \begin{array}{rr} -12 \amp 4 \\ 44 \amp -24 \end{array} \right] \right\}\)
  3. \(\displaystyle S= \left\{ \left[ \begin{array}{rr} 3 \amp -2 \\ -2 \amp -1 \end{array} \right],\, \left[ \begin{array}{rr} -2 \amp 3 \\ 3 \amp -2 \end{array} \right],\, \left[ \begin{array}{rr} -2 \amp -2 \\ 3 \amp 0 \end{array} \right] \right\}\)
  4. \(S= \left\{ \left[ \begin{array}{rr} 3 \amp 5 \\ -6 \amp 6 \end{array} \right], \, \left[ \begin{array}{rr} -12 \amp 4 \\ 44 \amp -24 \end{array} \right], \, \left[ \begin{array}{rr} 1 \amp -3 \\ 9 \amp 10 \end{array} \right], \, \right.\) \(\left. \left[ \begin{array}{rr} 5 \amp 3 \\ -20 \amp -4 \end{array} \right], \, \left[ \begin{array}{rr} 17 \amp -31 \\ \pi \amp e^2 \end{array} \right] \right\}\)
Il est naturel de se demander quelles règles de calcul s’appliquent à l’addition des matrices et à leur multiplication par des scalaires. La réponse est donnée dans le résultat suivant. Essentiellement, tout fonctionne comme pour les vecteurs.

Démonstration.

Ces propriétés découlent directement du fait que les opérations sont définies coefficient par coefficient. En particulier, si l’on considère les matrices par leurs colonnes, chacune des propriétés énoncées se ramène à une propriété analogue des combinaisons linéaires de vecteurs (voir la remarque 3.1.4).

Exemple 3.1.11.

Soient \(A = \mdd{1}{2}{3}{4}\) et \(B = \mdd{-1}{0}{1}{1}\text{.}\) Trouver la matrice \(X\) telle que
\begin{equation*} 2(A - B + X) = 3(X - A). \end{equation*}
Solution.
On utilise les propriétés des combinaisons linéaires de matrices:
\begin{align*} \amp 2(A - B + X) = 3(X - A)\\ \iff \amp 2A - 2B + 2X = 3X - 3A\\ \iff \amp 5A - 2B = X\\ \iff \amp \Mdd{5}{10}{15}{20} - \Mdd{-2}{0}{2}{2} = X\\ \iff \amp \Mdd{7}{10}{13}{18} = X. \end{align*}

À vous de jouer 3.1.12.

Déterminer la matrice \(X\) telle que
\begin{equation*} \displaystyle\left[\begin{array}{rr} 9 \amp -1 \cr 4 \amp -3 \cr \end{array}\right] - 4 X = \displaystyle\left[\begin{array}{rr} -5 \amp -2 \cr 5 \amp 1 \cr \end{array}\right]. \end{equation*}
Réponse : \(X=\) (2 × 2 Tableau).

À vous de jouer 3.1.13.

Déterminer la matrice \(X\) telle que
\begin{equation*} \displaystyle\left[\begin{array}{rrr} -8 \amp -7 \amp 8 \cr -1 \amp -4 \amp 5 \cr \end{array}\right] = 4 X + 3 \displaystyle\left[\begin{array}{rrr} -6 \amp 7 \amp -9 \cr 3 \amp -5 \amp -6 \cr \end{array}\right]. \end{equation*}
Réponse : \(X=\) (2 × 3 Tableau).

Sous-section Transposition

On introduit maintenant une autre opération sur les matrices, la transposition.

Définition 3.1.14.

Soit \(A \in \mmn{m}{n}\text{.}\) Sa transposée est la matrice \(B = A^T \in \mmn{n}{m}\) définie par \(B = [b_{ij}]\text{,}\)\(b_{ij} = a_{ji}\text{.}\) Autrement dit, les lignes de \(A^T\) sont les colonnes de \(A\text{.}\)
Une matrice carrée \(A\) est dite symétrique si \(A^T = A\text{,}\) et anti-symétrique si \(A^T = -A\text{.}\)

Exemple 3.1.15.

Soient \(A = \mdd{1}{2}{3}{4}\) et \(B = \mtd{1}{2}{3}{4}{5}{6}\text{.}\)
  1. Trouver \(A^T\) et \(B^T\text{.}\)
  2. Calculer \(A - A^T\) et déterminer s’il s’agit d’une matrice symétrique ou anti-symétrique.
Solution.
  1. On obtient \(A^T = \mdd{1}{3}{2}{4}\) et \(B^T = \mdt{1}{3}{5}{2}{4}{6}\text{.}\)
  2. On calcule \(\mdd{1}{2}{3}{4} - \mdd{1}{3}{2}{4} = \mdd{0}{-1}{1}{0}.\) Comme \(\mdd{0}{-1}{1}{0}^T = \mdd{0}{1}{-1}{0} = -\mdd{0}{-1}{1}{0},\) on conclut que \(A - A^T\) est une matrice anti-symétrique.

Démonstration.

Soient \(A\) et \(B\) dans \(\mmn{m}{n}\) et \(\alpha \in \R\text{.}\)
  1. L’élément en position \((i,j)\) de \((A + B)^T\) est l’élément en position \((j,i)\) de \(A + B\text{,}\) soit \(a_{ji} + b_{ji}\text{.}\) Il s’agit précisément de la somme de l’élément en position \((i,j)\) de \(A^T\) et de celui à la même position de \(B^T\text{.}\)
  2. Cette propriété découle directement de la définition de la transposition et de la multiplication par un scalaire.
  3. En transposant une première fois, les lignes deviennent des colonnes, puis une seconde fois, elles retrouvent leur position initiale.

Exemple 3.1.17.

Montrer que pour toute matrice \(A \in \mmn{n}{n}\text{,}\) la matrice \(A + A^T\) est symétrique et la matrice \(A - A^T\) est anti-symétrique.
Solution.
Soit \(A \in \mmn{n}{n}\text{.}\) On a
\begin{align*} (A + A^T)^T \amp = A^T + (A^T)^T = A + A^T, \end{align*}
de sorte que \(A + A^T\) est symétrique. De même,
\begin{align*} (A - A^T)^T \amp = A^T - (A^T)^T = A^T - A = - (A - A^T), \end{align*}
ce qui montre que \(A - A^T\) est anti-symétrique.

Sous-section Le produit d’une matrice par un vecteur

On a vu, à la section 2.1, qu’un système d’équations linéaires s’exprime au moyen d’une matrice de coefficients \(A\) que l’on augmente par le vecteur de termes constants \(\vb\) pour former la matrice augmentée \(\acm{A}{b}\text{.}\) Désignons par \(\vx\) le vecteur des inconnues.
Si le système possède \(m\) équations et \(n\) inconnues, on a \(A \in \mmn{m}{n}\text{,}\) \(\vx \in \R^n\) et \(\vb \in \R^m\text{.}\) De plus, résoudre le système revient à se demander si le vecteur \(\vb\) peut être obtenu comme combinaison linéaire des colonnes de \(A\text{.}\) Dans ce cas, les coefficients sont précisément les composantes du vecteur \(\vx\text{.}\) Ceci motive la définition du produit d’une matrice par un vecteur que voici.

Définition 3.1.18.

Étant donnée une matrice \(A \in \mmn{m}{n}\) et un vecteur \(\vu \in \R^n\text{,}\) on définit le produit \(A \vu\) comme étant la combinaison linéaire des colonnes de \(A\) avec coefficients pris dans \(\vu\text{.}\) Plus explicitement, si on écrit \(A\) par ses colonnes et \(\vu\) par ses coordonnées, c’est-à-dire si on pose \(A= \left[ \begin{array}{cccc} \va_1 \amp \va_2 \amp \cdots \amp \va_n \end{array}\right]\) et \(\vu = \left[\begin{array}{c}u_1 \\ \vdots \\ u_n\end{array}\right]\text{,}\) alors
\begin{equation*} A\vu = \sum_{i=1}^n u_i \va_i. \end{equation*}

Exemple 3.1.19.

  1. Soient \(A = \mdd{2}{4}{-1}{-2}\text{,}\) \(\vu = \rvd{2}{-1}\) et \(\vv = \rvd{1}{-2}\text{.}\) Calculer les produits \(A \vu\) et \(A\vv\text{.}\)
  2. Soient \(A = \mdd{1}{2}{4}{5}\) et \(\vx = \rvd{x_1}{x_2}\text{.}\) Calculer le produit \(A \vx\text{.}\)
  3. Soient \(M = \mdt{5}{0}{3}{-1}{-4}{-1}\text{,}\) \(\vu = \rvt{1}{1}{1}\) et \(\vv = \rvd{2}{1}\text{.}\) Calculer les produits \(M \vu\) et \(M \vv\text{,}\) s’ils sont définis.
Solution.
  1. On a
    \begin{align*} A\vu \amp = \Mdd{2}{4}{-1}{-2} \Rvd{2}{-1} = 2 \Rvd{2}{-1} - \Rvd{4}{-2} = \Rvd{0}{0}. \\ A\vv \amp = \Mdd{2}{4}{-1}{-2} \Rvd{1}{-2} = \Rvd{2}{-1} - 2\Rvd{4}{-2} = \Rvd{-6}{3}. \end{align*}
  2. Selon la définition,
    \begin{gather*} A\vx = x_1 \Rvd{1}{4} + x_2 \Rvd{2}{5} = \Rvd{x_1 + 2x_2}{4x_1 + 5x_2}. \end{gather*}
  3. Le produit \(M\vu\) est bien défini, car \(M \in \mmn{2}{3}\) et \(\vu \in \R^3\text{.}\) On a
    \begin{gather*} M\vu = \Rvd{5}{-1} + \Rvd{0}{-4} + \Rvd{3}{-1} = \Rvd{8}{-6}. \end{gather*}
    Par contre, le produit \(M\vv\) n’est pas défini, car \(M\) a \(3\) colonnes, tandis que \(\vv\) n’a que \(2\) composantes.

Remarque 3.1.20.

Le produit d’une matrice \(A \in \mmn{m}{n}\) par un vecteur \(\vu \in \R^n\) est lié au produit scalaire. En effet, le vecteur \(\vx = A \vu\) peut être vu comme une collection de produits scalaires entre les lignes de \(A\text{,}\) vues comme des vecteurs, et le vecteur \(\vu\text{.}\)
Si on écrit la matrice \(A\) par ses lignes et le vecteur \(\vu\) par ses composantes, on a
\begin{equation*} A = \begin{bmatrix}\bbm{A}_1\\ \vdots \\ \bbm{A}_m\end{bmatrix}, \quad \vu = \begin{bmatrix}u_1 \\ \vdots \\ u_n\end{bmatrix}, \quad \text{alors} \quad A\vu = \begin{bmatrix}\bbm{A}_1 \cdot \vu \\ \vdots \\ \bbm{A}_m \cdot \vu\end{bmatrix}\text{.} \end{equation*}

À vous de jouer 3.1.21.

Effectuer le produit suivant.
\(\left[ \begin{array}{rrr} -6 \amp 6 \amp -3 \\ -7 \amp -4 \amp -5 \\ 1 \amp 1 \amp -7 \end{array} \right] \left[ \begin{array}{r} -3 \\ -1 \\ 2 \end{array} \right] =\) (3 × 1 Tableau)

Remarque 3.1.22.

Il est important de noter que la matrice \(A\) et le vecteur \(\vc\) doivent vérifier une condition de compatibilité des tailles pour que leur produit soit défini. Le nombre de colonnes de \(A\) doit être égal au nombre de composantes de \(\vc\text{.}\)
Ainsi, si \(A \in \mmn{m}{n}\) et \(\vc \in \R^p\text{,}\) le produit \(A\vc\) est défini seulement si \(n=p\text{.}\) Dans ce cas, \(A\vc \in \R^m\text{.}\) De plus, rien n’est dit au sujet d’un éventuel produit \(\vc A\text{.}\)
L’exemple suivant montre comment obtenir une colonne donnée comme produit d’une matrice par un vecteur.

Exemple 3.1.23.

Soit \(A \in \mmn{m}{n}\) et \(\ve_i\) le vecteur de \(\R^n\) ayant un \(1\) en position \(i\) et des \(0\) ailleurs. Alors le produit \(A \ve_i\) est la colonne \(i\) de \(A\text{.}\)
En effet, le produit \(A \ve_i\) est la combinaison linéaire des colonnes de \(A\) avec comme coefficients les composantes de \(\ve_i\text{.}\) Comme toutes ces composantes sont nulles, sauf celle en position \(i\) qui vaut \(1\text{,}\) on obtient \(A\ve_i = 1\cdot \va_i + 0\cdot \va_2 + \cdots + 0\cdot \va_n = \va_i.\)

Exemple 3.1.25.

  1. Soit \(A=\mdd{2}{4}{-1}{-2}\text{.}\) Sans calculs, par simple inspection, établir que les colonnes de \(A\) sont linéairement dépendantes, donner une relation de dépendance linéaire et en déduire un vecteur \(\vx\) tel que \(A \vx = \vZero\text{.}\)
  2. Soit une matrice \(A\) de taille \(3 \times 4\) dont les colonnes sont \(\va_1,\va_2,\va_3,\va_4\text{,}\) avec \(\va_1=\rvt{1}{-2}{2}\) et \(\va_3=\rvt{3}{1}{-2}\text{.}\) On sait que \(\vc=\rfvect{2}{1}{-3}{0}\) et \(\vd=\rfvect{3}{0}{1}{2}\) sont tels que \(A \vc = \vZero\) et \(A \vd = \vZero\text{.}\) Trouver la matrice \(A\text{.}\)
Solution.
  1. On remarque immédiatement que \(\va_2 = 2 \va_1\text{.}\) On peut donc écrire la relation de dépendance linéaire
    \begin{equation*} 2 \va_1 - \va_2 = \vZero. \end{equation*}
    Ainsi, si on pose \(\vx = \rvd{2}{-1}\text{,}\) on a bien \(A \vx = \vZero\text{.}\) Tout multiple non nul de \(\vx\) vérifie également cette propriété.
  2. Le fait que \(A \vc = \vZero\) signifie que \(2 \va_1 + \va_2 - 3 \va_3 + 0 \va_4 = \vZero,\) d’où
    \begin{equation*} \va_2=-2\va_1+3\va_3 =-2\Rvt{1}{-2}{2}+3\Rvt{3}{1}{-2} =\Rvt{7}{7}{-10}. \end{equation*}
    De même, le fait que \(A \vd = \vZero\) implique \(3\va_1+0\va_2+\va_3+2\va_4=\vZero,\) d’où
    \begin{equation*} \va_4=-\tfrac12\left(3\va_1+\va_3\right) =-\tfrac12\left(3\Rvt{1}{-2}{2}+\Rvt{3}{1}{-2}\right) =\Rvt{-3}{\tfrac52}{-2}. \end{equation*}
    On obtient finalement
    \begin{align*} A=\left[\begin{array}{rrrr} 1 \amp 7 \amp 3 \amp-3\\ -2 \amp 7 \amp 1 \amp \tfrac52\\ 2 \amp -10 \amp -2 \amp 2 \end{array}\right]. \end{align*}
La partie (b) de l’exemple précédent montre que la loi de simplification ne tient pas pour le produit matrice–vecteur. En effet, on a \(A \vc = A \vd = \vZero\text{,}\) mais \(\vc \neq \vd\text{,}\) et ces deux vecteurs sont non nuls.
On peut maintenant étudier les propriétés du produit d’une matrice par un vecteur. Étant donné que cette opération est liée au produit scalaire, on peut s’attendre à ce que plusieurs propriétés soient héritées.

Démonstration.

Soient \(A,B\in\mmn{m}{n}\) des matrices de colonnes \(\va_1,\ldots,\va_n\) et \(\vb_1,\ldots,\vb_n\text{,}\) \(\vu=\rvt{u_1}{\vdots}{u_n}\in\R^n\) et \(\a, \be \in \R\text{.}\)
  1. On a
    \begin{equation*} A(\a\vu)=\sum_{i=1}^n(\a u_i)\va_i =\a\sum_{i=1}^n u_i\va_i =\a(A\vu). \end{equation*}
    De même,
    \begin{equation*} (\a A)\vu = \sum_{i=1}^n u_i (\a \va_i) = \a \sum_{i=1}^n u_i \va_i = \a (A\vu) \end{equation*}
  2. On a
    \begin{equation*} A(\a \vu + \be \vv) = \sum_{i=1}^n (\a u_i + \be v_i)\va_i = \a \sum_{i=1}^n u_i \va_i + \be \sum_{i=1}^n u_i \va_i = \a A\vu + \be A\vv \end{equation*}
  3. On a
    \begin{equation*} (A+B) \vu = \sum_{i=1}^n u_i (\va_i + \vb_i) = \sum_{i=1}^n u_i \va_i + \sum_{i=1}^n u_i \vb_i = A\vu + B\vu \end{equation*}
  4. C’est immédiat.
  5. Les colonnes de \(I_n\) sont les vecteurs de la base canonique \(\ve_i\) de \(\R^n\text{.}\) Ainsi,
    \begin{equation*} I_n\vu=\sum_{i=1}^n u_i\ve_i=\vu. \end{equation*}

À vous de jouer 3.1.27.

Si
\begin{equation*} A\mathbf{u} = \left[ \begin{array}{r} -2 \\ 3 \\ -2 \end{array} \right] \quad \mbox{ et } \quad A\mathbf{v} = \left[ \begin{array}{r} -1 \\ 4 \\ 3 \end{array} \right] \end{equation*}
alors
\(A(3 \mathbf{u}+2 \mathbf{v}) =\) (3 × 1 Tableau).

Sous-section La multiplication matricielle

On est maintenant en mesure de définir le produit de deux matrices. Pour définir le produit \(AB\text{,}\) on peut regarder la matrice \(B\) comme une liste de vecteurs colonnes. Comme le produit de \(A\) par chacune de ces colonnes est défini (moyennant une certaine compatibilité), il est naturel de définir \(AB\) comme la matrice dont les colonnes sont les produits de \(A\) par les colonnes de \(B\text{.}\) La condition de compatibilité consiste à ce que le nombre de rangées de \(B\) soit égal au nombre de colonnes de \(A\text{.}\) On a alors la définition suivante.

Définition 3.1.28.

Soient \(A\in \mmn{m}{n}\) et \(B=\left[\begin{array}{ccc}\vb_1\amp \cdots\amp \vb_p\end{array}\right]\in \mmn{n}{p}\text{.}\) On définit le produit \(AB\) par
\begin{align*} AB = A\left[\begin{array}{ccc}\vb_1\amp \cdots\amp \vb_p\end{array}\right] = \left[\begin{array}{ccc}A\vb_1\amp \cdots\amp A\vb_p\end{array}\right]. \end{align*}
Les mêmes opérations élémentaires montrent que le rang de la matrice est \(3\text{,}\) ce qui est égal au nombre d’inconnues. La seule solution est donc la solution triviale, et les matrices \(A_1\text{,}\) \(A_2\) et \(A_3\) sont linéairement indépendantes.

Remarque 3.1.29.

Si on veut une formule explicite en termes des coefficients, on remarque que le coefficient à la rangée \(i\) et à la colonne \(j\) de \(AB\) est le coefficient \(i\) du vecteur \(A\vb_j\text{,}\) c’est-à-dire le produit scalaire de la rangée \(i\) de \(A\) avec la colonne \(j\) de \(B\text{.}\) Si l’on note \(A=[a_{i,j}]\) et \(B=[b_{i,j}]\text{,}\) alors le coefficient \(c_{i,j}\) en position \((i,j)\) du produit \(C=AB\) est donné par
\begin{equation*} c_{i,j}=\sum_{k=1}^{n} a_{i,k} b_{k,j} =\left(i^{\text{e}}\ \text{ligne de }A\right)\cdot\left(j^{\text{e}}\ \text{colonne de }B\right). \end{equation*}
De façon plus visuelle:
Un schéma montrant comment on calcule un coefficient du produit matriciel.
Il est fréquent de voir cette formule comme définition du produit matriciel. Elle a certes l’avantage d’être explicite, mais elle masque un peu la nature du produit matriciel comme une opération qui combine des matrices en utilisant le produit matrice-vecteur.

Exemple 3.1.30.

Soient \(A=\mdd{2}{4}{-1}{-2}\text{,}\) \(B=\mdd{1}{0}{1}{1}\) et \(C=\mdt{5}{0}{3}{-1}{-4}{-1}\text{.}\) Parmi les produits \(AB\text{,}\) \(BA\text{,}\) \(AC\text{,}\) \(CA\text{,}\) \(BC\text{,}\) \(CB\text{,}\) déterminer ceux qui sont définis et les calculer.
Solution.
Comme \(A,B\in \mmn{2}{2}\text{,}\) les deux produits \(AB\) et \(BA\) sont définis et appartiennent à \(\mmn{2}{2}\text{.}\) Comme \(C\in \mmn{2}{3}\text{,}\) les produits \(AC\) et \(BC\) sont définis et appartiennent à \(\mmn{2}{3}\text{.}\) Par contre, les produits \(CA\) et \(CB\) ne sont pas définis, car le nombre de colonnes de \(C\) n’est pas égal au nombre de rangées de \(A\) ou de \(B\text{.}\) On obtient donc:
\begin{align*} AB \amp = \Mdd{2}{4}{-1}{-2}\Mdd{1}{0}{1}{1} = \Mdd{6}{4}{-3}{-2},\\ BA \amp = \Mdd{1}{0}{1}{1}\Mdd{2}{4}{-1}{-2} = \Mdd{2}{4}{1}{2},\\ AC \amp = \Mdd{2}{4}{-1}{-2}\Mdt{5}{0}{3}{-1}{-4}{-1} = \Mdt{6}{-16}{2}{-3}{8}{-1},\\ BC \amp = \Mdd{1}{0}{1}{1}\Mdt{5}{0}{3}{-1}{-4}{-1} = \Mdt{5}{0}{3}{4}{-4}{2}. \end{align*}
On remarque notamment que la multiplication matricielle n’est pas commutative, c’est-à-dire que, généralement, \(AB\neq BA\text{.}\) Ceci est illustré dans l’exemple précédent. Par ailleurs, comme pour le produit matrice-vecteur, la loi de simplification ne tient pas.

À vous de jouer 3.1.31.

Si \(A\) et \(B\) sont deux matrices \(5 \times 2\) et \(C\) est une matrice \(3 \times 5\text{,}\) quelles opérations sont possibles?

Remarque 3.1.32.

Si \(A\in \mmn{n}{n}\) est une matrice carrée, alors on peut calculer le produit \(AA\text{,}\) que l’on notera naturellement \(A^2\text{.}\) On revient sur les puissances (positives) d’une matrice carrée.

Exemple 3.1.33.

Soient \(A=\mdd{1}{2}{3}{4}\) et \(B=\mdd{0}{2}{0}{0}\text{.}\) Calculer \((A+B)^2\) et \(A^2 + 2AB + B^2\text{.}\)
Solution.
On calcule directement:
\begin{align*} (A+B)^2 \amp = \left(\Mdd{1}{2}{3}{4} + \Mdd{0}{2}{0}{0}\right)^2 = \Mdd{1}{4}{3}{4}\Mdd{1}{4}{3}{4} = \Mdd{13}{20}{15}{28}. \end{align*}
D’autre part,
\begin{align*} A^2 + 2AB + B^2 \amp = \Mdd{1}{2}{3}{4}^2 + 2\,\Mdd{1}{2}{3}{4}\Mdd{0}{2}{0}{0} + \Mdd{0}{2}{0}{0}^2 \\ \amp = \Mdd{7}{10}{15}{22} + 2\,\Mdd{0}{2}{0}{6} + \Mdd{0}{0}{0}{0} \\ \amp = \Mdd{7}{14}{15}{34}. \end{align*}

Exemple 3.1.34.

  1. Soit \(B=\mdd a b c d\text{.}\) Trouver des conditions sur \(a,b,c,d\) de sorte que \(B\) commute avec \(\mdd 1 1 0 1\text{.}\)
  2. Soit \(B=\mdd a b c d\text{.}\) Trouver des conditions sur \(a,b,c,d\) de sorte que \(B\) commute avec toute matrice de \(\mmn{2}{2}\text{.}\)
Solution.
  1. On pose \(A=\mdd{1}{1}{0}{1}\text{.}\) On cherche des conditions nécessaires et suffisantes sur \(B\) pour avoir \(AB=BA\text{.}\) On calcule
    \begin{equation*} AB = \left[\begin{array}{cc} a+c \amp b+d \\ c \amp d \end{array}\right] \qquad \text{et} \qquad BA = \left[\begin{array}{cc} a \amp a+b \\ c \amp c+d \end{array}\right]. \end{equation*}
    En égalisant les composantes, on obtient le système
    \begin{equation*} \left\{\begin{array}{rcl} a+c \amp = \amp a \\ b+d \amp=\amp a+b \\ c \amp=\amp c \\ d \amp=\amp c+d \end{array}\right. \end{equation*}
    Bien sûr, on pourrait considérer une matrice de coefficients augmentée et résoudre le système par élimination de Gauss. Cependant, le système est suffisamment simple pour être résolu par inspection. On trouve alors \(c=0\) et \(a=d\text{.}\) Ainsi, \(B\) commute avec \(A\) si et seulement si \(B\) est de la forme \(\mdd a b 0 a\text{.}\)
  2. Ce problème est plus compliqué. On pourrait utiliser la même technique que précédemment, mais cette fois, on devrait considérer une matrice \(A = \mdd{x_1}{x_2}{x_3}{x_4}\) quelconque et écrire l’égalité \(AB = BA\) en fonction des coefficients \(a,b,c,d,x_1, x_2, x_3, x_4\text{.}\) On obtiendrait ainsi un système d’équations dont les inconnues sont \(a,b,c,d\) et les paramètres sont \(x_1, \ldots, x_4\text{.}\)
    On utilise une autre approche par choix astucieux. Comme \(B\) commute avec toute matrice \(A\text{,}\) on impose cette condition pour des matrices particulières.
    1. On choisit \(A=\mdd{1}{0}{0}{0}\text{.}\) La condition \(BA=AB\) impose \(b=0\) et \(c=0\text{.}\)
    2. On choisit \(A=\mdd{0}{1}{0}{0}\text{.}\) La condition \(BA=AB\) impose \(a=d\) (et confirme \(c=0\)).
    Ainsi, \(B\) commute avec toute matrice de \(\mmn{2}{2}\) si et seulement si \(B=\mdd a 0 0 a\text{.}\)

Exemple 3.1.35.

Soient \(A=\mdd{1}{2}{4}{5}\) et \(B=\mdd{1}{0}{1}{1}\text{.}\) Calculer \((AB)^T\text{,}\) \(A^T B^T\) puis \(B^T A^T\text{.}\)
Solution.
On calcule d’abord
\begin{align*} AB \amp = \Mdd{1}{2}{4}{5}\Mdd{1}{0}{1}{1} = \Mdd{3}{2}{9}{5}. \end{align*}
Ainsi,
\begin{align*} (AB)^T \amp = \Mdd{3}{9}{2}{5}.\\ A^T B^T \amp = \Mdd{1}{4}{2}{5}\Mdd{1}{1}{0}{1} = \Mdd{1}{5}{2}{7}.\\ B^T A^T \amp = \Mdd{1}{1}{0}{1}\Mdd{1}{4}{2}{5} = \Mdd{3}{9}{2}{5}. \end{align*}
On remarque notamment qu’il n’est généralement pas vrai que \((AB)^T = A^T B^T\text{.}\)
Plus largement, à la lumière des exemples rencontrés, il est naturel de se demander quelles sont les propriétés du produit matriciel qui sont toujours valables.

Démonstration.

La plupart des propriétés énoncées découlent directement des propriétés du produit matrice-vecteur (voir le théorème 3.1.26).
  1. C’est la propriété (a) du théorème 3.1.26 appliquée aux colonnes de \(B\text{.}\)
  2. C’est la propriété (b) du théorème 3.1.26 appliquée aux colonnes de \(B+C\text{.}\)
  3. C’est la propriété (c) du théorème 3.1.26 appliquée aux colonnes de \(C\text{.}\)
  4. La première égalité est la propriété (d) du théorème 3.1.26 appliquée aux colonnes de \(A\text{.}\) La deuxième égalité est la même propriété appliquée aux colonnes de la matrice \(0\text{.}\)
  5. La première égalité est la propriété (e) du théorème 3.1.26 appliquée aux colonnes de \(A\text{.}\) La deuxième égalité résulte de l’application de la même propriété aux colonnes de la matrice identité \(I_n\) (c’est l’argument de l’exemple 3.1.23).
  6. On commence par montrer que, pour tout vecteur \(\vc\in\R^p\text{,}\) on a \(A(B\vc)=(AB)\vc\text{.}\) Soient donc \(A\in\mmn{m}{n}\text{,}\) \(B\in\mmn{n}{p}\) et \(\vc\in\R^p\text{.}\)
    Par définition,
    \begin{gather*} B\vc = \begin{bmatrix} \sum_{k=1}^p b_{1,k}c_k\\ \vdots\\ \sum_{k=1}^p b_{n,k}c_k \end{bmatrix}. \end{gather*}
    Le coefficient en position \(i\) de \(A(B\vc)\) vaut donc
    \begin{align*} \amp a_{i,1} \sum_{k=1}^p b_{1,k}c_k + a_{i,2} \sum_{k=1}^p b_{2,k}c_k + \cdots + a_{i,n} \sum_{k=1}^p b_{n,k}c_k \\ \amp = \sum_{l=1}^n \left(a_{i,l}\sum_{k=1}^p b_{l,k}c_k \right) = \sum_{l=1}^n \sum_{k=1}^p a_{i,l} b_{l,k}c_k \\ \amp = \sum_{l=1}^n \sum_{k=1}^p\left(a_{i,l}b_{l,k}\right) c_k \end{align*}
    Or, \(\sum_{\ell=1}^n a_{i,\ell}b_{\ell,k}\) est précisément le coefficient en position \((i,k)\) du produit \(AB\text{.}\) Par conséquent, l’expression obtenue est le produit scalaire de la rangée \(i\) de \(AB\) avec le vecteur \(\vc\text{,}\) c’est-à-dire le coefficient en position \(i\) de \((AB)\vc\text{.}\) On a donc \(A(B\vc)=(AB)\vc\text{.}\)
    Le résultat général s’ensuit en appliquant cette égalité à chaque colonne de \(C\text{.}\) En effet, si \(C\in\mmn{p}{r}\) et si \(C=\left[\begin{array}{ccc}\vc_1\amp\cdots\amp\vc_r\end{array}\right]\text{,}\) alors
    \begin{align*} A(BC) \amp = A(B\begin{bmatrix} \vc_1\amp \cdots \amp \vc_r\end{bmatrix}) = A\begin{bmatrix} B\vc_1\amp \cdots \amp B\vc_r\end{bmatrix}\\ \amp = \begin{bmatrix} A(B\vc_1)\amp \cdots \amp A(B\vc_r)\end{bmatrix} = \begin{bmatrix} (AB)\vc_1\amp \cdots \amp (AB)\vc_r\end{bmatrix} \\ \amp= (AB)C \end{align*}
  7. Le coefficient en position \((i,j)\) de \((AB)^T\) est le coefficient en position \((j,i)\) de \(AB\text{,}\) c’est-à-dire le produit scalaire de la rangée \(j\) de \(A\) avec la colonne \(i\) de \(B\text{.}\) Par commutativité du produit scalaire, cela vaut aussi le produit scalaire de la rangée \(i\) de \(B^T\) avec la colonne \(j\) de \(A^T\text{,}\) c’est-à-dire le coefficient en position \((i,j)\) de \(B^T A^T\text{.}\)
    \begin{align*} \left(j^\text{è} \text{ ligne de }A\right) \cdot \left(i^\text{è} \text{ colonne de }B\right)\amp = \left(i^\text{è} \text{ colonne de }B\right)\cdot \left(j^\text{è} \text{ ligne de }A\right) \\ \amp = \left(i^\text{è} \text{ ligne de }B^T\right) \cdot \left(j^\text{è} \text{ colonne de }A^T\right) \end{align*}
    Ceci étant vrai pour toute position \((i,j)\text{,}\) on a bien \((AB)^T = B^T A^T\text{.}\)

Exemple 3.1.37.

Soient \(A,B\in\mmn{n}{n}\text{.}\) Montrer que \((A+B)^2 = A^2 + 2AB + B^2\) si et seulement si \(AB=BA\text{.}\)
Solution.
En utilisant les propriétés du théorème 3.1.36, on obtient:
\begin{align*} \amp \amp \left(A+B\right)^2 \amp = A^2 + 2AB+B^2\\ \iff \amp \amp \left(A+B\right)\left(A + B\right) \amp = A^2 + 2AB + B^2\\ \iff \amp \amp A^2 +AB + BA + B^2 \amp = A^2 + 2AB+B^2 \\ \iff \amp \amp AB + BA \amp = 2AB \\ \iff \amp \amp BA \amp = AB \end{align*}
On a introduit la multiplication de deux matrices en se basant sur le produit d’une matrice par un vecteur. La dernière propriété du théorème précédent permet d’obtenir une autre interprétation du produit matriciel, en termes de rangées. Voici un exemple.

Exemple 3.1.38.

Soient \(A=\left[\begin{smallmatrix}1\amp 3\end{smallmatrix}\right]\) et \(B=\mdt{-2}{3}{1}{1}{-1}{\phantom{-}2}\text{.}\) Calculer \(AB\text{.}\)
Solution.
On remarque d’abord que \(A\in\mmn{1}{2}\) et \(B\in\mmn{2}{3}\text{,}\) de sorte que le produit est bien défini et que le résultat sera une matrice de taille \(1\times 3\text{.}\) On présente deux façons de procéder.
  • On calcule directement:
    \begin{align*} AB \amp = \left[\begin{array}{cc}1\amp 3\end{array}\right]\Mdt{-2}{3}{1}{1}{-1}{\phantom{-}2} = \left[\begin{array}{ccc}1\amp 0\amp 7\end{array}\right]. \end{align*}
  • On utilise la propriété (g) du théorème 3.1.36. Comme \(AB=\left((AB)^T\right)^T\) et que \((AB)^T=B^T A^T\text{,}\) on calcule d’abord \(B^T A^T\text{.}\) Or \(A^T\) est un vecteur colonne, donc on peut voir \(B^T A^T\) comme une combinaison linéaire des colonnes de \(B^T\) avec coefficients pris dans \(A^T\text{:}\)
    \begin{align*} B^T A^T \amp = \Mtd{-2}{1}{3}{-1}{1}{2}\Rvd{1}{3} = 1\,\Rvt{-2}{3}{1} + 3\,\Rvt{1}{-1}{2} = \Rvt{1}{0}{7}. \end{align*}
    Ainsi,
    \begin{equation*} AB = \left((AB)^T\right)^T = \left(B^T A^T\right)^T = \Rvt{1}{0}{7}^T = \left[\begin{array}{ccc}1\amp 0\amp 7\end{array}\right]. \end{equation*}

Remarque 3.1.39.

Même si le calcul direct de l’exemple est très simple, le deuxième point de vue permet de mieux comprendre la nature du produit matriciel.
  1. Le même argument peut être repris dans un contexte général. Si \(A\) est une matrice rangée et si \(B\) est une matrice quelconque de taille compatible, alors le produit \(AB\) peut être vu comme une combinaison linéaire des colonnes de \(B\) avec coefficients pris dans la rangée \(A\text{.}\)
  2. Plus généralement, si \(A\in\mmn{m}{n}\) et si l’on écrit \(A\) par ses rangées \(A=\rvt{\va_1}{\vdots}{\va_m}\text{,}\) alors chaque rangée de \(AB\) est une combinaison linéaire des rangées de \(B\) avec coefficients pris dans la rangée correspondante de \(A\text{.}\) On obtient ainsi la représentation rangées–matrice du produit matriciel:
    \begin{equation*} AB = \begin{bmatrix}\bbm{A}_1\\ \vdots \\ \bbm{A}_m\end{bmatrix}B = \begin{bmatrix}\bbm{A}_1B\\ \vdots \\ \bbm{A}_mB\end{bmatrix}. \end{equation*}

À vous de jouer 3.1.40.

Effectuer le produit des matrices suivant.
\(\left[ \begin{array}{rrr} 7 \amp 0 \amp 0 \\ 0 \amp 1 \amp 0 \\ 0 \amp 0 \amp -4 \end{array} \right] \left[ \begin{array}{rrr} 5 \amp 6 \amp 5 \\ -8 \amp 6 \amp -6 \\ -7 \amp 4 \amp -5 \end{array} \right] =\) (3 × 3 Tableau)

À vous de jouer 3.1.41.

Effectuer le produit suivant.
\(\left[ \begin{array}{rr} 3 \amp 0 \\ 0 \amp -2 \end{array} \right] \left[ \begin{array}{rrr} -9 \amp -9 \amp -5 \\ -5 \amp 8 \amp -6 \end{array} \right] =\) (2 × 3 Tableau)

À vous de jouer 3.1.42.

Si
\begin{equation*} \mathbf{u} = \left[ \begin{array}{r} 5 \\ -9 \\ -1 \end{array} \right], \end{equation*}
alors
\(\mathbf{u} \mathbf{u}^T =\) (3 × 3 Tableau) et \(\mathbf{u}^T \mathbf{u} =\) .

Sous-section Puissances d’une matrice carrée

On a vu comment multiplier des matrices. En particulier, si on a une matrice carrée, on peut la multiplier par elle-même et continuer de la sorte. Naturellement, on parle alors des puissances d’une matrice. Il faut toutefois faire attention à ce stade-ci: seules les puissances positives sont définies. Pour les puissances négatives, il faudra attendre la notion d’inverse matriciel.

Définition 3.1.43.

Soit \(A\in \mmn{p}{p}\text{.}\) On définit alors les puissances de \(A\) comme suit: pour \(n\in \N\text{,}\) on pose \(A^n = \underbrace{A\,\cdots\,A}_{n\,\text{ facteurs}}\) et \(A^0 = I_p\text{.}\)

Démonstration.

C’est une conséquence immédiate de la définition et de l’associativité du produit matriciel. Dans chaque cas, il suffit de compter les facteurs.

Exemple 3.1.45.

Soit \(M=\mdd{1}{1}{0}{1}\text{.}\) Calculer \(M^2\) puis \(M^3\text{.}\) Trouver une formule pour \(M^n\text{,}\) pour tout \(n\in \N\text{.}\)
Solution.
On calcule directement:
\begin{align*} M^2 \amp = \Mdd{1}{1}{0}{1}\Mdd{1}{1}{0}{1} = \Mdd{1}{2}{0}{1}, \\ M^3 \amp = \Mdd{1}{2}{0}{1}\Mdd{1}{1}{0}{1} = \Mdd{1}{3}{0}{1}. \end{align*}
On remarque que, pour \(n=1,2,3\text{,}\) on a \(M^n=\mdd{1}{n}{0}{1}\text{.}\) On démontre par récurrence que cette formule est vraie pour tout \(n\in \N\text{.}\)
  • La formule est clairement valable pour \(n=1\text{.}\)
  • On suppose que la formule soit valable pour un certain \(k\in \N\text{,}\) c’est-à-dire que \(M^k=\mdd{1}{k}{0}{1}\text{.}\) On va montrer qu’elle est alors valable pour \(k+1\text{.}\) En effet,
    \begin{align*} M^{k+1} \amp = M^kM = \Mdd{1}{k}{0}{1}\Mdd{1}{1}{0}{1} = \Mdd{1}{k+1}{0}{1}. \end{align*}
En vertu du principe de récurrence, on en déduit que pour tout \(n\in \N\text{,}\) on a bien \(M^n=\mdd{1}{n}{0}{1}\text{.}\)

Exemple 3.1.46.

  1. Soit \(M=\frac12\mdd{\sqrt{3}}{-1}{1}{\sqrt{3}}.\) Trouver \(M^{2021}\text{.}\)
  2. Soit \(M=\mdd{1}{1}{1}{1}\text{.}\) Calculer les puissances de \(M\) et donner une formule pour \(M^k\text{,}\) pour tout \(k\in \N\text{.}\)
Solution.
  1. On calcule les premières puissances de façon naïve, afin de remarquer une régularité.
    \begin{align*} M^2 \amp = \left(\frac12\Mdd{\sqrt{3}}{-1}{1}{\sqrt{3}}\right)\left(\frac12\Mdd{\sqrt{3}}{-1}{1}{\sqrt{3}}\right) = \frac14\Mdd{2}{-2\sqrt{3}}{2\sqrt{3}}{2}\\ \amp = \frac12\left[\begin{array}{cc}1 \amp -\sqrt{3}\\ \sqrt{3} \amp 1\end{array}\right] \end{align*}
    Puis,
    \begin{align*} M^3 \amp = M^2M = \frac12\left[\begin{array}{cc}1 \amp -\sqrt{3}\\ \sqrt{3} \amp 1\end{array}\right]\frac12\Mdd{\sqrt{3}}{-1}{1}{\sqrt{3}}\\ \amp = \frac14\left[\begin{array}{cc}1 \amp -\sqrt{3}\\ \sqrt{3} \amp 1\end{array}\right]\left[\begin{array}{cc}\sqrt{3} \amp -1\\ 1 \amp \sqrt{3}\end{array}\right]\\ \amp = \frac14\left[\begin{array}{cc}0 \amp -4\\ 4 \amp 0\end{array}\right] = \Mdd{0}{-1}{1}{0}. \end{align*}
    Ainsi, \(M^6=\left(M^3\right)^2 = \mdd{0}{-1}{1}{0}\mdd{0}{-1}{1}{0} = \mdd{-1}{0}{0}{-1}=-I,\) ce qui donne à son tour \(M^{12}=I\text{.}\) On effectue ensuite la division euclidienne de \(2021\) par \(12\text{:}\) \(2021=12\cdot 168+5\text{.}\) On obtient donc
    \begin{equation*} M^{2021}=M^{12\cdot 168+5}=\left(M^{12}\right)^{168}M^5=I^{168}M^5=M^5. \end{equation*}
    Enfin,
    \begin{align*} M^5 \amp = M^3M^2 = \Mdd{0}{-1}{1}{0}\cdot \frac12\left[\begin{array}{cc}1 \amp -\sqrt{3}\\ \sqrt{3} \amp 1\end{array}\right] = \frac12\left[\begin{array}{cc}-\sqrt{3} \amp -1\\ 1 \amp -\sqrt{3}\end{array}\right]. \end{align*}
  2. Un calcul direct donne \(M^2=\mdd{1}{1}{1}{1}\mdd{1}{1}{1}{1}=\mdd{2}{2}{2}{2}=2M\text{.}\) Puis \(M^3=M^2M=2MM=2M^2=4M=2^{3-1}M\text{.}\) On montre par récurrence que, pour tout \(k\in\N\text{,}\) on a \(M^k=2^{k-1}M\text{.}\)
    • La formule est vraie pour \(k=1\text{.}\)
    • On suppose que la formule soit vraie pour un certain \(k\in\N\text{,}\) c’est-à-dire que \(M^k=2^{k-1}M\text{.}\) Alors,
      \begin{align*} M^{k+1} \amp = M^kM = 2^{k-1}MM = 2^{k-1}M^2 = 2^{k-1}(2M)=2^kM. \end{align*}
      En vertu du principe de récurrence, la formule est vraie pour tout \(k\in\N\text{.}\)

À vous de jouer 3.1.47.

Soit la matrice \(A= \left[ \begin{array}{rr} 3 \amp 1 \\ 0 \amp 3 \end{array} \right]\text{.}\) Déterminer \(A^3\text{.}\)
Réponse : \(A^3=\) (2 × 2 Tableau).

À vous de jouer 3.1.48.

Soit \(A = \left[ \begin{array}{rr} x \amp 9 \\ y \amp -3 \end{array} \right].\) Déterminer les valeurs de \(x\) et de \(y\) pour lesquelles \(A^2=A\text{.}\)
Réponse : \(x=\) et \(y=\) .
Réponse 1.
\(1--3\)
Réponse 2.
\(\frac{-3\cdot \left(1--3\right)}{9}\)