Une matrice est un tableau rectangulaire de nombres. Sa taille est la paire \((m,n)\text{,}\) que l’on écrit aussi \(m \times n\text{,}\) où \(m\) est le nombre de rangées (ou lignes) et \(n\) le nombre de colonnes. On note \(\mmn{m}{n}\) l’ensemble de toutes les matrices de taille \(m \times n\text{.}\) Lorsque l’on souhaite mettre en relief la taille d’une matrice \(A \in \mmn{m}{n}\text{,}\) on écrira parfois \(A_{m \times n}\text{.}\)
Une matrice est dite matrice carrée si \(m = n\text{.}\) L’ensemble de toutes les matrices carrées de taille \(n \times n\) est noté \(\mmn{n}{n}\text{.}\)
Étant donnée une matrice \(A \in \mmn{m}{n}\text{,}\) on écrit \(A = [a_{ij}]\text{,}\) où \(a_{ij}\) désigne le coefficient de \(A\) situé à la rangée \(i\) et à la colonne \(j\text{.}\)
Deux matrices \(A = [a_{ij}]\) et \(B = [b_{ij}]\) sont égales si elles sont de la même taille, disons \(m \times n\text{,}\) et si \(a_{ij} = b_{ij}\) pour tout \(i\) tel que \(1 \leqslant i \leqslant m\) et tout \(j\) tel que \(1 \leqslant j \leqslant n\text{.}\)
Une matrice rangée, ou matrice ligne, est une matrice de taille \(1 \times n\) pour un certain \(n\text{,}\) c’est-à-dire une matrice à une seule rangée.
Une matrice colonne est une matrice de taille \(n \times 1\) pour un certain \(n\text{,}\) c’est-à-dire une matrice à une seule colonne. On identifie les vecteurs (colonnes) de \(\R^n\) aux matrices colonne de \(\mmn{n}{1}\text{.}\)
Une matrice scalaire est une matrice diagonale de \(\mmn{n}{n}\) dont tous les éléments de la diagonale sont égaux à une même constante \(c\text{.}\) Lorsque \(c = 1\text{,}\) on obtient la matrice identité d’ordre \(n\), notée \(I_n\text{,}\) ou simplement \(I\) lorsque le contexte ne prête pas à confusion.
Les matrices \(A\) et \(B\) sont de taille \(2 \times 2\text{,}\) donc \(A, B \in \mmn{2}{2}\text{.}\) La matrice \(C\) est de taille \(2 \times 3\) et la matrice \(D\) est de taille \(3 \times 2\text{,}\) d’où \(C \in \mmn{2}{3}\) et \(D \in \mmn{3}{2}\text{.}\)
Afin de former des combinaisons linéaires de vecteurs, on a utilisé la multiplication par un scalaire ainsi que l’addition. On examine maintenant les opérations correspondantes pour les matrices.
Il est souvent pratique de considérer une matrice comme une liste de ses vecteurs colonnes. Ainsi, si \(A \in \mmn{m}{n}\) a pour colonnes \(\va_1, \va_2, \ldots, \va_n\text{,}\) et si \(B \in \mmn{m}{n}\) a pour colonnes \(\vb_1, \vb_2, \ldots, \vb_n\text{,}\) on peut écrire
Il faut aussi noter qu’il existe une matrice nulle dans \(\mmn{m}{n}\text{,}\) que l’on note simplement \(0\text{,}\) ou, si la taille doit être précisée, \(0_{m \times n}\text{.}\)
l’ensemble de toutes les matrices qui peuvent être obtenues comme combinaisons linéaires d’un ensemble donné. Si \(A_1, \ldots, A_r \in \mmn{m}{n}\) sont données, cet ensemble est noté \(\gen{A_1, \ldots, A_r}\text{.}\) Bien qu’il ne s’agisse pas de vecteurs au sens usuel, cet ensemble forme ce que l’on appelle un espace vectoriel, notion qui dépasse toutefois la portée de ces notes.
Déterminer si \(B \in \gen{A_1, A_2, A_3}\text{.}\) Si c’est le cas, écrire \(B\) comme combinaison linéaire de \(A_1\text{,}\)\(A_2\) et \(A_3\text{.}\)
L’égalité de matrices fournit un système d’équations linéaires. Il y a trois inconnues, à savoir \(c_1\text{,}\)\(c_2\) et \(c_3\text{,}\) et neuf équations, une pour chaque position dans la matrice. Certaines de ces équations sont toutefois redondantes. Par exemple, les équations correspondant aux positions \((1,2)\) et \((2,3)\) sont identiques (\(c_2 = -2\)), tout comme celles correspondant aux positions \((1,1)\) et \((3,3)\text{.}\)
Bien que l’on puisse résoudre ce système directement, il sera utile, pour la partie (b), de le mettre sous forme matricielle. On considère donc la matrice augmentée et sa réduction:
sont \(c_1 = c_2 = c_3 = 0\text{.}\) Cela revient à résoudre le système homogène associé à celui de la partie (a). La matrice du système est la même que précédemment, mais sans la colonne de droite.
Les mêmes opérations élémentaires montrent que le rang de la matrice est \(3\text{,}\) ce qui est égal au nombre d’inconnues. La seule solution est donc la solution triviale, et les matrices \(A_1\text{,}\)\(A_2\) et \(A_3\) sont linéairement indépendantes.
Il est naturel de se demander quelles règles de calcul s’appliquent à l’addition des matrices et à leur multiplication par des scalaires. La réponse est donnée dans le résultat suivant. Essentiellement, tout fonctionne comme pour les vecteurs.
Ces propriétés découlent directement du fait que les opérations sont définies coefficient par coefficient. En particulier, si l’on considère les matrices par leurs colonnes, chacune des propriétés énoncées se ramène à une propriété analogue des combinaisons linéaires de vecteurs (voir la remarque 3.1.4).
Soit \(A \in \mmn{m}{n}\text{.}\) Sa transposée est la matrice \(B = A^T \in \mmn{n}{m}\) définie par \(B = [b_{ij}]\text{,}\) où \(b_{ij} = a_{ji}\text{.}\) Autrement dit, les lignes de \(A^T\) sont les colonnes de \(A\text{.}\)
On calcule \(\mdd{1}{2}{3}{4} - \mdd{1}{3}{2}{4}
= \mdd{0}{-1}{1}{0}.\) Comme \(\mdd{0}{-1}{1}{0}^T
= \mdd{0}{1}{-1}{0}
= -\mdd{0}{-1}{1}{0},\) on conclut que \(A - A^T\) est une matrice anti-symétrique.
L’élément en position \((i,j)\) de \((A + B)^T\) est l’élément en position \((j,i)\) de \(A + B\text{,}\) soit \(a_{ji} + b_{ji}\text{.}\) Il s’agit précisément de la somme de l’élément en position \((i,j)\) de \(A^T\) et de celui à la même position de \(B^T\text{.}\)
Sous-sectionLe produit d’une matrice par un vecteur
On a vu, à la section 2.1, qu’un système d’équations linéaires s’exprime au moyen d’une matrice de coefficients \(A\) que l’on augmente par le vecteur de termes constants \(\vb\) pour former la matrice augmentée \(\acm{A}{b}\text{.}\) Désignons par \(\vx\) le vecteur des inconnues.
Si le système possède \(m\) équations et \(n\) inconnues, on a \(A \in \mmn{m}{n}\text{,}\)\(\vx \in \R^n\) et \(\vb \in \R^m\text{.}\) De plus, résoudre le système revient à se demander si le vecteur \(\vb\) peut être obtenu comme combinaison linéaire des colonnes de \(A\text{.}\) Dans ce cas, les coefficients sont précisément les composantes du vecteur \(\vx\text{.}\) Ceci motive la définition du produit d’une matrice par un vecteur que voici.
Étant donnée une matrice \(A \in \mmn{m}{n}\) et un vecteur \(\vu \in \R^n\text{,}\) on définit le produit \(A \vu\) comme étant la combinaison linéaire des colonnes de \(A\) avec coefficients pris dans \(\vu\text{.}\) Plus explicitement, si on écrit \(A\) par ses colonnes et \(\vu\) par ses coordonnées, c’est-à-dire si on pose \(A= \left[ \begin{array}{cccc} \va_1 \amp \va_2 \amp \cdots \amp \va_n \end{array}\right]\) et \(\vu = \left[\begin{array}{c}u_1 \\ \vdots \\ u_n\end{array}\right]\text{,}\) alors
Le produit d’une matrice \(A \in \mmn{m}{n}\) par un vecteur \(\vu \in \R^n\) est lié au produit scalaire. En effet, le vecteur \(\vx = A \vu\) peut être vu comme une collection de produits scalaires entre les lignes de \(A\text{,}\) vues comme des vecteurs, et le vecteur \(\vu\text{.}\)
Il est important de noter que la matrice \(A\) et le vecteur \(\vc\) doivent vérifier une condition de compatibilité des tailles pour que leur produit soit défini. Le nombre de colonnes de \(A\) doit être égal au nombre de composantes de \(\vc\text{.}\)
Ainsi, si \(A \in \mmn{m}{n}\) et \(\vc \in \R^p\text{,}\) le produit \(A\vc\) est défini seulement si \(n=p\text{.}\) Dans ce cas, \(A\vc \in \R^m\text{.}\) De plus, rien n’est dit au sujet d’un éventuel produit \(\vc A\text{.}\)
Soit \(A \in \mmn{m}{n}\) et \(\ve_i\) le vecteur de \(\R^n\) ayant un \(1\) en position \(i\) et des \(0\) ailleurs. Alors le produit \(A \ve_i\) est la colonne \(i\) de \(A\text{.}\)
En effet, le produit \(A \ve_i\) est la combinaison linéaire des colonnes de \(A\) avec comme coefficients les composantes de \(\ve_i\text{.}\) Comme toutes ces composantes sont nulles, sauf celle en position \(i\) qui vaut \(1\text{,}\) on obtient \(A\ve_i = 1\cdot \va_i + 0\cdot \va_2 + \cdots + 0\cdot \va_n = \va_i.\)
Considérons les vecteurs \(\va_1, \ldots, \va_n\) et soit \(A\) la matrice ayant ces vecteurs comme colonnes. Alors les vecteurs \(\va_i\) sont linéairement dépendants si et seulement si l’équation \(A \vx = \vZero\) admet une solution non nulle. De plus, toute telle solution fournit une relation de dépendance linéaire entre les colonnes de \(A\text{.}\)
Soit \(A=\mdd{2}{4}{-1}{-2}\text{.}\) Sans calculs, par simple inspection, établir que les colonnes de \(A\) sont linéairement dépendantes, donner une relation de dépendance linéaire et en déduire un vecteur \(\vx\) tel que \(A \vx = \vZero\text{.}\)
Soit une matrice \(A\) de taille \(3 \times 4\) dont les colonnes sont \(\va_1,\va_2,\va_3,\va_4\text{,}\) avec \(\va_1=\rvt{1}{-2}{2}\) et \(\va_3=\rvt{3}{1}{-2}\text{.}\) On sait que \(\vc=\rfvect{2}{1}{-3}{0}\) et \(\vd=\rfvect{3}{0}{1}{2}\) sont tels que \(A \vc = \vZero\) et \(A \vd = \vZero\text{.}\) Trouver la matrice \(A\text{.}\)
Ainsi, si on pose \(\vx = \rvd{2}{-1}\text{,}\) on a bien \(A \vx = \vZero\text{.}\) Tout multiple non nul de \(\vx\) vérifie également cette propriété.
La partie (b) de l’exemple précédent montre que la loi de simplification ne tient pas pour le produit matrice–vecteur. En effet, on a \(A \vc = A \vd = \vZero\text{,}\) mais \(\vc \neq \vd\text{,}\) et ces deux vecteurs sont non nuls.
On peut maintenant étudier les propriétés du produit d’une matrice par un vecteur. Étant donné que cette opération est liée au produit scalaire, on peut s’attendre à ce que plusieurs propriétés soient héritées.
Soient \(A,B\in\mmn{m}{n}\) des matrices de colonnes \(\va_1,\ldots,\va_n\) et \(\vb_1,\ldots,\vb_n\text{,}\)\(\vu=\rvt{u_1}{\vdots}{u_n}\in\R^n\) et \(\a, \be \in \R\text{.}\)
On est maintenant en mesure de définir le produit de deux matrices. Pour définir le produit \(AB\text{,}\) on peut regarder la matrice \(B\) comme une liste de vecteurs colonnes. Comme le produit de \(A\) par chacune de ces colonnes est défini (moyennant une certaine compatibilité), il est naturel de définir \(AB\) comme la matrice dont les colonnes sont les produits de \(A\) par les colonnes de \(B\text{.}\) La condition de compatibilité consiste à ce que le nombre de rangées de \(B\) soit égal au nombre de colonnes de \(A\text{.}\) On a alors la définition suivante.
Soient \(A\in \mmn{m}{n}\) et \(B=\left[\begin{array}{ccc}\vb_1\amp \cdots\amp \vb_p\end{array}\right]\in \mmn{n}{p}\text{.}\) On définit le produit \(AB\) par
Les mêmes opérations élémentaires montrent que le rang de la matrice est \(3\text{,}\) ce qui est égal au nombre d’inconnues. La seule solution est donc la solution triviale, et les matrices \(A_1\text{,}\)\(A_2\) et \(A_3\) sont linéairement indépendantes.
Si on veut une formule explicite en termes des coefficients, on remarque que le coefficient à la rangée \(i\) et à la colonne \(j\) de \(AB\) est le coefficient \(i\) du vecteur \(A\vb_j\text{,}\) c’est-à-dire le produit scalaire de la rangée \(i\) de \(A\) avec la colonne \(j\) de \(B\text{.}\) Si l’on note \(A=[a_{i,j}]\) et \(B=[b_{i,j}]\text{,}\) alors le coefficient \(c_{i,j}\) en position \((i,j)\) du produit \(C=AB\) est donné par
\begin{equation*}
c_{i,j}=\sum_{k=1}^{n} a_{i,k} b_{k,j}
=\left(i^{\text{e}}\ \text{ligne de }A\right)\cdot\left(j^{\text{e}}\ \text{colonne de }B\right).
\end{equation*}
Il est fréquent de voir cette formule comme définition du produit matriciel. Elle a certes l’avantage d’être explicite, mais elle masque un peu la nature du produit matriciel comme une opération qui combine des matrices en utilisant le produit matrice-vecteur.
Soient \(A=\mdd{2}{4}{-1}{-2}\text{,}\)\(B=\mdd{1}{0}{1}{1}\) et \(C=\mdt{5}{0}{3}{-1}{-4}{-1}\text{.}\) Parmi les produits \(AB\text{,}\)\(BA\text{,}\)\(AC\text{,}\)\(CA\text{,}\)\(BC\text{,}\)\(CB\text{,}\) déterminer ceux qui sont définis et les calculer.
Comme \(A,B\in \mmn{2}{2}\text{,}\) les deux produits \(AB\) et \(BA\) sont définis et appartiennent à \(\mmn{2}{2}\text{.}\) Comme \(C\in \mmn{2}{3}\text{,}\) les produits \(AC\) et \(BC\) sont définis et appartiennent à \(\mmn{2}{3}\text{.}\) Par contre, les produits \(CA\) et \(CB\) ne sont pas définis, car le nombre de colonnes de \(C\) n’est pas égal au nombre de rangées de \(A\) ou de \(B\text{.}\) On obtient donc:
\begin{align*}
AB \amp = \Mdd{2}{4}{-1}{-2}\Mdd{1}{0}{1}{1} = \Mdd{6}{4}{-3}{-2},\\
BA \amp = \Mdd{1}{0}{1}{1}\Mdd{2}{4}{-1}{-2} = \Mdd{2}{4}{1}{2},\\
AC \amp = \Mdd{2}{4}{-1}{-2}\Mdt{5}{0}{3}{-1}{-4}{-1} = \Mdt{6}{-16}{2}{-3}{8}{-1},\\
BC \amp = \Mdd{1}{0}{1}{1}\Mdt{5}{0}{3}{-1}{-4}{-1} = \Mdt{5}{0}{3}{4}{-4}{2}.
\end{align*}
On remarque notamment que la multiplication matricielle n’est pas commutative, c’est-à-dire que, généralement, \(AB\neq BA\text{.}\) Ceci est illustré dans l’exemple précédent. Par ailleurs, comme pour le produit matrice-vecteur, la loi de simplification ne tient pas.
Si \(A\in \mmn{n}{n}\) est une matrice carrée, alors on peut calculer le produit \(AA\text{,}\) que l’on notera naturellement \(A^2\text{.}\) On revient sur les puissances (positives) d’une matrice carrée.
On pose \(A=\mdd{1}{1}{0}{1}\text{.}\) On cherche des conditions nécessaires et suffisantes sur \(B\) pour avoir \(AB=BA\text{.}\) On calcule
\begin{equation*}
AB = \left[\begin{array}{cc} a+c \amp b+d \\ c \amp d \end{array}\right]
\qquad \text{et} \qquad
BA = \left[\begin{array}{cc} a \amp a+b \\ c \amp c+d \end{array}\right].
\end{equation*}
En égalisant les composantes, on obtient le système
\begin{equation*}
\left\{\begin{array}{rcl}
a+c \amp = \amp a \\
b+d \amp=\amp a+b \\
c \amp=\amp c \\
d \amp=\amp c+d
\end{array}\right.
\end{equation*}
Bien sûr, on pourrait considérer une matrice de coefficients augmentée et résoudre le système par élimination de Gauss. Cependant, le système est suffisamment simple pour être résolu par inspection. On trouve alors \(c=0\) et \(a=d\text{.}\) Ainsi, \(B\) commute avec \(A\) si et seulement si \(B\) est de la forme \(\mdd a b 0 a\text{.}\)
Ce problème est plus compliqué. On pourrait utiliser la même technique que précédemment, mais cette fois, on devrait considérer une matrice \(A = \mdd{x_1}{x_2}{x_3}{x_4}\) quelconque et écrire l’égalité \(AB = BA\) en fonction des coefficients \(a,b,c,d,x_1, x_2, x_3, x_4\text{.}\) On obtiendrait ainsi un système d’équations dont les inconnues sont \(a,b,c,d\) et les paramètres sont \(x_1, \ldots, x_4\text{.}\)
On utilise une autre approche par choix astucieux. Comme \(B\) commute avec toute matrice \(A\text{,}\) on impose cette condition pour des matrices particulières.
Plus largement, à la lumière des exemples rencontrés, il est naturel de se demander quelles sont les propriétés du produit matriciel qui sont toujours valables.
La première égalité est la propriété (d) du théorème 3.1.26 appliquée aux colonnes de \(A\text{.}\) La deuxième égalité est la même propriété appliquée aux colonnes de la matrice \(0\text{.}\)
La première égalité est la propriété (e) du théorème 3.1.26 appliquée aux colonnes de \(A\text{.}\) La deuxième égalité résulte de l’application de la même propriété aux colonnes de la matrice identité \(I_n\) (c’est l’argument de l’exemple 3.1.23).
On commence par montrer que, pour tout vecteur \(\vc\in\R^p\text{,}\) on a \(A(B\vc)=(AB)\vc\text{.}\) Soient donc \(A\in\mmn{m}{n}\text{,}\)\(B\in\mmn{n}{p}\) et \(\vc\in\R^p\text{.}\)
Or, \(\sum_{\ell=1}^n a_{i,\ell}b_{\ell,k}\) est précisément le coefficient en position \((i,k)\) du produit \(AB\text{.}\) Par conséquent, l’expression obtenue est le produit scalaire de la rangée \(i\) de \(AB\) avec le vecteur \(\vc\text{,}\) c’est-à-dire le coefficient en position \(i\) de \((AB)\vc\text{.}\) On a donc \(A(B\vc)=(AB)\vc\text{.}\)
Le résultat général s’ensuit en appliquant cette égalité à chaque colonne de \(C\text{.}\) En effet, si \(C\in\mmn{p}{r}\) et si \(C=\left[\begin{array}{ccc}\vc_1\amp\cdots\amp\vc_r\end{array}\right]\text{,}\) alors
Le coefficient en position \((i,j)\) de \((AB)^T\) est le coefficient en position \((j,i)\) de \(AB\text{,}\) c’est-à-dire le produit scalaire de la rangée \(j\) de \(A\) avec la colonne \(i\) de \(B\text{.}\) Par commutativité du produit scalaire, cela vaut aussi le produit scalaire de la rangée \(i\) de \(B^T\) avec la colonne \(j\) de \(A^T\text{,}\) c’est-à-dire le coefficient en position \((i,j)\) de \(B^T A^T\text{.}\)
\begin{align*}
\left(j^\text{è} \text{ ligne de }A\right) \cdot \left(i^\text{è} \text{ colonne de }B\right)\amp = \left(i^\text{è} \text{ colonne de }B\right)\cdot \left(j^\text{è} \text{ ligne de }A\right) \\
\amp = \left(i^\text{è} \text{ ligne de }B^T\right) \cdot \left(j^\text{è} \text{ colonne de }A^T\right)
\end{align*}
Ceci étant vrai pour toute position \((i,j)\text{,}\) on a bien \((AB)^T = B^T A^T\text{.}\)
On a introduit la multiplication de deux matrices en se basant sur le produit d’une matrice par un vecteur. La dernière propriété du théorème précédent permet d’obtenir une autre interprétation du produit matriciel, en termes de rangées. Voici un exemple.
On remarque d’abord que \(A\in\mmn{1}{2}\) et \(B\in\mmn{2}{3}\text{,}\) de sorte que le produit est bien défini et que le résultat sera une matrice de taille \(1\times 3\text{.}\) On présente deux façons de procéder.
On utilise la propriété (g) du théorème 3.1.36. Comme \(AB=\left((AB)^T\right)^T\) et que \((AB)^T=B^T A^T\text{,}\) on calcule d’abord \(B^T A^T\text{.}\) Or \(A^T\) est un vecteur colonne, donc on peut voir \(B^T A^T\) comme une combinaison linéaire des colonnes de \(B^T\) avec coefficients pris dans \(A^T\text{:}\)
Le même argument peut être repris dans un contexte général. Si \(A\) est une matrice rangée et si \(B\) est une matrice quelconque de taille compatible, alors le produit \(AB\) peut être vu comme une combinaison linéaire des colonnes de \(B\) avec coefficients pris dans la rangée \(A\text{.}\)
Plus généralement, si \(A\in\mmn{m}{n}\) et si l’on écrit \(A\) par ses rangées \(A=\rvt{\va_1}{\vdots}{\va_m}\text{,}\) alors chaque rangée de \(AB\) est une combinaison linéaire des rangées de \(B\) avec coefficients pris dans la rangée correspondante de \(A\text{.}\) On obtient ainsi la représentation rangées–matrice du produit matriciel:
On a vu comment multiplier des matrices. En particulier, si on a une matrice carrée, on peut la multiplier par elle-même et continuer de la sorte. Naturellement, on parle alors des puissances d’une matrice. Il faut toutefois faire attention à ce stade-ci: seules les puissances positives sont définies. Pour les puissances négatives, il faudra attendre la notion d’inverse matriciel.
Soit \(A\in \mmn{p}{p}\text{.}\) On définit alors les puissances de \(A\) comme suit: pour \(n\in \N\text{,}\) on pose \(A^n = \underbrace{A\,\cdots\,A}_{n\,\text{ facteurs}}\) et \(A^0 = I_p\text{.}\)
On remarque que, pour \(n=1,2,3\text{,}\) on a \(M^n=\mdd{1}{n}{0}{1}\text{.}\) On démontre par récurrence que cette formule est vraie pour tout \(n\in \N\text{.}\)
On suppose que la formule soit valable pour un certain \(k\in \N\text{,}\) c’est-à-dire que \(M^k=\mdd{1}{k}{0}{1}\text{.}\) On va montrer qu’elle est alors valable pour \(k+1\text{.}\) En effet,
Ainsi, \(M^6=\left(M^3\right)^2
= \mdd{0}{-1}{1}{0}\mdd{0}{-1}{1}{0}
= \mdd{-1}{0}{0}{-1}=-I,\) ce qui donne à son tour \(M^{12}=I\text{.}\) On effectue ensuite la division euclidienne de \(2021\) par \(12\text{:}\)\(2021=12\cdot 168+5\text{.}\) On obtient donc
Un calcul direct donne \(M^2=\mdd{1}{1}{1}{1}\mdd{1}{1}{1}{1}=\mdd{2}{2}{2}{2}=2M\text{.}\) Puis \(M^3=M^2M=2MM=2M^2=4M=2^{3-1}M\text{.}\) On montre par récurrence que, pour tout \(k\in\N\text{,}\) on a \(M^k=2^{k-1}M\text{.}\)
Soit \(A = \left[ \begin{array}{rr} x \amp 9 \\ y \amp -3 \end{array} \right].\) Déterminer les valeurs de \(x\) et de \(y\) pour lesquelles \(A^2=A\text{.}\)