Sauter au contenu

Section E.1 Matrices et transformations linéaires

Définition E.1.1.

Une transformation linéaire de \(\R^n\) dans \(\R^m\) est une application \(T : \R^n \to \R^m\) telle que \(T(a\vu + b\vv ) = a T(\vu) + bT(\vv)\) pour tout \(a,b\in \R\) et tout \(\vu, \vv \in \R^n\text{.}\)
En somme, dire qu’une application \(T\) est linéaire revient à dire qu’elle se comporte bien par rapport aux combinaisons linéaires. En particulier, nous devons avoir que \(T(\vZero) = \vZero\text{.}\)
Voyons quelques exemples.

Exemple E.1.2.

  1. Une transformation linéaire de \(\R\) dans \(\R\) est tout simplement une fonction de la forme \(f : x \mapsto ax\text{,}\) pour un certain \(a\in \R\text{.}\)
  2. Soit \(\vu \in \R^2\) un vecteur fixé. Alors, la transformation \(T: \R \to \R^2\) donnée par \(t\mapsto t\vu \) est une transformation linéaire.
  3. Soit \(\vu \in \R^2\) un vecteur fixé. Alors, la transformation \(T: \R^2 \to \R\) donnée par \(\vx \mapsto \vu \cdot \vx = \vu^{T}\vx\) est une transformation linéaire.
  4. Si \(A\) est une matrice à \(m\) rangées et à \(n\) colonnes, alors la multiplication par \(A\) fournit une transformation linéaire \(T_A : \R^n \to \R^m\) donnée par \(\vx \mapsto A\vx\text{.}\) Le fait qu’il s’agisse d’une transformation linéaire résulte des propriétés de la multiplication matricielle.
Dans tous les exemples ci-haut, nous avons que la transformation linéaire considérée est donnée par la multiplication par une matrice. En effet, même dans le premier cas, celui des transformations \(\R \to \R\text{,}\) on peut considérer le nombre \(a\) comme une matrice à une rangée et à une colonne.
Ceci n’est pas une coïncidence.
Nous ne donnerons pas la preuve ici, cela relève plutôt d’un cours d’algèbre linéaire. Contentons-nous de dire que les colonnes de la matrice \(M_T\) sont précisément les images des vecteurs de la base canonique \(\ve_1,\ldots, \ve_n\text{.}\) Il faut noter qu’il s’agit de vecteurs dans \(\R^m\text{.}\) Plus précisément,
\begin{equation*} M_T = \left[ \begin{matrix} T(\ve_1) \amp T(\ve_2) \amp \cdots \amp T(\ve_n)\end{matrix}\right]. \end{equation*}
Voyons un exemple.

Exemple E.1.4.

Soit \(\theta \in [0,2\pi]\) fixe et \(T_\theta : \R^2 \to \R^2\) la rotation d’angle \(\theta\) autour de l’origine. Voyons que \(T_\theta\) est linéaire et trouvons la matrice correspondante.
Soit \(\vu\) et \(\vb\) deux vecteurs de \(\R^2\) qu’on suppose non colinéaires pour commencer. Alors, \(\vu + \vv\) est la diagonale (passant par l’origine) du parallélogramme déterminé par \(\vu\) et \(\vv\text{.}\) Si l’on applique \(T_\j\) au parallélogramme, on obtient un deuxième parallélogramme dont l’origine est un des sommets. Ses côtés sont \(T_\j(\vu)\) et \(T_\j(\vv)\text{,}\) et la diagonale passant par l’origine est \(T_\j(\vu) + T_\j(\vv)\text{.}\) Cette diagonale est l’image par \(T_\j\) de la diagonale \(\vu + \vv \) du parallélogramme original, c’est-à-dire \(T_{\j}(\vu + \vv ) = T_{\j}(\vu) + T_{\j}(\vv)\text{.}\) Si les vecteurs \(\vu\) et \(\vv\) sont colinéaires, ils sont multiples l’un de l’autre. Voyons comment \(T_\j\) se comporte dans ce cas.
Pour \(a\in \R\) et \(\vu \in \R^2\text{,}\) le vecteur \(T_\j(a\vu)\) s’obtient en faisant d’abord la multiplication de \(\vu\) par \(a\text{,}\) puis la rotation. Ceci revient à faire la rotation d’abord, puis à effectuer la multiplication par le scalaire \(a\text{.}\) En d’autres termes, \(T_\j(a\vu) = a T_\j(\vu)\text{.}\)
Voyons maintenant la matrice associée à \(T_\j\text{.}\) L’image par \(T_\j\) du vecteur \(\ve_1 =\dvect{1}{0}\) est le vecteur \(\dvect{\cos \j}{\sin \j}\text{.}\) De même, l’image de \(\ve_2 = \dvect{0}{1}\) est \(\dvect{-\sin \j}{\cos \j}\text{.}\) Ainsi, la matrice associée à \(T_\j\) est
\begin{equation*} M_\j = \left[\begin{matrix}\cos \j \amp -\sin \j\\ \sin\j \amp \cos \j \end{matrix}\right]. \end{equation*}
Il est immédiat de démontrer que, si \(S:\R^n \to \R^m\) et \(T:\R^m \to \R^p\) sont des transformations linéaires, alors il en va de même pour la composition \(T\circ S: \R^n \to \R^p\) définie par \(\vx \mapsto T(S(\vx))\text{.}\) Qui plus est, la matrice de \(T \circ S\) s’obtient en multipliant les matrices de \(T\) et de \(S\text{.}\) Plus précisément,
\begin{equation*} M_{T\circ S} = \underbrace{M_T M_S}_{\text{produit matriciel}}. \end{equation*}
On apprend, dans les cours de calcul différentiel à une variable, que l’approximation linéaire d’une fonction \(f\) en un point \(x_0\) est la fonction \(L(x) = f(x_0) + f'(x_0)(x-x_0)\text{.}\) Le graphe de la fonction \(L\) est la tangente à la courbe \(y=f(x)\) au point \((x_0,f(x_0))\text{.}\) L’appellation approximation linéaire comporte un léger abus de notation. En effet, la fonction \(L\) n’est généralement pas une fonction linéaire, puisque \(L(0) = f(x_0) - f'(x_0)x_0\text{,}\) qui n’est généralement pas \(0\text{.}\) À proprement parler, il s’agit d’une fonction affine.
Si les transformations linéaires sont données par la multiplication par une matrice, les transformations affines comportent en plus un terme additif. Une transformation affine \(T : \R^m \to \R^n\) est une transformation donnée par \(T(\vx) = A\vx + \vb\text{,}\)\(A\) est une matrice (la partie linéaire de \(T\)) et où \(\vb\) est un vecteur de \(\R^n\text{.}\) Il s’agit en fait de \(T(\vZero)\text{.}\)