Sauter au contenu

Section 4.3 Systèmes linéaires d’équations différentielles ordinaires

Commençons par parler des fonctions matricielles et vectorielles. Ces fonctions sont des matrices ou des vecteurs où un élément dépend d’une variable. Si \(t\) est la variable indépendante, une fonction vectorielle \(\vec{x}(t)\) s’écrit
\begin{equation*} \vec{x}(t) = \begin{bmatrix} x_1(t) \\ x_2(t) \\ \vdots \\ x_n(t) \end{bmatrix}\text{.} \end{equation*}
De la même façon, une fonction matricielle \(A(t)\) s’écrit
\begin{equation*} A(t) = \begin{bmatrix} a_{11}(t) \amp a_{12}(t) \amp \cdots \amp a_{1n}(t) \\ a_{21}(t) \amp a_{22}(t) \amp \cdots \amp a_{2n}(t) \\ \vdots \amp \vdots \amp \ddots \amp \vdots \\ a_{n1}(t) \amp a_{n2}(t) \amp \cdots \amp a_{nn}(t) \end{bmatrix}\text{.} \end{equation*}
La dérivée \(A'(t)\) ou \(\frac{dA}{dt}\) est simplement la fonction matricielle où le \(ij^{\text{e} }\) élément est \(a_{ij}'(t)\text{.}\)
Les règles pour dériver des fonctions matricielles sont semblables à celles pour les fonctions normales. Supposons les fonctions matricielles \(A(t)\) et \(B(t)\text{,}\) un scalaire \(c\) et une matrice constante \(C\text{.}\) Alors,
\begin{align*} \bigl(A(t)+B(t)\bigr)' \amp = A'(t) + B'(t),\\ \bigl(A(t)B(t)\bigr)' \amp = A'(t)B(t) + A(t)B'(t),\\ \bigl(cA(t)\bigr)' \amp = cA'(t),\\ \bigl(CA(t)\bigr)' \amp = CA'(t),\\ \bigl(A(t)\,C\bigr)' \amp = A'(t)\,C \text{.} \end{align*}
Remarquez l’ordre de multiplication dans les deux dernières expressions.
Un système linéaire d’EDO du premier ordre est un système qui peut s’écrire sous forme d’équation vectorielle
\begin{equation*} {\vec{x}}'(t) = P(t)\vec{x}(t) + \vec{f}(t)\text{,} \end{equation*}
\(P(t)\) est une fonction matricielle et où \(\vec{x}(t)\) et \(\vec{f}(t)\) sont des fonctions vectorielles. On supprime souvent la dépendance en fonction de \(t\) pour simplement écrire \({\vec{x}}' = P\vec{x} + \vec{f}\text{.}\) Une solution du système est une fonction vectorielle \(\vec{x}\) qui satisfait à l’équation vectorielle.
Par exemple, les équations
\begin{align*} x_1' \amp = 2t x_1 + e^t x_2 + t^2 ,\\ x_2' \amp = \frac{x_1}{t} -x_2 + e^t \end{align*}
peuvent s’écrire
\begin{equation*} {\vec{x}}' = \begin{bmatrix} 2t \amp e^t \\ \nicefrac{1}{t} \amp -1 \end{bmatrix} \vec{x} + \begin{bmatrix} t^2 \\ e^t \end{bmatrix}\text{.} \end{equation*}
On se concentrera principalement sur des équations qui ne sont pas que linéaires, mais aussi à coefficients constants . En d’autres termes, la matrice \(P\) sera constante, elle ne dépendra pas de \(t\text{.}\)
Lorsque \(\vec{f} = \vec{0}\) (vecteur nul), on dit que le système est homogène . Le principe de superposition s’applique aux systèmes linéaires homogènes comme pour les équations homogènes simples.
Le concept d’indépendance linéaire d’une fonction vectorielle est le même que pour les fonctions ordinaires. Les fonctions vectorielles \(\vec{x}_1,\vec{x}_2,\ldots,\vec{x}_n\) sont linéairement indépendantes lorsque
\begin{equation*} c_1 \vec{x}_1 + c_2 \vec{x}_2 + \cdots + c_n \vec{x}_n = \vec{0} \end{equation*}
n’a pour solution que \(c_1 = c_2 = \cdots = c_n = 0\) pour chaque \(t\text{.}\)

Exemple 4.3.2.

\(\vec{x}_1 = \Bigl[ \begin{matrix}t^2 \\ t \end{matrix} \Bigr]\text{,}\) \(\vec{x}_2 = \Bigl[ \begin{matrix}0 \\ 1+t \end{matrix} \Bigr]\) et \(\vec{x}_3 = \Bigl[ \begin{matrix}-t^2 \\ 1 \end{matrix} \Bigr]\) sont linéairement dépendantes parce que \(\vec{x}_1 + \vec{x}_3 = \vec{x}_2\) pour chaque \(t\text{.}\) Alors, \(c_1 = 1\text{,}\) \(c_2 = -1\text{,}\) \(c_3 = 1\) fonctionnera dans l’équation ci-dessus.
Cependant, si l’on modifie légèrement l’exemple pour avoir \(\vec{x}_1 = \Bigl[ \begin{matrix}t^2 \\ t \end{matrix} \Bigr]\text{,}\) \(\vec{x}_2 = \Bigl[ \begin{matrix}0 \\ t \end{matrix} \Bigr]\) et \(\vec{x}_3 = \Bigl[ \begin{matrix}-t^2 \\ 1 \end{matrix} \Bigr]\text{,}\) alors les fonctions seront linéairement indépendantes. Commençaons par écrire l’équation \(c_1 \vec{x}_1 + c_2 \vec{x}_2 + c_3 \vec{x}_3 = \vec{0}\) et notons qu’elle doit être valide pour chaque \(t\text{.}\) On obtient
\begin{equation*} c_1 \vec{x}_1 + c_2 \vec{x}_2 + c_3 \vec{x}_3 = \begin{bmatrix} c_1 t^2 - c_3 t^2 \\ c_1 t + c_2 t + c_3 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \end{bmatrix}\text{.} \end{equation*}
En d’autres termes, \(c_1 t^2 - c_3 t^2 = 0\) et \(c_1 t + c_2 t + c_3 = 0\text{.}\) Si \(t = 0\text{,}\) la seconde équation devient \(c_3 = 0\text{.}\) La première équation devient \(c_1 t^2 = 0\) pour chaque \(t\text{,}\) alors \(c_1 = 0\text{.}\) La seconde équation est simplement \(c_2 t = 0\text{,}\) et donc \(c_2 = 0\text{.}\) Alors, \(c_1 = c_2 = c_3 = 0\) est la solution unique, et \(\vec{x}_1\text{,}\) \(\vec{x}_2\) et \(\vec{x}_3\) sont linéairement indépendantes.
La combinaison linéaire \(c_1 \vec{x}_1 + c_2 \vec{x}_2 + \cdots + c_n \vec{x}_n\) peut toujours s’écrire
\begin{equation*} X(t)\,\vec{c}\text{,} \end{equation*}
\(X(t)\) est la matrice avec des colonnes \(\vec{x}_1, \vec{x}_2, \ldots, \vec{x}_n\) et où \(\vec{c}\) est le vecteur colonne avec les éléments \(c_1, c_2, \ldots, c_n\text{.}\) En supposant que \(\vec{x}_1,\vec{x}_2,\ldots,\vec{x}_n\) sont linéairement indépendantes, la fonction matricielle \(X(t)\) est appelée matrice fondamentale ou solution matricielle fondamentale.
Pour résoudre des systèmes linéaires du premier ordre non homogènes, on applique la même technique que pour les équations linéaires non homogènes.
On procède de la même façaon pour les systèmes et les équations simples. On trouve une solution particulière à l’équation non homogène et ensuite la solution générale de l’équation homogène associée, puis on additionne les deux.
Supposons que la solution générale trouvée est \({\vec{x}}' = P\vec{x} + \vec{f}\text{.}\) Ensuite, supposons une condition initiale de la forme
\begin{equation*} \vec{x}(t_0) = \vec{b} \end{equation*}
pour un temps fixe \(t_0\) et pour un vecteur constant \(\vec{b}\text{.}\) Admettons que \(X(t)\) est une solution matricielle fondamentale de l’équation homogène associée (c’est-à-dire que les colonnes de \(X(t)\) sont les solutions). La solution générale peut s’écrire
\begin{equation*} \vec{x}(t) = X(t)\,\vec{c} + \vec{x}_p(t)\text{.} \end{equation*}
On cherche un vecteur \(\vec{c}\) tel que
\begin{equation*} \vec{b} = \vec{x}(t_0) = X(t_0)\,\vec{c} + \vec{x}_p(t_0)\text{.} \end{equation*}
En d’autres termes, on résout le système d’équations linéaires non homogène pour \(\vec{c}\) :
\begin{equation*} X(t_0)\,\vec{c} = \vec{b} - \vec{x}_p(t_0)\text{.} \end{equation*}

Exemple 4.3.4.

À la Section 4.1, le système a été résolu,
\begin{align*} x_1' \amp = x_1 ,\\ x_2' \amp = x_1 - x_2 \text{,} \end{align*}
pour des conditions initiales \(x_1(0) = 1\text{,}\) \(x_2(0) = 2\text{.}\) Considérons ce problème avec la terminologie de cette section.
Le système est homogène, alors \(\vec{f}(t) = \vec{0}\text{.}\) Le système et les conditions initiales s’écrivent
\begin{equation*} {\vec{x}}' = \begin{bmatrix} 1 \amp 0 \\ 1 \amp -1 \end{bmatrix} \vec{x} , \qquad \vec{x}(0) = \begin{bmatrix} 1 \\ 2 \end{bmatrix}\text{.} \end{equation*}
On a trouvé que la solution générale est \(x_1 = c_1 e^t\) et \(x_2 = \frac{c_1}{2}e^{t} + c_2e^{-t}\text{.}\) Si \(c_1=1\) et \(c_2=0\text{,}\) la solution est \(\left[ \begin{matrix}e^t \\ (1/2) e^t \end{matrix} \right]\text{.}\) En prenant \(c_1=0\) et \(c_2=1\text{,}\) on obtient \(\left[ \begin{matrix}0 \\ e^{-t} \end{matrix} \right]\text{.}\) Ces deux solutions sont linéairement indépendantes, comme on le constate en prenant \(t=0\) et en remarquant que les vecteurs constants résultants sont linéairement indépendants. En notation matricielle, une solution matricielle fondamentale est donc
\begin{equation*} X(t) = \begin{bmatrix} e^t \amp 0 \\ \frac{1}{2} e^t \amp e^{-t} \end{bmatrix}\text{.} \end{equation*}
Afin de résoudre le problème avec les valeurs initiales, on résout pour \(\vec{c}\) dans l’équation
\begin{equation*} X(0)\,\vec{c} = \vec{b} \end{equation*}
ou
\begin{equation*} \begin{bmatrix} 1 \amp 0 \\ \frac{1}{2} \amp 1 \end{bmatrix} \vec{c} = \begin{bmatrix} 1 \\ 2 \end{bmatrix}\text{.} \end{equation*}
Une opération élémentaire unique sur une ligne montre que \(\vec{c} = \left[ \begin{matrix}1 \\ 3/2 \end{matrix} \right]\text{.}\) La solution est
\begin{equation*} \vec{x}(t) = X(t)\,\vec{c} = \begin{bmatrix} e^t \amp 0 \\ \frac{1}{2} e^t \amp e^{-t} \end{bmatrix} \begin{bmatrix} 1 \\ \frac{3}{2} \end{bmatrix} = \begin{bmatrix} e^t \\ \frac{1}{2} e^t + \frac{3}{2} e^{-t} \end{bmatrix}\text{.} \end{equation*}
Cette nouvelle solution est conforme à celle obtenue à la Section 4.1.

Exercices Exercices

1.

Écrivez le système \(x_1' = 2 x_1 - 3t x_2 + \sin t\text{,}\) \(x_2' = e^t x_1 + 3 x_2 + \cos t\) sous la forme \({\vec{x}}' = P(t) \vec{x} + \vec{f}(t)\text{.}\)

2.

  1. Vérifiez que le système \({\vec{x}}' = \left[ \begin{matrix}1 \amp 3 \\ 3 \amp 1 \end{matrix} \right] \vec{x}\) a les deux solutions \(\left[ \begin{matrix}1 \\ 1 \end{matrix} \right] e^{4t}\) et \(\left[ \begin{matrix}1 \\ -1 \end{matrix} \right] e^{-2t}\text{.}\)
  2. Écrivez la solution générale.
  3. Écrivez la solution générale sous la forme \(x_1 = ?\text{,}\) \(x_2 = ?\) (i.e. écrivez la formule pour chaque élément de la solution).

3.

Vérifiez que \(\left[ \begin{matrix}1 \\ 1 \end{matrix} \right] e^{t}\) et \(\left[ \begin{matrix}1 \\ -1 \end{matrix} \right] e^{t}\) sont linéairement indépendantes. Conseil : Utilisez \(t=0\text{.}\)

4.

Vérifiez que \(\left[ \begin{matrix}1 \\ 1 \\ 0 \end{matrix} \right] e^{t}\) et \(\left[ \begin{matrix}1 \\ -1 \\ 1 \end{matrix} \right] e^{t}\) et \(\left[ \begin{matrix}1 \\ -1 \\ 1 \end{matrix} \right] e^{2t}\) sont linéairement indépendantes. Conseil : Vous devez faire preuve de plus d’imagination qu’à l’exercice précédent.

5.

Vérifiez que \(\left[ \begin{matrix}t \\ t^2 \end{matrix} \right]\) et \(\left[ \begin{matrix}t^3 \\ t^4 \end{matrix} \right]\) sont linéairement indépendants.

6.

Prenez le système \(x_1' + x_2' = x_1\) et \(x_1' - x_2' = x_2\text{.}\)
  1. Écrivez-le sous la forme \(A {\vec{x}}' = B \vec{x}\) pour des matrices \(A\) et \(B\text{.}\)
  2. Calculez \(A^{-1}\) et utilisez le résultat pour écrire le système sous la forme \({\vec{x}}' = P \vec{x}\text{.}\)

7.

Est-ce que \(\left[ \begin{matrix}e^{2t} \\ e^t \end{matrix} \right]\) et \(\left[ \begin{matrix}e^{t} \\ e^{2t} \end{matrix} \right]\) sont linéairement indépendants? Justifiez votre réponse.
Réponse.
Oui.

8.

Est-ce que \(\left[ \begin{matrix}\cosh(t) \\ 1 \end{matrix} \right]\text{,}\) \(\left[ \begin{matrix}e^{t} \\ 1 \end{matrix} \right]\) et \(\left[ \begin{matrix}e^{-t} \\ 1 \end{matrix} \right]\) sont linéairement indépendants? Justifiez votre réponse.
Réponse.
Non. \(2 \left[ \begin{matrix}\cosh(t) \\ 1 \end{matrix} \right] - \left[ \begin{matrix}e^{t} \\ 1 \end{matrix} \right] - \left[ \begin{matrix}e^{-t} \\ 1 \end{matrix} \right] = \vec{0}\)

9.

Écrivez \(x'=3x-y+e^t\text{,}\) \(y'=tx\) en notation matricielle.
Réponse.
\(\left[ \begin{matrix}x \\ y \end{matrix} \right] ' = \left[ \begin{matrix}3 \amp -1 \\ t \amp 0 \end{matrix} \right] \left[ \begin{matrix}x \\ y \end{matrix} \right] + \left[ \begin{matrix}e^{t} \\ 0 \end{matrix} \right]\)

10.

  1. Écrivez \(x_1'=2tx_2\text{,}\) \(x_2'=2tx_2\) en notation matricielle.
  2. Résolvez et écrivez la solution en notation matricielle.
Réponse.
a) \(\vec{x}\,' = \left[ \begin{matrix}0 \amp 2t \\ 0 \amp 2t \end{matrix} \right] \vec{x}\) b) \(\vec{x} = \left[ \begin{matrix}C_2 e^{t^2} + C_1 \\ C_2 e^{t^2} \end{matrix} \right]\)