Chapitre 20 : Equations et Systèmes Différentiels

1 Systèmes Différentiels Linéaires du $ 1^{er}$ ordre

Sous-sections


1 Systèmes Différentiels Linéaires du $ 1^{er}$ ordre

1.1 Système linéaire du premier ordre

Définition :   Soit $ A$ est une matrice carrée d'ordre $ n$ à coéfficients dans $ \mathbb{R}$ ou $ \mathbb{C}$, et :    \begin{displaymath}, un vecteur de classe $ \mathcal{C}^{k}$ sur $ I$ un intervalle de $ \mathbb{R}$.
Le système linéaire d'ordre 1 à coefficients constants et sans second membre est :    $ X^{\prime}(t)=AX(t) $.
Résoudre ce système, c'est trouver tous les vecteurs $ X\left( t\right) $ qui le vérifient.

On ne traite que les systèmes à coefficients constants, c'est à dire où$ A$ ne dépend pas de $ t$.

1.2 Cas où $ A$ est diagonalisable

Théorème :   Soit $ A$ est une matrice carrée d'ordre $ n$ à coefficients dans$ \mathbb{K}$ $ \left( \mathbb{R}\text{ ou }\mathbb{C}\right) $, diagonalisable.
On note $ (\lambda_{1},\lambda_{2},\ldots,\lambda_{n})$ les valeurs propres et $ (U_{1},U_{2},\ldots,U_{n})$ une base de vecteurs propres associés.
Alors, l'ensemble des solutions de $ X^{\prime}=AX$, sur $ I$ un intervalle quelconque, est un $ \mathbb{K}$-espace vectoriel de dimension $ n$, et :

$\displaystyle X(t)=\alpha_{1}e^{\lambda_{1}t}U_{1}+\alpha_{2}e^{\lambda_{2}t}U_{2} +\cdots+\alpha_{n}e^{\lambda_{n}t}U_{n} $

Si, de plus, on fixe la condition initiale $ X\left( 0\right) =X_{0}$, la solution existe et est unique.

Preuve. On appelle $ P$ la matrice de passage dont la $ i^{\grave{e}me}$ colonne est le vecteur $ U_{i}$, alors, $ P^{-1}AP=D$, matrice diagonale des $ \lambda_{i}$.
On pose :    $ Y=P^{-1}X,\quad X=PY, $     et on a :    $ Y^{\prime}=P^{-1}X^{\prime},\quad X^{\prime}=PY^{\prime} $ car $ P$ est constant, puisque $ A$ est constant.

$\displaystyle X^{\prime}$

$\displaystyle =AX$

   

$\displaystyle PY^{\prime}$

$\displaystyle =APY$

   

$\displaystyle Y^{\prime}$

$\displaystyle =P^{-1}APY=DY$

   


On pose \begin{displaymath}Y(t)=\left( \begin{array}[c]{c} y_{1}(t)\\ y_{2}(t)\\ \vdots\\ y_{n}(t) \end{array} \right) \end{displaymath}, le système devient : \begin{displaymath}\left\{ \begin{array}[c]{l} y_{1}^{\prime}=\lambda_{1}y_{1}... ...dots\\ y_{n}^{\prime}=\lambda_{n}y_{n} \end{array} \right. \end{displaymath} qui se résout en : \begin{displaymath}\left\{ \begin{array}[c]{l} y_{1}=\alpha_{1}e^{\lambda_{1}t... ...ots\\ y_{n}=\alpha_{n}e^{\lambda_{n}t} \end{array} \right. \end{displaymath}
Enfin, $ X=PY$ donne alors : $ X(t)=\alpha_{1}e^{\lambda_{1}t}U_{1}+\alpha _{2}e^{\lambda_{2}t}U_{2}+\cdots+\alpha_{n}e^{\lambda_{n}t}U_{n}$ $ \qedsymbol$

On remarquera que dans ce cas, le calcul de $ P^{-1}$ est inutile.

1.3 Cas où $ A$ est diagonalisable sur $ \mathbb{C}$ mais pas sur$ \mathbb{R}$

Si on résout le système sur $ \mathbb{C}$ comme on vient de le faire, les valeurs propres complexes non réelles sont 2 à 2 conjuguées et on peut prendre des vecteurs propres 2 à 2 conjugués. Pour un tel couple de valeurs propres :

$\displaystyle Vect\left( e^{\lambda t}U,e^{\overline{\lambda}t}\overline{U}\rig... ...t}U\right) ,\mathfrak{\operatorname{Im}}\left( e^{\lambda t}U\right) \right) $

En effet :

$\displaystyle e^{\lambda t}U$

$\displaystyle =\mathfrak{\operatorname{Re}}\left( e^{\lambda t}U\right) +i\,\mathfrak{\operatorname{Im}}\left( e^{\lambda t}U\right)$

   

$\displaystyle e^{\overline{\lambda}t}\overline{U}$

$\displaystyle =\mathfrak{\operatorname{Re}}\left( e^{\lambda t}U\right) -i\,\mathfrak{\operatorname{Im}}\left( e^{\lambda t}U\right)$

   


et d'autre part :

$\displaystyle \mathfrak{\operatorname{Re}}\left( e^{\lambda t}U\right)$

$\displaystyle =\dfrac{e^{\lambda t}U+e^{\overline{\lambda}t}\overline{U}}{2}$

   

$\displaystyle \mathfrak{\operatorname{Im}}\left( e^{\lambda t}U\right)$

$\displaystyle =\dfrac{e^{\lambda t}U-e^{\overline{\lambda}t}\overline{U}}{2i}$

   


Or, $ \mathfrak{\operatorname{Re}}\left( e^{\lambda t}U\right) $ et$ \mathfrak{\operatorname{Im}}\left( e^{\lambda t}U\right) $ sont deux solutions du système différentiel sur $ \mathbb{R}$, formant une famille libre.
Ce qui donne le théorème suivant :

Théorème :   Dans le cas où $ A$ est diagonalisable sur $ \mathbb{C}$ mais pas sur$ \mathbb{R}$, il suffit dans la famille génératrice des solutions de remplacer, pour les valeurs propres non réelles,

$\displaystyle \alpha\ e^{\lambda t}U+\beta\ e^{\overline{\lambda}t}\overline{U}$   par$\displaystyle \quad a\ \mathfrak{\operatorname{Re}}\left( e^{\lambda t}U\right) +b\ \mathfrak{\operatorname{Im}}\left( e^{\lambda t}U\right) $

avec $ a$ et $ b$ réels.

Exemple :   On va résoudre le système différentiel : \begin{displaymath}\left\{ \begin{array}[c]{l} x^{\prime}=x+y\\ y^{\prime}=-x+2y+z\\ z^{\prime}=x+z \end{array} \right. \end{displaymath}.
C'est un système différentiel linéaire du premier ordre sans second membre.
Sa matrice est : \begin{displaymath}\left( \begin{array}[c]{ccc} 1 & 1 & 0\\ -1 & 2 & 1\\ 1 & 0 & 1 \end{array} \right) \end{displaymath}, et son polynôme caractéristique est : $ \left( 1-\lambda\right) ^{2}\left( 2-\lambda\right) +1+\left( 1-\lambda\right) =\left( 2-\lambda\right) \left( \left( 1-\lambda\right) ^{2}+1\right) $.
On a donc trois valeurs propres distinctes $ 2$, $ 1+i$ et $ 1-i$.
Par nécessité, on travaille pour le moment sur $ \mathbb{C}$.
Les vecteurs propres suivants : \begin{displaymath}\left( \begin{array}[c]{c} 1\\ 1\\ 1 \end{array} \right) \end{displaymath}, \begin{displaymath}\left( \begin{array}[c]{c} i\\ -1\\ 1 \end{array} \right) \end{displaymath} et \begin{displaymath}\left( \begin{array}[c]{c} -i\\ -1\\ 1 \end{array} \right) \end{displaymath}, forment, dans l'ordre des valeurs propres, une base de chaque sous-espace propre. Sur $ \mathbb{C}$, les solutions sont donc : \begin{displaymath}\left( \begin{array}[c]{c} x\\ y\\ z \end{array} \rig... ...t( \begin{array}[c]{c} -i\\ -1\\ 1 \end{array} \right) \end{displaymath},\begin{displaymath}\left( \begin{array}[c]{c} x\\ y\\ z \end{array} \rig... ...t\\ -\cos t+i\sin t\\ \cos t-i\sin t \end{array} \right) \end{displaymath}, ce qui fait que sur $ \mathbb{R}$, les solutions sont : \begin{displaymath}\left( \begin{array}[c]{c} x\\ y\\ z \end{array} \rig... ...ay}[c]{c} \cos t\\ -\sin t\\ \sin t \end{array} \right) \end{displaymath}.

1.4 Cas où $ A$ est triangularisable, non diagonalisable

Dans le cas où $ A$ est triangularisable, non diagonalisable, on considère $ P$ de passage telle que

$\displaystyle T=P^{-1}AP $

avec $ T$ triangulaire supérieure. L'énoncé du problème doit vous guider pour trouver $ T$ et $ P$.


On pose : $ X(t)=PY(t)$, on obtient : $ X^{\prime}(t)=PY^{\prime}(t)$, car $ P$ est constant.


On reporte dans le système différentiel et on obtient :    $ Y^{\prime}(t)=TY(t) $.
Travaillons maintenant sur un exemple pour plus de clarté, en considérant au départ directement la matrice triangulaire $ T$ :    \begin{displaymath}.
Ce qui donne :

$\displaystyle y_{1}^{\prime}$

$\displaystyle =2y_{1}$

   

$\displaystyle y_{2}^{\prime}$

$\displaystyle =3y_{2}+y_{3}$

   

$\displaystyle y_{3}^{\prime}$

$\displaystyle =3y_{3}$

   


On résout en partant de la dernière équation, et en remontant équation par équation, puis $ X=PY$ permet de conclure.
Remarquons que le calcul de $ P^{-1}$ est toujours inutile.

1.5 Cas d'un système avec second membre

Remarquons qu'il suffit de trouver une solution particulière qu'on ajoute à la solution générale du système sans second membre, puisque le problème est linéaire.
Ce qu'on fait maintenant n'a donc d'intérêt que sion ne connait pas de solution particulière au système...
On a ici :    $ X^{\prime}\left( t\right) =AX\left( t\right) +B\left( t\right) $     avec :    \begin{displaymath} B\left( t\right) =\left( \begin{array}[c]{l} b_{1}\left( ... ...) \end{array} \right) \text{ des fonctions continues sur }I \end{displaymath}.
$ A$ est à coefficients constants, diagonalisable.
On utilise les mêmes notations que ci-dessus, avec $ P$ la matrice de passage et $ D$ la matrice diagonale et $ X=PY$.
Ce qui donne :

$\displaystyle X^{\prime}$

$\displaystyle =AX+B$

   

$\displaystyle PY^{\prime}$

$\displaystyle =APY+B$

   

$\displaystyle Y^{\prime}$

$\displaystyle =P^{-1}APY+P^{-1}B=DY+P^{-1}B$

   


On note :    \begin{displaymath} P^{-1}B\left( t\right) =\left( \begin{array}[c]{l} c_{1}\... ...t) \\ \vdots\\ c_{n}\left( t\right) \end{array} \right) \end{displaymath}.
Le système devient :

$\displaystyle y_{1}^{\prime}$

$\displaystyle =\lambda_{1}y_{1}+c_{1}\left( t\right)$

   

$\displaystyle y_{2}^{\prime}$

$\displaystyle =\lambda_{2}y_{2}+c_{2}\left( t\right)$

   

 

$\displaystyle \vdots$

   

$\displaystyle y_{n}^{\prime}$

$\displaystyle =\lambda_{n}y_{n}+c_{n}\left( t\right)$

   


On cherche une solution particulière de chaque équation et $ X=PY$ permet de conclure.
Remarquons qu'on a ici besoin de $ P^{-1}$ pour calculer $ P^{-1}B$.

Remarque :   En fait, on peut souvent faire plus rapide, et sans calcul de $ P^{-1}$ quand la dimension est petite et le vecteur second membre assez simple, comme un polynôme par une exponentielle.
Il suffit, pour chaque variable, de chercher une solution particulière correspondant à un second membre combinaison linéaire de toutes les composantes du vecteur second membre. Dans le cas d'un polynôme par une exponentielle, les racines de l'équation caractéristique du cours de Sup sont remplacées par les valeurs propres.


Enfin, on ne tient compte des conditions initiales que lorsqu'on a la solution générale du système avec second membre.


© Christophe Caignaert - Lycée Colbert - Tourcoing