Chapitre 5 : Algèbre Bilinéaire, Produit Scalaire

4 Espaces Vectoriels Euclidiens

Sous-sections


4 Espaces Vectoriels Euclidiens

Rappelons que ce sont les espaces vectoriels réels de dimension finie munis d'un produit scalaire.

4.1 Produit scalaire et norme dans une base orthonormale

Théorème :   E étant muni d'une base orthonormale $ (e_{1},\ldots,e_{n})$, \begin{displaymath}U:\left( \begin{array}[c]{c} x_{1}\\ x_{2}\\ \vdots\\ x_{n} \end{array} \right) \end{displaymath} et \begin{displaymath}V:\left( \begin{array}[c]{c} y_{1}\\ y_{2}\\ \vdots\\ y_{n} \end{array} \right) \end{displaymath} les vecteurs colonnes des coordonnées de $ u$ et $ v$ dans la base,
alors $ \left\langle u,v\right\rangle =$ $ ^{t}UV=\displaystyle\sum _{i=1}^{n}x_{i} y_{i}$
De plus, la norme euclidienne est $ \left\Vert u\right\Vert =\sqrt {\left\langle u,u\right\rangle }=\sqrt{\displaystyle\sum_{i=1}^{n}x_{i}^{2}}$

Preuve. Par bilinéarité :

$\displaystyle \left\langle u,v\right\rangle =\left\langle \sum\limits_{i=1}^{n}... ...{n}\sum\limits_{j=1}^{n}x_{i} y_{j}\left\langle e_{i}, e_{j}\right\rangle , $

Les produits scalaires $ \left\langle e_{i}, e_{j}\right\rangle$ sont nuls pour $ i\neq j$ et valent $ 1$ sinon.
Ce qui donne :

$\displaystyle \left\langle u,v\right\rangle =\sum_{i=1}^{n}x_{i} y_{i} $

$ \qedsymbol$

4.2 Matrice d'une forme bilinéaire symétrique, d'une forme quadratique dans une base

Comme on passe d'une forme bilinéaire symétrique à une forme quadratique et réciproquement, ce sera la même matrice.
Par bilinéarité, avec les mêmes notations,

$\displaystyle \Psi\left( u,v\right) =\sum\limits_{i=1}^{n}\sum\limits_{j=1}^{n}x_{i}  y_{j} \Psi\left( e_{i}, e_{j}\right) $

Définition :   $ M\in\mathcal{M}_{n}\left( \mathbb{R}\right) ,M=\left( \Psi\left( e_{i}, e_{j}\right) \right) _{1\leqslant i,j\leqslant n}$ est appelée matrice de $ \Psi$, forme bilinéaire symétrique, dans la base$ \mathcal{B}=(e_{1},\ldots, e_{n})$.
C'est une matrice symétrique. On a alors :

$\displaystyle \Psi\left( u,v\right) =^{t}\!UMV $

Dans le cas particulier où $ E=\mathbb{R}^{n}:$

Exemple :   En dimension 2, considérons la forme quadratique :$ q(u)=2 x^2+x y$.
Sa matrice dans la même base est :$ \left( \begin{array}[c]{cc} 2 & \frac{1}{2} \\ \frac{1}{2} & 0 \end{array} \right)$.

4.3 Endomorphisme orthogonal, groupe orthogonal

Définition :   Un endomorhisme $ \varphi$ de E un espace vectoriel euclidien, est ditorthogonal

 

$\displaystyle \Leftrightarrow\varphi$ conserve le produit scalaire

   

 

$\displaystyle \Leftrightarrow\forall u,v\in E,\left\langle \varphi(u),\varphi (v)\right\rangle =\left\langle u,v\right\rangle$

   


Théorème :   $ \varphi$ est orthogonal $ \Leftrightarrow$ $ \varphi$ conserve la norme$ \Leftrightarrow$ $ \forall u\in E$, $ \left\Vert \varphi(u)\right\Vert =\left\Vert u\right\Vert $

Preuve. On a :

$\displaystyle \left\Vert \varphi(u+v)\right\Vert ^{2}$

$\displaystyle =\left\langle \varphi(u+v),\varphi (u+v)\right\rangle$

   

 

$\displaystyle =\left\langle \varphi(u),\varphi(u)\right\rangle +2\left\langle ... ...eft\langle \varphi(v),\varphi (v)\right\rangle =\left\Vert u+v\right\Vert ^{2}$

   


D'autre part :

$\displaystyle \left\Vert u+v\right\Vert ^{2}=\left\langle u,u\right\rangle +2\l... ...ight\rangle =\left\langle u,u\right\rangle +2c+\left\langle v,v\right\rangle $

D'où $ \left\langle u,v\right\rangle =\left\langle \varphi(u),\varphi (v)\right\rangle $. La réciproque est évidente en prenant $ u=v$. $ \qedsymbol$

Théorème :   Un endomorphisme orthogonal est un automorphisme.

Preuve. Il suffit de montrer que $ \varphi$ est injective car $ E$ est de dimension finie.

$\displaystyle \varphi\left( u\right) =0\Leftrightarrow\left\Vert \varphi\left( ... ... \right\Vert =0 \Leftrightarrow\left\Vert u\right\Vert =0\Leftrightarrow u=0 $

$ \qedsymbol$

Théorème :   Un endomorphisme orthogonal conserve l'orthogonalité.

Théorème :   Un endomorphisme est orthogonal
$ \Leftrightarrow$ il transforme une base orthonormale en une base orthonormale
$ \Leftrightarrow$ il transforme toute base orthonormale en une base orthonormale.

Preuve. Les implications directes sont claires car c'est un automorphisme qui conserve l'orthogonalité.
Pour la réciproque, on considère $ \left( e_{1},e_{2},\ldots,e_{n}\right) $ une base orthonormale, et $ \varphi$ un endomorphisme tel que$ \left( \varphi\left( e_{1}\right) ,\varphi\left( e_{2}\right) ,\ldots,\varphi\left( e_{n}\right) \right) $ soit une base orthonormale.

$\displaystyle \left\langle \varphi(u),\varphi(v)\right\rangle$

$\displaystyle =\sum_{i=1}^{n}\sum _{j=1}^{n}x_{i} y_{j}\left\langle \varphi(e_{i}), \varphi(e_{j})\right\rangle =\sum_{i=1}^{n}x_{i} y_{i}$

   

 

$\displaystyle =\left\langle u,v\right\rangle$

   


$ \qedsymbol$

Théorème :   L'ensemble des endomorphismes orthogonaux de $ E$, muni de la loi $ \circ$ de composition des applications est un groupe noté $ O(E)$, sous groupe de$ GL(E)$.

Preuve. On montre que $ O(E)$ est un sous groupe de $ GL(E)$.$ O\left( E\right) $ est non vide car il contient l'identité.
Si $ \varphi$ et $ \psi$ appartiennent à $ O\left( E\right) $,

$\displaystyle \left\langle \psi\circ\varphi\left( u\right) ,\psi\circ\varphi\left( v\right) \right\rangle$

$\displaystyle =\left\langle \psi\left( \varphi\left( u\right) \right) ,\psi\le... ...gle =\left\langle \varphi\left( u\right) ,\varphi\left( v\right) \right\rangle$

   

 

$\displaystyle =\left\langle u,v\right\rangle$

   


Si $ \varphi$ appartient à $ O\left( E\right) $, $ \varphi$ est un automorphisme, on peut donc considérer $ \varphi ^{-1}$.

$\displaystyle \left\langle \varphi^{-1}\left( u\right) ,\varphi^{-1}\left( v\right) \right\rangle$

$\displaystyle =\left\langle \varphi\circ\varphi^{-1}\left( u\right) ,\varphi\circ\varphi^{-1}\left( v\right) \right\rangle$

   

 

$\displaystyle =\left\langle u,v\right\rangle$

   


$ \qedsymbol$

4.4 Matrice orthogonale

Définition :   Une matrice $ M$ est orthogonale$ \Leftrightarrow$ $ M$ est la matrice d'un endomorphisme orthogonal dans une base orthonormale.

Théorème :   $ M$ est orthogonale$ \Leftrightarrow$ les vecteurs colonnes de $ M$ sont normés et orthogonaux 2 à 2
$ \Leftrightarrow$ les vecteurs lignes de $ M$ sont normés et orthogonaux 2 à 2
$ \Leftrightarrow M^{-1}= ^{t}\!M$
$ \Leftrightarrow M ^{t}\!M= ^{t}\!MM=I$ (une seule égalité suffit).

Preuve.$ M$ est la matrice de $ \varphi$, endomorphisme orthogonal, dans la base orthonormale $ \left( e_{1},e_{2},\ldots,e_{n}\right) $.
Les vecteurs colonnes de $ M$ sont les vecteurs d'une base ortonormale, ils sont donc normés et orthogonaux 2 à 2.
Réciproquement, si les vecteurs colonnes sont normés et orthogonaux 2 à 2, $ \varphi$ transforme une base orthonormale en une base orthonormale.$ \varphi$ est donc orthogonal et $ M$ orthogonale.
L'équivalence à $ M$ $ ^{t}\!M=I$ en découle immédiatement.$ M$ $ ^{t}\!M=I\Leftrightarrow M^{-1}=$$ ^{t}\!M\Leftrightarrow$$ ^{t}\!M$$ M=I\Leftrightarrow$$ ^{t}\!M$ est orthogonale.
Et enfin, cela équivaut à ce que les vecteurs lignes de $ M$ sont normés et orthogonaux 2 à 2. $ \qedsymbol$

Remarque :   Une matrice orthogonale s'interprète donc comme la matrice d'un endomorphisme orthogonal dans une base orthonormale ou comme une matrice de changement de bases orthonormales.

Notation :   Si $ E=\mathbb{R}^{n}$, le groupe orthogonal de E se note $ O(n)$ La loi est alors le produit des matrices.



© Christophe Caignaert - Lycée Colbert - Tourcoing