Chapitre 5 : Algèbre Bilinéaire, Produit Scalaire

3 Orthogonalité, Orthonormalité

Sous-sections


3 Orthogonalité, Orthonormalité

3.1 Orthogonalité

Définition :   $ u$ et $ v$ sont orthogonaux pour $ \left\langle \cdot,\cdot\right\rangle \Leftrightarrow\left\langle u,v\right\rangle =0$

Exemple :   $ E=\mathcal{C}^{0}\left( \left[ 0,2\pi\right] \right) ,\left\langle f,g\right\rangle =\displaystyle\int_{0}^{2\pi}f\left( t\right) g\left( t\right) dt$, alors \begin{displaymath}\left\{ \begin{array}[c]{c} f:t\rightarrow\sin t\\ g:t\rightarrow\cos t \end{array} \right. \end{displaymath} sont orthogonales.
En effet, c'est encore le théorème des 3 conditions qui permet de prouver qu'on a encore affaire à un produit scalaire et $ \displaystyle\int_{0}^{2\pi }\sin t\cos t\,dt=\left[ \dfrac{1}{2}\sin^{2}t\right] _{0}^{2\pi}=0,$
ce qui prouve l'orthogonalité.

Remarque :   Le vecteur nul est orthogonal à tous les vecteurs.

3.2 Orthogonal d'une partie

Théorème :   Soit $ A$ une partie non vide de $ E$, préhilbertien,

$\displaystyle A^{\perp}=\left\{ u\in E,\forall v\in A,\left\langle u,v\right\rangle =0\right\} $

est un sous espace vectoriel de $ E$.

Si $ A$ ne contient qu'un seul vecteur $ v$, on le note alors $ v^{\perp}$.

Preuve.$ A^{\perp}$ est clairement non vide. Montrons qu'il est stable par combinaison linéaire.
Soit \begin{displaymath}\left\{ \begin{array}[c]{l} u_{1},u_{2}\in A^{\perp}\\ \lambda,\mu\in\mathbb{R}\\ v\in A \end{array} \right. \end{displaymath}, alors $ \left\langle \lambda.u_{1}+\mu.u_{2},v\right\rangle =\lambda\left\langle u_{1},v\right\rangle +\mu\left\langle u_{2} ,v\right\rangle =0$.
Comme $ v$ est quelconque, ceci prouve que $ \lambda .u_{1}+\mu.u_{2}\in A^{\perp}$ qui est donc un sous espace vectoriel. $ \qedsymbol$

Exemple :   Dans $ \mathbb{R}\left[ X\right] ,$ muni du nouveau produit scalaire (admis)$ \left\langle P,Q\right\rangle =\displaystyle\int_{-1}^{1}P\left( t\right) Q\left( t\right) dt,$ on va chercher l'orthogonal de l'ensemble $ \mathcal{P}$ des polynômes pairs, dont on admet qu'il constitue un sous-espace vectoriel.
Soit $ Q$ est un polynôme quelconque orthogonal à tous les polynômes pairs.
On considère $ Q_{\mathcal{P}}$ et $ Q_{\mathcal{I}}$ définis par$ Q_{\mathcal{P}}\left( t\right) =\dfrac{Q\left( t\right) +Q\left( -t\right) }{2}$ et $ Q_{\mathcal{I}}\left( t\right) =\dfrac{Q\left( t\right) -Q\left( -t\right) }{2}$ qui sont respectivement pairs et impairs. On a $ Q=Q_{\mathcal{P}}+Q_{\mathcal{I}}.$
Soit $ P$ un polynôme pair quelconque.$ \left\langle P,Q\right\rangle =0=\displaystyle\int_{-1}^{1}P\left( t\right) Q\... ...t=\displaystyle\int_{-1}^{1}P\left( t\right) Q_{\mathcal{P}}\left( t\right) dt$
En prenant $ P=Q_{\mathcal{P}},$ on obtient en utilisant encore le théorème des 3 conditions $ Q_{\mathcal{P}}=0$ et donc $ Q$ est impair.
Comme tout polynôme impair convient, l'othogonal de l'ensemble$ \mathcal{P}$ des polynômes pairs est l'ensemble des polynômes impairs.

Théorème :   $ \left( Vect\left( u_{1},u_{2},\ldots,u_{n}\right) \right) ^{\perp }=\left\{ u_{1},u_{2},\ldots,u_{n}\right\} ^{\perp}$

Preuve. Il est clair que $ \left( Vect\left( u_{1},u_{2},\ldots,u_{n}\right) \right) ^{\perp}\subset\left\{ u_{1},u_{2},\ldots,u_{n}\right\} ^{\perp}$
D'autre part, soit $ v\in\left\{ u_{1},u_{2},\ldots,u_{n}\right\} ^{\perp}, $$ \left\langle v,u_{1}\right\rangle =\left\langle v,u_{2}\right\rangle =\ldots=\left\langle v,u_{n}\right\rangle =0$
On a donc $ \left\langle v,\lambda_{1}.u_{1}+\lambda_{2}.u_{2}+\cdots +\lambda_{n}.u_{n}\right\rangle =0$ ou encore $ v\in\left( Vect\left( u_{1},u_{2},\ldots,u_{n}\right) \right) ^{\perp}$ $ \qedsymbol$

3.3 Famille orthogonale, orthonormale de vecteurs

Définition :   Une famille $ \left( u_{i}\right) _{i\in I}$ de vecteurs estorthogonale $ \Leftrightarrow$ deux vecteurs quelconques de cette famille, $ u_{i},u_{j}$, pour $ i\neq j$ sont orthogonaux.

Définition :   Une famille $ \left( u_{i}\right) _{i\in I}$ de vecteurs estorthonormale $ \Leftrightarrow$\begin{displaymath}\left\{ \begin{array}[c]{l} \text{deux vecteurs quelconques... ... \left\Vert u_{i}\right\Vert =1\right) . \end{array} \right. \end{displaymath}

Remarque :   On passe d'une famille orthogonale de vecteurs non nuls à une famille orthonormale en normant chaque vecteur.

Théorème :   Tout famille orthonormale ou toute famille orthogonale de vecteurs non nuls est libre.

Preuve. Soit $ \lambda_{1}.u_{1}+\lambda_{2}.u_{2}+\cdots+\lambda_{n}.u_{n}=0$, on fait le produit scalaire par $ u_{n}$, tous les $ \left\langle u_{i},u_{n} \right\rangle $ sont nuls sauf $ \left\langle u_{n},u_{n}\right\rangle $ d'où $ \lambda_{n}=0$. Par récurrence immédiate, tous les$ \lambda_{i}$ sont nuls, la famille est libre. $ \qedsymbol$

3.4 Théorème et procédé de Schmidt

Théorème :   Soit $ \left( e_{1}, e_{2},\ldots, e_{n}\right) $ une famille libre de vecteurs de $ E$ préhilbertien, alors, il existe une famille $ \left( \varepsilon _{1}, \varepsilon_{2},\ldots, \varepsilon_{n}\right) $ orthonormale de vecteur telle que

$\displaystyle Vect\left( e_{1}, e_{2},\ldots, e_{n}\right) =Vect\left( \varepsilon _{1}, \varepsilon_{2},\ldots, \varepsilon_{n}\right) $

Preuve. Il suffit de fabriquer une famille orthonormale $ \left( \varepsilon _{1}, \varepsilon_{2},\ldots, \varepsilon_{n}\right) $, la dimension de$ Vect\left( e_{1}, e_{2},\ldots, e_{n}\right) $ étant $ n$, les$ \varepsilon_{i}$ sont non nuls.
La démonstration repose sur le fait qu'on ne change pas l'espace vectoriel engendré par une famille

La démonstration se fait par récuurence sur $ n$. Pour $ n=1$, $ \varepsilon_{1}=\dfrac{e_{1}}{\left\Vert e_{1}\right\Vert }$ convient.
On l'admet au rang $ n$, on le montre au rang $ n+1$.

$\displaystyle Vect\left( e_{1}, e_{2},\ldots, e_{n}, e_{n+1}\right)$

$\displaystyle =Vect\left( \varepsilon_{1}, \varepsilon_{2},\ldots, \varepsilon_{n}, e_{1}, e_{2} ,\ldots, e_{n}, e_{n+1}\right)$

   

 

$\displaystyle =Vect\left( \varepsilon_{1}, \varepsilon_{2},\ldots, \varepsilon_{n} , e_{n+1}\right)$

   


Soit $ \varepsilon_{n+1}^{\ast}=e_{n+1}+\lambda_{1}.\varepsilon_{1}+\lambda _{2}.\varepsilon_{2}+\cdots+\lambda_{n}.\varepsilon_{n}$ avec $ \lambda _{i}=-\dfrac{\left\langle e_{n+1},\varepsilon_{i}\right\rangle }{\left\langle \varepsilon_{i},\varepsilon_{i}\right\rangle }$, alors $ \left\langle \varepsilon_{n+1}^{\ast},\varepsilon_{i}\right\rangle =0$ pour $ 1\leqslant i\leqslant n$.
On pose $ \varepsilon_{n+1}=\dfrac{\varepsilon_{n+1}^{\ast}}{\left\Vert \varepsilon_{n+1}^{\ast}\right\Vert }$ avec toujours les mêmes orthogonalités.
Et donc

$\displaystyle Vect\left( \varepsilon_{1}, \varepsilon_{2},\ldots, \varepsilon_{n} , e_{n+1}\right)$

$\displaystyle =Vect\left( \varepsilon_{1}, \varepsilon_{2} ,\ldots, \varepsilon_{n}, e_{n+1}, \varepsilon_{n+1}\right)$

   

 

$\displaystyle =Vect\left( \varepsilon_{1}, \varepsilon_{2},\ldots, \varepsilon _{n}, \varepsilon_{n+1}\right)$

   


La famille $ \left( \varepsilon_{1}, \varepsilon_{2},\ldots, \varepsilon _{n}, \varepsilon_{n+1}\right) $ est bien orthonormale. $ \qedsymbol$

Corollaire :   Tout espace vectoriel euclidien, ou tout sous espace vectoriel de dimension finie d'un espace préhilbertien possède au moins une base orthonormale.

Preuve. On applique le théorème de Schmidt à une base quelconque. $ \qedsymbol$

En pratique, la démonstration du théorème nous guide vers le procédé de Schmidt :

Exemple :   Dans $ E=\mathbb{R}_{2}\left[ X\right] ,$ muni du nouveau produit scalaire (admis) $ \left\langle P,Q\right\rangle =\displaystyle\int_{-1}^{1}P\left( t\right) Q\left( t\right) dt,$ on va chercher une base orthonormale.
On part de la base $ \left( 1, X, X^{2}\right) $
On a $ \varepsilon_{1}^{\ast}=1$ puis $ \varepsilon_{1}=\dfrac{1}{\sqrt{2}}$ le premier vecteur normé, ceci par un calcul simple.$ \varepsilon_{2}^{\ast}=X+\lambda\varepsilon_{1},$ on écrit $ \left\langle \varepsilon_{2}^{\ast},\varepsilon_{1}\right\rangle =0=\left\langle X,\varepsilon_{1}\right\rangle +\lambda=\lambda,$ et on obtient $ \varepsilon _{2}=X\sqrt{\dfrac{3}{2}},$ encore par un calcul simple.$ \varepsilon_{3}^{\ast}=X^{2}+\lambda\varepsilon_{2}+\mu\varepsilon_{1},$ on écrit $ \left\langle \varepsilon_{3}^{\ast},\varepsilon_{1}\right\rangle =0=\left\langle X^{2},\varepsilon_{1}\right\rangle +\mu$ d'où $ \mu =-\dfrac{\sqrt{2}}{3}$ et $ \left\langle \varepsilon_{3}^{\ast},\varepsilon _{2}\right\rangle =0=\left\langle X^{2},\varepsilon_{2}\right\rangle +\lambda=\lambda$
D'où $ \varepsilon_{3}^{\ast}=X^{2}-\dfrac{1}{3}$ qu'il suffit de normer pour obtenir $ \varepsilon_{3}=\dfrac{X^{2}-\dfrac{1}{3}}{\dfrac{2}{15} \sqrt{10}}=\dfrac{\left( 3X^{2}-1\right) \sqrt{5}}{2\sqrt{2}}$
On voit que le calcul devient vite complexe...

3.5 Projection orthogonale sur un sous espace de dimension finie

Théorème :   $ E$ un espace vectoriel préhilbertien, $ F$ un sous espace vectoriel de dimension finie muni d'une base orthonormale $ \left( e_{1},e_{2},\ldots,e_{n}\right) $.
Alors

$\displaystyle p:u\rightarrow p\left( u\right) =\left\langle u,e_{1}\right\rangle .e_{1}+\cdots+\left\langle u,e_{n}\right\rangle .e_{n} $

définit un projecteur.
Et comme $ \left( u-p\left( u\right) \right) \in F^{\perp}$, on dit que $ p$ est la projection orthogonale sur $ F$.

La figure ci-dessous illustre ce théorème.

\includegraphics[

Preuve. Pour montrer que $ \left( u-p\left( u\right) \right) \in F^{\perp}$, il suffit de montrer qu'il est orthogonal à chaque $ e_{i}$.

$\displaystyle \left\langle u-p\left( u\right) ,e_{i}\right\rangle$

$\displaystyle =\left\langle u,e_{i}\right\rangle -\left\langle \left\langle u,... ...ngle .e_{1}+\cdots+\left\langle u,e_{n}\right\rangle .e_{n},e_{i}\right\rangle$

   

 

$\displaystyle =\left\langle u,e_{i}\right\rangle -\left\langle \left\langle u,e_{i}\right\rangle .e_{i},e_{i}\right\rangle$

   


car tous les autres termes sont nuls. D'où

$\displaystyle \left\langle u-p\left( u\right) ,e_{i}\right\rangle =\left\langle... ... -\left\langle u,e_{i}\right\rangle \left\langle e_{i},e_{i}\right\rangle =0 $

$ p$ est clairement linéaire par linéarité du produit scalaire par rapport à la première variable.
Il reste à montrer que $ p$ est un projecteur, c'est à dire $ p\circ p=p$.

$\displaystyle p\circ p\left( u\right)$

$\displaystyle =p\left( p\left( u\right) \right)$

   

 

$\displaystyle =p\left( \left\langle u,e_{1}\right\rangle .e_{1}+\cdots+\left\langle u,e_{n}\right\rangle .e_{n}\right)$

   

 

$\displaystyle =\left\langle u,e_{1}\right\rangle .p\left( e_{1}\right) +\cdots +\left\langle u,e_{n}\right\rangle .p\left( e_{n}\right)$

   

 

$\displaystyle =\left\langle u,e_{1}\right\rangle .e_{1}+\cdots+\left\langle u,e_{n}\right\rangle .e_{n}$

   


car $ p\left( e_{i}\right) =\left\langle e_{i},e_{i}\right\rangle .e_{i}=e_{i}$. D'où

$\displaystyle p\circ p\left( u\right) =p\left( u\right) $

et enfin

$\displaystyle p\circ p=p $

Lorsque $ E$ est de dimension finie, on montre facilement que $ E=F\oplus F^{\perp}$ et $ p$ est la projection sur $ F$ parallèlement à $ F^{\perp }$, on appelle souvent $ q$ la projection sur $ F^{\perp }$ parallèlement à $ F$, on a alors $ Id=p+q$. $ \qedsymbol$

En pratique, comme il faut une base orthonormale du sous espace sur lequel on projette, on cherchera $ p$ si $ \dim F\leqslant\dim F^{\perp}$, et $ q$ sinon.
On projette sur le plus petit...

Exemple :   Dans $ E=\mathbb{R}^{3}$ muni du produit scalaire usuel, on cherche $ p$ la projection orthogonale sur le plan $ P$ d'équation $ x+y-z=0$\begin{displaymath}P^{\bot}=Vect\left( \left( \begin{array}[c]{c} 1\\ 1\\ -1 \end{array} \right) \right) \end{displaymath} de base orthonormale \begin{displaymath}\left( \begin{array}[c]{c} 1/\sqrt{3}\\ 1/\sqrt{3}\\ -1/\sqrt{3} \end{array} \right) \end{displaymath}
Avec \begin{displaymath}u=\left( \begin{array}[c]{c} x\\ y\\ z \end{array} \right) ,\end{displaymath} on a \begin{displaymath}q\left( u\right) =\left\langle u,\left( \begin{array}[c]{c}... ...ft( \begin{array}[c]{c} 1\\ 1\\ -1 \end{array} \right) \end{displaymath}
D'où \begin{displaymath}p\left( u\right) =u-q\left( u\right) =\left( \begin{array}[c... ...ay}[c]{c} 2x-y+z\\ -x+2y+z\\ x+y+2z \end{array} \right) \end{displaymath}
La matrice de cette projection dans la base canonique est donc :\begin{displaymath}\dfrac{1}{3} \left( \begin{array}[c]{rrr} 2 & -1 & 1\\ -1 & 2 & 1\\ 1 & 1 & 2 \end{array} \right) \end{displaymath}



© Christophe Caignaert - Lycée Colbert - Tourcoing