Cours et vidéos

Cours en ligne Vidéos classées

Concours corrigés

HECS
HECE

Programme de concours

HECS

Chaîne Youtube


Pour me soutenir



Autour du site

Auteur du site.

Corrigé ESSEC 2012

Dans tout le problème, les lettres $m$ et $n$ désignent des entiers naturels supérieurs ou égaux à 1. Par ailleurs on note :

1) Qestion préliminaire.

Soit $F$ un sous-espace vectoriel de ${\cal M}_{n,1}(\mathbb R)$ de dimension $k$ non nulle et $(U_1,U_2,\dots,U_k)$ une base orthonormée de vecteurs colonnes de $F$.

On envisage la projection orthogonale sur $F$ représentée par sa matrice $P$ dans la base canonique de ${\cal M}_{n,1}(\mathbb R)$.

Montrer que $P=\sum_{i=1}^kU_i^tU_i$ et vérifier que $P$ est une matrice symétrique.

Afficher

On peut par exemple raisonner comme suit. Soit $X$ un vecteur de ${\cal M}_{n,1}(\mathbb R)$, il se décompose de façon unique en $X=X_F+X_\bot$ où $X_F\in F$ et $X_\bot$ est orthogonal à $F$. Comme les $U_i$ forment une base de $F$, on peut décomposer $X_F$ sur cette base de la façon suivante $X_F=\lambda_1U_1+\dots+\lambda_kU_k$. Maintenant en utilisant le fait que les $U_i$ sont orthonormés et que $X_\bot$ est orthogonal à chacun des $U_i$ on a $$\begin{align} PX&=\sum_{i=1}^kU_i^tU_iX_F+\sum_{i=1}^kU_i^tU_iX_\bot\\ &=\sum_{i=1}^kU_i^tU_i(\sum_{j=1}^k\lambda_jU_j)+0\\ &=\sum_{i=1}^k\lambda_iU_i(^tU_iU_i)\\ &=\sum_{i=1}^k\lambda_iU_i\\ &=X_F. \end{align}$$ Donc $P$ est bien la matrice de projection orthogonale sur $F$. D'autre part $P$ est symétrique car $$^tP=^t(\sum_{i=1}^kU_i^tU_i)=\sum_{i=1}^k\ ^t(U_i^tU_i)=\sum_{i=1}^k\ ^t(^tU_i)^tU_i=\sum_{i=1}^kU_i^tU_i=P.$$


PARTIE I. Décomposition spectrale de la matrice $^tAA$ associée à une matrice $A$ de ${\cal M}_{m,n}(\mathbb R)$.


On envisage dans toute cette partie une matrice $A$ appartenant à ${\cal M}_{m,n}(\mathbb R)$.

2) (a) Préciser la taille de la matrice $^tAA$ et vérifier que $KerA\subset Ker\ ^tAA$.

Afficher

$^tAA$ est de taille $n\times n$. D'autre part si $X\in Ker A$ alors $AX=0$ et donc $^tAAX=0$ et donc $X\in Ker ^tAA$ d'où l'inclusion.

(b) Montrer que si $X\in Ker\ ^tAA$ alors $\Vert AX\Vert_m=0$ et établir que $KerA=Ker\ ^tAA$.

Afficher

Pour $X\in Ker ^tAA$, on a $\Vert AX\Vert_m^2=^t(AX)AX=^tX^tAAX=0$ donc $\Vert AX\Vert_m=0$. D'autre part $\Vert AX\Vert_m=0$ implique $AX=0$ donc $X\in Ker A$. Par conséquent on a l'inclusion $Ker^tAA\subset Ker A$. Mais d'après 2)(a) l'inclusion dans l'autre sens est vraie donc $Ker\ ^tAA= Ker A$.

Montrer que $A$ et $^tAA$ sont nulles simultanément.

Afficher

Comme $Ker\ ^tAA= Ker A$, on a simplement $$A=0\Longleftrightarrow Ker A={\cal M}_{m,1}(\mathbb R)\Longleftrightarrow Ker\ ^tAA={\cal M}_{m,1}(\mathbb R)\Longleftrightarrow ^tAA=0$$

(c) Justifier l'égalité : $Im\ ^tA=Im\ ^tAA$.

Afficher

On a clairement que $Im\ ^tAA\subset Im\ ^tA$. D'autre part comme $Ker\ ^tAA= Ker A$ on a $dim(Ker\ ^tAA)= dim(Ker A)$, et en appliquant le théorème du rang on a $dim(Im\ ^tAA)=dim(Im\ ^tA)$ donc $Im\ ^tAA=Im\ ^tA$.

3) (a) Etablir que la matrice $^tAA$ est diagonalisable et en calculant $\Vert AX\Vert_m^2$ pour $X$ vecteur propre de la matrice $^tAA$, montrer que ses valeurs propres sont des réels positifs.

Afficher

$^t(^tAA)=^tAA$ donc $^tAA$ est symétrique et diagonalisable. De plus si $X$ est un vecteur propre de valeur propre $\lambda$ on a $$0\leq \Vert AX\Vert_m^2=^tX^tAAX=\lambda\ ^tXX=\lambda \Vert X\Vert_n.$$ Or $X$ est un vecteur propre donc il est non nul et $\Vert X\Vert_n>0$ donc $\lambda\geq 0$.

(b) On désigne par $(\lambda_1,\lambda_2,\dots,\lambda_p)$ la liste des valeurs propres distinctes de la matrice $^tAA$, classée dans l'ordre croissant.

On rappelle que ${\cal M}_{n,1}(\mathbb R)=\bigoplus_{i=1}^pE_{\lambda_i}(^tAA)$ où $E_{\lambda_i}(^tAA)=Ker(^tAA-\lambda_iI_n)$.

Pour $i$ entier naturel compris entre 1 et p, on note $P_i$ la matrice de la projection orthogonale sur $E_{\lambda_i}(^tAA)$ dans la base canonique de ${\cal M}_{n,1}(\mathbb R)$.

Vérifier que pour tout $i$ et $j$ distincts compris entre $1$ et $p$, $P_iP_j$ est la matrice nulle.

Afficher

$^tAA$ est symétrique donc ses sous-espaces propres sont orthogonaux par conséquent $Im P_j$ est orthogonal à $E_{\lambda_i}$ donc $P_iP_j=0$.

Justifier les relations : $I_n=\sum_{i=1}^pP_i$ et $^tAA=\sum_{i=1}^p\lambda_iP_i$. Cette dernière écriture s'appelle la décomposition spectrale de $^tAA$.

Afficher

Soit $X\in{\cal M}_{n,1}(\mathbb R)=\bigoplus_{i=1}^pE_{\lambda_i}(^tAA)$ alors $X$ se décompose de façon unique en $X=X_1+\dots+X_p$ où $X_i\in E_{\lambda_i}(^tAA)$. D'autre part par définition des projections $X_i=P_i(X)$ donc $X=P_1(X)+\dots+P_p(X)$. Ceci étant vrai pour tout $X$, on a donc $I_n=\sum_{i=1}^pP_i$. De même $$^tAAX=\sum_{i=1}^p\ ^tAAX_i=\sum_{i=1}^p\lambda_iX_i=\sum_{i=1}^p\lambda_iP_i(X)$$ ceci étant vrai pour tout $X$ on a aussi que $^tAA=\sum_{i=1}^p\lambda_iP_i$.

4) Exemples :

(a) Déterminer la décomposition spectrale de $^tAA$ lorsque $A$ est la matrice 3,3 égale à $\begin{pmatrix}1 & -1 & 1\\ 1 & -1 & 1\\ -1 & 1 & 2\end{pmatrix}$.

Afficher

On a déjà que $$^tAA=\begin{pmatrix}3 & -3 & 0\\ -3 & 3 & 0\\ 0 & 0 & 6\end{pmatrix}$$ matrice qui a deux valeurs propres : 0 et 6 avec $E_0=Vect\left(\frac{1}{\sqrt 2}\begin{pmatrix}1 \\ 1 \\ 0\end{pmatrix}\right)$ et $E_6=Vect\left(\frac{1}{\sqrt 2}\begin{pmatrix}1 \\ -1 \\ 0\end{pmatrix},\begin{pmatrix}0 \\ 0 \\ 1\end{pmatrix}\right)$ (remarque : les $\sqrt 2$ ont été ajouté pour normaliser les vecteurs). $6$ étant l'unique valeur propre, on en déduit que la décomposition spectrale est $$^tAA=\begin{pmatrix}1/2 & -1/2 & 0\\ -1/2 & 1/2 & 0\\ 0 & 0 & 1\end{pmatrix}$$

(b) On envisage la matrice ligne $A=(a_1,a_2,\dots,a_n)$ où les réels $a_1,a_2,\dots,a_n$ sont fixés, non tous nuls simultanément. Ainsi, $A^tA$ est un réel.

Montrer que le polynôme $X^2-(A^tA)X$ est annulateur pour la matrice $^tAA$. Préciser la liste des valeurs propres et la décomposition spectrale de la matrice $^tAA$.

Afficher

On a en utilisant le fait que $A^tA$ est un réél (donc "commute" avec les matrices) $$(^tAA)^2-(A^tA)^tAA=(^tAA)(^tAA)-(A^tA)^tAA=^tA(A^tA)A-(A^tA)^tAA=(A^tA)^tAA-(A^tA)^tAA=0$$ par conséquent $X^2-(A^tA)X$ est annulateur. D'autre part les valeurs propres de $^tAA$ sont racines du polynôme annulateur, c'est à dire soit 0 soit $A^tA$. $A^tA$ étant la seule valeur propre non nulle, la décomposition spectrale est tout simplement $$^tAA=A^tA\frac{^tAA}{A^tA}.$$


PARTIE II-Pseudo solution d'une équation linéaire.


On s'intéresse dans cette partie à l'équation $AX=B$ où $A\in{\cal M}_{m,n}(\mathbb R)$ et $B\in{\cal M}_{m,1}(\mathbb R)$.

Une matrice $X$ appartenant à ${\cal M}_{m,1}(\mathbb R)$ est dite solution de cette équation si elle vérifie la relation $AX=B$.

Elle est dite pseudo solution de cette équation si elle vérifie : $$\forall Z\in {\cal M}_{m,1}(\mathbb R)\ \Vert AX-B\Vert_m\leq\Vert AZ-B\Vert_m$$

5) On suppose que l'équation $AX=B$ admet au moins une solution. Montrer que $X$ est une pseudo solution si et seulement si elle est solution de l'équation.

Afficher

Si $X$ est solution alors $AX=B$ donc $\Vert AX-B\Vert_m=0$ et forcément par positivité de la norme pour tout $Z$, $\Vert AX-B\Vert_m=0\leq\Vert AX-B\Vert_m$. Alors $X$ est une pseudo solution. Si maintenant $X$ est une pseudo solution pour tout $Z$ $\Vert AX-B\Vert_m\leq\Vert AZ-B\Vert_m$. Or comme il est supposé que l'équation admet une solution on peut prendre pour $Z$ une solution de l'équation, et dans ce cas $0\leq\Vert AX-B\Vert_m\leq 0$, d'où $\Vert AX-B\Vert_m=0$, c'est à dire $AX=B$. Donc $X$ est en fait une solution.

6) On suppose que $X$ est une pseudo solution de l'équation. Montrer que, pour tout réel $\lambda$ et toute matrice $Y$ de ${\cal M}_{n,1}(\mathbb R)$, on a : $$\lambda^2\Vert AY\Vert_m^2+2\lambda\ ^tY\ ^tA(AX-B)\geq 0$$

Afficher

Comme $X$ est une pseudo solution, en posant $Z=X+\lambda Y$ on a l'inégalité suivante $$\Vert AX-B\Vert_m^2\leq\Vert A(X+\lambda Y)-B\Vert_m^2=\Vert AX-B+\lambda AY\Vert_m^2$$ En développant cette équation, on trouve alors $$\Vert AX-B\Vert_m^2\leq \Vert AX-B\Vert^2+\lambda^2\Vert Y\Vert_m^2+2\lambda\ ^t(AY)(AX-B)$$ puis en simplifiant, on trouve l'inéquation recherchée.

En déduire que $^tAAX=^tAB$.

Afficher

L'inégalité prouvée au dessus est un polynôme en $\lambda$. Le polynôme est positif donc son discriminant est négatif ou nul. En calculant le discriminant, on trouve $4\ ^tY\ ^tA(AX-B)\leq 0$. Cette inéquation est vraie pour tout $Y$, donc n'est possible que si $^tA(AX-B)=0$ c'est à dire $^tAAX=^tAB$.

8) Exemple : déterminer toutes les pseudos solutions de l'équation $AX=B$ lorsque : $$A=\begin{pmatrix}1 & -1 & 1\\ 1 & -1 & 1\\ -1 & 1 & 2\end{pmatrix}\text{ et }B=\begin{pmatrix}2\\ 2\\ 1\end{pmatrix}$$

Afficher

On doit résoudre le système linéaire $^tAAX=^tAB$ d'inconnue $X$. On doit alors ce souvenir qu'un tel système à pour solutions une solution particulière plus un élément quelconque du noyau de $^tAA$. Or d'après 4)(a) on a $$Ker^tAA=E_0=Vect\left(\begin{pmatrix}1\\ 1\\ 0\end{pmatrix}\right)$$ et $$^tAB=\begin{pmatrix}3\\ -3\\ 6\end{pmatrix}=6\begin{pmatrix}1/2\\ -1/2\\ 0\end{pmatrix}+6\begin{pmatrix}0\\ 0\\ 1\end{pmatrix}=^tAA\begin{pmatrix}1/2\\ -1/2\\ 0\end{pmatrix}+^tAA\begin{pmatrix}0\\ 0\\ 1\end{pmatrix}=^tAA\begin{pmatrix}1/2\\ -1/2\\ 1\end{pmatrix}$$ par conséquent une solution particulière du système est $\begin{pmatrix}1/2\\ -1/2\\ 1\end{pmatrix}$. On a donc que l'ensemble des pseudos solutions est $$\left\lbrace\begin{pmatrix}1/2\\ -1/2\\ 1\end{pmatrix}+\lambda\begin{pmatrix}1\\ 1\\ 0\end{pmatrix}/\lambda\in\mathbb R\right\rbrace.$$

Pour afficher le fil des commentaires : Commentaires.


Pour poster un commentaire ou obtenir de l'aide : c'est ici!




Formulaire

L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :

Contacter l'auteur du site : frederic.millet @ math-sup.fr