Cours et vidéos

Cours en ligne Vidéos classées

Concours corrigés

HECS
HECE

Programme de concours

HECS

Chaîne Youtube


Pour me soutenir



Autour du site

Auteur du site.


PARTIE III-Pseudo inverse d'une matrice.


On reprend les notation de la partie II.

Parmi toutes les pseudos solutions de l'équation $AX=B$, on se propose de chercher s'il en existe, celle(s) dont la norme Euclidienne est minimale.

10) Montrer que l'équation possède une unique pseudo solution de norme minimale notée $S$ et qu'elle est caractérisée par les deux conditions : $^tAAS=^tAB$ et $S$ est orthogonale à $Ker\ ^tAA$.

Afficher

Remarque : Ce n'est pas rappelé mais il est supposé qu'une pseudo solution existe! D'après 6), une pseudo solution doit résoudre le système $^tAAX=^tAB$ dont l'ensemble des solutions est de la forme $\{X_p+X_0/X_0\in Ker\ ^tAA\}$ où $X_p$ est une solution particulière de $^tAAX=^tAB$. Chercher une solution de norme minimale revient donc à minimiser $\Vert X_p+X_0\Vert_n$ avec $X_0\in Ker\ AA$. Or $Ker\ ^tAA$ est un espace vectoriel donc $\Vert X_p+X_0\Vert_n$ admet un minimum qui est atteint en un unique point $Y=-p(X_p)$ où $p$ est la projection orthogonale sur $Ker\ AA$. Or $Y$ est caractérisé par le fait que $X_p-Y\bot Ker\ ^tAA$ et donc que $S=X_p-Y\in Ker\ ^tAA$.

11) Pour $B$ fixé et appatenant à ${\cal M}_{m,1}(\mathbb R)$, préciser $S$ dans les cas suivants :

(a) $A$ est de rang n.

Afficher

D'après I.2)(c) on a $n=rg(A)=rg(^tA)=dim(Im\ ^tAA)=rg(^tAA)$. Or d'après I.2)(a) $^tAA$ est une matrice carrée de taille $n$ donc est inversible. Il suit que $$^tAAS=^tAB\Longrightarrow S=(^tAA)^{-1}\ ^tAB$$

(b) $A$ est la matrice nulle.

Afficher

Puisque $^tA=0$, $^tAB=0$ et donc $0$ est une pseudo solution et est même la solution de norme minimale donc $S=0$.

12) Lorsque $B$ varie dans ${\cal M}_{m,1}(\mathbb R)$, montrer que l'application qui à $B$ associe son unique pseudo solution de norme minimale $S$ est une application linéaire de ${\cal M}_{m,1}(\mathbb R)$ dans ${\cal M}_{n,1}(\mathbb R)$.

Afficher

Soient $B_1,B_2\in{\cal M}_{m,1}(\mathbb R)$, $\lambda$ un réel et $S_1$ $S_2$ les pseudo solutions de norme minimales associées à $B_1$ et $B_2$. On observe déjà que comme $S_1$ et $S_2$ appartiennent (d'après 10)) à $(Ker\ ^tAA)^\bot$ qui est un espace vectoriel alors $S_1+\lambda S_2$ appartient également à $(Ker\ ^tAA)^\bot$. D'autre part par linéarité $$\begin{align} ^tAA(S_1+\lambda S_2)&=^tAAS_1+\lambda^tAAS_2\\ &=^tAB_1+\lambda^tAB_2\\ &=^tA(B_1+\lambda B_2) \end{align}$$ donc d'après 10) $S_1+\lambda S_2$ est la peuso solution associée à $B_1+\lambda S_2$. D'où la linéarité recherchée.

Relativement aux bases canoniques respectives de ${\cal M}_{m,1}(\mathbb R)$ et de ${\cal M}_{n,1}(\mathbb R)$, cette dernière application linéaire est représentée par sa matrice appartenant à ${\cal M}_{n,m}(\mathbb R)$. On convient de l'appeler, jusqu'à la fin de ce problème, pseudo inverse de la matrice $A$ et de la noter $A^+$.

13) On suppose que $A$ est non nulle et on revient à la matrice $^tAA$ dont la décomposition spectrale introduite à la question 3)b) est $\sum_{i=1}^p\lambda_iP_i$.

On désigne par $\Gamma(A)$ l'ensemble des indices $i$ compris entre 1 et $p$ pour lesquels on a $\lambda_i\neq 0$.

(a) Pourquoi a-t-on $\Gamma(A)\neq\emptyset$?

Afficher

$A$ étant supposée non nulle, d'après I.2)(b) (par exemple), $^tAA$ est également non nulle et dans ce cas l'une des valeurs propres est non nulle. Il suit donc que $\Gamma(A)\neq\emptyset$.

(b) Vérifier que $A^+=\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\ ^t\!A$.

Afficher

On va montrer que $A^+B$ vérifie les deux conditions de 10). Remarquons déja que $^tAA=\sum_{i\in\Gamma(A)}\lambda_iP_i$. On a alors que $$\begin{align} ^tAA(A^+B)&=^tAA\left(\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\right)\ ^t\!AB\\ &=\left(\sum_{j\in\Gamma(A)}\lambda_jP_j\right)\left(\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\right)\ ^t\!AB\\ &=\sum_{i\in\Gamma(A)}P_i\ ^t\!AB \end{align}$$ où la dernière ligne a été obtenue avec le fait que $P_iP_j=0$ si $i\neq j$. Maintenant $\sum_{i\in\Gamma(A)}P_i$ est en fait la projection sur $Im(^tAA)$, or $Im^tAA=Im ^tA$ donc $\sum_{i\in\Gamma(A)}P_i\ ^t\!A=^tA$ et $^tAA(A^+B)=^tAB$, c'est à dire la première condition de 10) est vérifiée.

Pour la seconde condition de 10), observons que si $X\in Ker ^tAA$, comme $Ker ^tAA=Ker A=E_0(A)$, on a $X\in E_0(A)$ et $P_iX=0$ pour tout $i\in \Gamma(A)$. De plus comme $P_i$ est une projection orthogonale, $^tP_i=P_i$. A l'aide de ces deux observation on en déduit que $$\begin{align} ^t(A^+B)X&=^tB^t\!A^+X\\ &=^tB\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}A^t\!P_iX\\ &=0 \end{align}$$ donc que $A^+B$ est othogonal à $Ker ^tAA$. CQFD

14) Reprendre l'exemple de la question 8) en calculant explicitement $A^+$; retrouver ainsi l'unique pseudo solution de norme minimale.

Afficher

Le calcul de $A^+$ donne $$A^+=\frac{1}{6}\begin{pmatrix}1/2 & -1/2 & 0\\ -1/2 & 1/2 & 0\\ 0 & 0 & 1\end{pmatrix}\begin{pmatrix}1 & 1 & -1\\ -1 & -1 & 1\\ 1 & 1 & 2\end{pmatrix}=\frac{1}{6}\begin{pmatrix}1 & 1 & -1\\ -1 & -1 & 1\\ 1 & 1 & 2\end{pmatrix}$$ donc $S=A^+B=\begin{pmatrix}1/2\\ -1/2\\ 1\end{pmatrix}$.

15) Lorsque $A$ appartient à ${\cal M}_{1,n}(\mathbb R)$, montrer que : $$A^+=\begin{cases}\frac{^tA}{A^tA}\text{ si }A\neq 0\\ 0\text{ sinon}\end{cases}$$

Afficher

Grâce à 4)(b), pour $A\neq 0$, on a $$A^+=\left(\frac{1}{A^tA}\frac{^tAA}{A^tA}\right)\ ^tA=\frac{^tA(A^tA)}{(A^tA)^2}=\frac{^tA}{A^tA}.$$


PARTIE IV-Etude de l'opérateur $A\mapsto A^+$.


16) Démontrer les relations suivantes : $$A=AA^+A,\ A^+=A^+AA^+,\ ^t(A^+A)=A^+A,\ ^t(AA^+)=AA^+$$

Afficher

Rappellons avant de commencer que si $AX=B$ admet une solution, toutes les pseudo-solutions sont solutions et vice-versa.

Soit $X$ un vecteur quelconque de ${\cal M}_{m,1}(\mathbb R)$. Pour la première équation, observons que si l'on pose $B=AX$, alors $X$ est une solution de cette équation donc les solutions et pseudo solutions coïncident. Il suit que $A^+B$ est solution, c'est à dire $AA^+B=B$. Enfin comme $B=AX$, on a $AA^+AX=AX$ pour tout $X$ donc $AA^+A=A$.

Pour la seconde égalité, en utilisant que $P_iP_j=0$ si $i\neq j$ $$\begin{align} A^+AA^+&=\left(\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\ \!^tA\right)A\left(\sum_{k\in\Gamma(A)}\frac{1}{\lambda_k}P_k\ \!^tA\right)\\ &=\left(\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\right) \!^tAA\left(\sum_{k\in\Gamma(A)}\frac{1}{\lambda_k}P_k\right)\!^tA\\ &=\left(\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\right) \left(\sum_{j\in\Gamma(A)}\lambda_jP_j\right)\left(\sum_{k\in\Gamma(A)}\frac{1}{\lambda_k}P_k\right)\!^tA\\ &=\left(\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\right) \left(\sum_{j\in\Gamma(A)}P_j\right)\!^tA\\ \end{align}$$ Or comme $\sum_{j\in\Gamma(A)}P_j$ est la projection sur $Im^tAA$ et que $Im^tAA=Im^tA$ on a $\sum_{j\in\Gamma(A)}P_j\ ^t\!A=^tA$, on a $$A^+AA^+=\left(\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\right)\ ^t\!A=A^+.$$

Pour la troisième égalité on a en utilisant que $P_iP_j=0$ si $i\neq j$ $$\begin{align} A^+A&=\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\ ^t\!AA\\ &=\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\sum_{j\in\Gamma(A)}\lambda_jP_j\\ &=\sum_{i\in\Gamma(A)}P_i. \end{align}$$ Or les $P_i$ sont symétriques donc $A^+A$ également.

Pour la dernière égalité on utilise encore la symétrie de $P_i$ $$\begin{align} ^t(AA^+)&=\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}\ ^t(AP_i\ ^t\!A)\\ &=\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}\ A\ ^t\!P_i\ ^t\!A\\ &=\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}\ A P_i\ ^t\!A\\ &=AA^+ \end{align}$$

17) Soit $M$ une matrice appartenant à ${\cal M}_{n,m}(\mathbb R)$ vérifiant : $$(\star)\ A=AMA,\ M=MAM,\ ^t(MA)=MA,\ ^t(AM)=AM$$

(a) Montrer que $M$ vérifie les relations suivantes : $$M=M\ ^t\!M\ ^t\!A=^tA\ ^t\!MM,\ A=A\ ^t\!A\ ^t\!M=^tM\ ^t\!AA,\ ^tA=^tAAM=MA\ ^t\!A$$

Afficher

Il faut combiner toutes les égalités de $(\star)$, par exemple pour la première égalité $$M\ ^t\!M\ ^t\!A=M\ ^t(AM)=MAM=M$$ les autres se font sur le même principe.

(b) En déduire que $M=A^+$ et qu'ainsi $A^+$ est l'unique matrice vérifiant les relations $(\star)$.

Afficher

Il faut montrer que si $M$ vérifie $(\star)$ alors $M$ vérifie les conditions de la question (10). Pour la première condition de (10), d'après la question précédente on sait que $^tAAM=^tA$ donc $^tAAMB=^tAB$. Reste à vérifier la seconde condition. Soit $X\in Ker ^tAA$, on a grâce à (a) que $$^tXMB=^tX\ ^t\!A\ ^t\!MMB$$ mais $Im^tA=Im^tAA$ donc il existe un $X_0$ tel que $^t\!A\ ^t\!MMB=^t\!AAX_0$ et donc $$^tXMB=^t\!AAX_0=^t(^tAAX)X_0=0$$ car $X\in Ker ^tAA$. Il suit que $MB$ est orthogonal à $Ker ^tAA$ et la seconde condition est vérifiée.

18) Etablir les formules suivantes :

(a) $(A^+)^+=A$.

Afficher

D'après 17)(b), $(A^+)^+$ est l'unique matrice vérifiant $$A^+=A^+(A^+)^+A^+,\ (A^+)^+=(A^+)^+A^+(A^+)^+,\ ^t((A^+)^+A^+)=(A^+)^+A^+,\ ^t(A^+(A^+)^+)=A^+(A^+)^+$$ Mais d'après 16) on sait que $$A=AA^+A,\ A^+=A^+AA^+,\ ^t(A^+A)=A^+A,\ ^t(AA^+)=AA^+$$ donc par unicité de la matrice vérifiant $(\star)$, on en déduit que $(A^+)^+=A$.

(b) $(^tA)^+=^t(A^+)$.

Afficher

On raisonne comme dans (a) en montrant que $(^tA)^+$ et $^t(A^+)$ vérifient la même relation $(\star)$.

19) Soit $x$ un réel strictement positif et $A\in{\cal M}_{m,n}(\mathbb R)$.

Montrer que : $A^+=\lim_{x\to 0^+}\left[(^tAA+xI_n)^{-1}\ ^tA\right]$. (On conviendra sous réserve d'existence, que la limite en un point d'une matrice est la matrice formée des limites en ce même point de ses coefficients). Utiliser ce procédé pour trouver la pseudo inverse de la matrice $A$ mise en oeuvre dans la question 8).

Afficher

On observe que $$^tAA+xI_n=\sum_{i=1}^p\lambda_iP_i+x\sum_{i=1}^pP_i=\sum_{i=1}^p(\lambda_i+x)P_i.$$ Pour $x>0$ suffisemment petit, on a clairement que $x+\lambda_i>0$ par conséquent pour $x$ assez petit $^tAA+xI_n$ est inversible d'inverse $$(^tAA+xI_n)^{-1}=\sum_{i=1}^p\frac{1}{\lambda_i+x}P_i.$$ D'autre part comme $Im^tA=Im^tAA$ on a aussi que $$(^tAA+xI_n)^{-1}^tA=\sum_{i=1}^p\frac{1}{\lambda_i+x}P_i\ ^t\!A=\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i+x}P_i\ ^t\!A.$$ En passant à la limite on a alors $$\lim_{x\to 0^+}(^tAA+xI_n)^{-1}^tA=\sum_{i\in\Gamma(A)}\frac{1}{\lambda_i}P_i\ ^t\!A=A^+.$$

Je laisse l'application au lecteur courageux!

20) Pour tout $\alpha$ réel différent de $0$ et $A\in{\cal M}_{m,n}(\mathbb R)$, exprimer $(\alpha A)^+$ en fonction de $\alpha$ et $A^+$. La matrice $(\alpha A)^+$ admet-elle une limite lorsque $\alpha$ tend vers $0$?

Afficher

Il suffit d'insérer $\alpha A$ dans la formule de la question précédente et on trouve $$(\alpha A)^+=\frac{1}{\alpha}A^+.$$ Maintenant clairement si $A$ est non nulle $(\alpha A)^+$ n'a pas de limite quand $\alpha$ tend vers $0$.

Pour afficher le fil des commentaires : Commentaires.


Pour poster un commentaire ou obtenir de l'aide : c'est ici!




Formulaire

L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :

Contacter l'auteur du site : frederic.millet @ math-sup.fr