On conserve dans cette partie les définitions et notations de la question 10. Dans les questions 12, 13 et 14, on note $p$ un entier supérieur ou égal à 2. Les questions 13 et 14 sont indépendantes des questions 11 et 12.
On note ${\cal C}^0$ l'espace vectoriel des fonctions continues sur $[0,1]$ à valeurs dans $\mathbb R$.
11. Exemple : p=1. Soit $(a,b)$ un couple de réels.
a) Soit $u\in{\cal C}^0$. On cherche une fonction $f$ définie et dérivéble sur $[0,1]$ de dérivée $f'$, vérifiant $f(0)=0$ et telle que pour tout $t\in[0,1],\ f'(t)=af(t)+bu(t)$. Calculer la dérivée de la fonction $h:t\mapsto h(t)=f(t)e^{-at}$, et en déduire que $f$ est donnée par : $$\forall t\in[0,1],\ f(t)=b\int_0^tu(x)e^{a(t-x)}dx.\ (\star\star)$$
En utilisant la relation donnée on a que $$h'(t)=bu(t)$$ de sorte que $$h(t)-h(0)=\int_0^tbu(x)dx.$$ Puis en utilisant le fait que $f(0)=0$ et en remplaçant $h$ par sa définition, on trouve la relation recherchée.
b) On dit que le couple $(a,b)$ est contrôlable, si pour tout réel $y$ (appelé cible), il existe une fonction $u\in{\cal C}^0$ (appelée contrôle) telle que toute fonction $f$ définie et dérivable sur $[0,1]$ vérifiant $f(0)=0$ et $f'(t)=af(t)+bu(t)$ pour tout $t\in[0,1]$, atteint sa cible en 1, c'est à dire vérifie $f(1)=y$. Donner l'expression de la fonction $f$ définie par $(\star\star)$ lorsque la fonction $u$ est constante sur $[0,1]$. En déduire que le couple $(a,b)$ est contrôlable si et seulement si $b\neq 0$.
Posons $u=c$. Si $a=0$, on trouve $f(t)=bct$. Si $a\neq 0$ on trouve $f(t)=-\frac{bc}{a}\left(1-e^{at}\right)$.
Supposons maintenant $b\neq 0$. Si $a=0$, on pose $u=c=\frac{y}{b}$ et on prouve ainsi que $(a,b)$ est contrôlable. Si $a\neq 0$, on pose $u=-\frac{a}{b}(1-e^a)y$ et on prouve ainsi que $(a,b)$ est contrôlable.
Pour finir, si $b=0$, on doit avoir $f'(t)=af(t)$ et la encore on fait deux cas. Soit $a=0$ alors $f$ est constante, mais comme $f(0)=0$, $f$ est la fonction nulle. Par conséquent pour tout $y$ non nul, aucun choix de $u$ ne donnera $f(1)=y$. $(a,b)$ n'est donc pas contrôlable. Si $a\neq 0$, comme $f'=af$ et $f(0)=0$, là encore $f$ doit être la fonction nulle et là encore $(a,b)$ n'est pas contrôlable.
12. Pour tout $x\in[0,1]$, on pose : $W(x)=T_A(1-x)B\in{\cal M}_{p,1}(\mathbb R)$ et $W(x)=(W_k(x))_{1\leq k\leq p}$, où pour tout $k\in[\![1,p]\!]$, $W_k(x)$ est le coefficient de la k-ième ligne de $W(x)$.
On admet que pour tout $k\in[\![1,p]\!]$, la fonction $x\mapsto W_k(x)$ appartient à ${\cal C}^0$ la matrice colonne $\int_0^1u(x)W(x)dx$ de ${\cal M}_{p,1}(\mathbb R)$ par : $$\int_0^1u(x)W(x)dx=\left(\int_0^1u(x)W_k(x)dx\right)_{1\leq k\leq p}$$ Par analogie à la question 11.b, on dit que le couple $(A,B)$ est contrôlable, si pour toutes matrice colonne $Y\in{\cal M}_{p,1}(\mathbb R)$ (cible), il existe une fonction $u\in{\cal C}^0$ (contrôle) vérifiant l'égalité : $\int_0^1u(x)W(x)dx=Y$.
a) Soit $u\in{\cal C}^0$. Justifier que pour tout $x\in[0,1]$, $u(x)W(x)$ appartient à ${\cal G}_p$. En déduire que $\int_0^1u(x)W(x)dx$ appartient à ${\cal G}_p$.
$u(x)W(x)$ appartient à ${\cal G}_p$ est une conséquence immédiate de 10.d).
Pour montrer que $\int_0^1u(x)W(x)dx$ appartient à ${\cal G}_p$, on utilise le théorème de Riemann qui nous permet d'affirmer que $$\int_0^1u(x)W(x)dx\lim_{n\to+\infty}n\sum_{k=0}^{n-1}u\left(\frac{1}{n}\right)W\left(\frac{1}{n}\right).$$ ${\cal G}_p$ étant un espace vectoriel la somme ci dessus appartient à ${\cal G}_p$, d'autre part d'après 10.c), la limite de la somme ci dessus appartient également à ${\cal G}_p$. D'où le résultat.
b) Soit $Z$ un élément non nul de ${\cal M}_{p,1}(\mathbb R)$ tel que pour toute fonction $u\in {\cal C}^0$, on ait : $\int_0^1u(x)^t\!ZW(x)dx=0$. Montrer que pour tout $x\in[0,1]$, on a : $^t\!ZW(x)=0$.
Il suffit de poser $u(x)=\!^tZW(x)$, de justifier la continuité d'un $u$ puis d'exploiter le théorème classique qui affirme que si $f$ est continue, positive sur $[a,b]$ et que $\int_a^bf(t)dt=0$ alors $f$ est nulle sur $[a,b]$.
c) En déduire, à l'aide de la relation $(\star)$ (question 4.b), que pour tout $k\in[\![1,p]\!]$, on a : $^t\!ZA^{k-1}B=0$.
On observe déjà que $$0=\!^tZW(1)=\!^tZB$$ donc la relation cherchée est valide pour $k=1$.
D'autre part la relation $\!^tZW(x)=0$ s'écrit aussi $\!^tZT_A(1-x)B$ de sorte que pour $r>1$, on peut poser $1-x=\frac{1}{r}$ et donc $\!^tZT_A\left(\frac{1}{r}\right)B$. En injectant cela dans la relation ($\star$), on en déduit que $$\lim_{r\to+\infty}-r^{n+1}\sum_{k=0}^n\frac{1}{k!r^k}\!^tZA^kB=\frac{1}{(n+1)!}\!^tZA^{n+1}B.$$ Si on pose $n=0$, en utilisant le fait que $\!^tZB=0$, la relation ci dessus nous donne que $$0=\!^tZAB$$ Nous avons donc prouvé que $0=\!^tZB=\!^tZAB$. Si on pose maintenant $n=1$, toujours avec la même relation et ce qu'on vient de démontrer on trouve $$0=\frac{1}{2}\!^tZA^2B.$$ Et on continue ainsi de suite par récurrence forte!
d) Déduire des résultats précédents que le couple $(A,B)$ est contrôlable si et seulement si la matrice de Kalman $K_p$ est inversible.
Si $(A,B)$ est contrôlable $\int_0^1u(x)W(x)dx$ peut atteindre toutes les valeurs possibles de ${\cal M}_{p,1}$. Mais d'après 12.a) $\int_0^1u(x)W(x)dx$ est dans ${\cal G}_p\subset{\cal M}_{p,1}$, par conséquent on doit avoir ${\cal G}_p={\cal M}_{p,1}$. Or $K_p$ est une matrice carré et $Im(K_p)={\cal G}_p={\cal M}_{p,1}$ ce qui implique que $K_p$ est inversible.
Supposons maintenant que $(A,B)$ n'est pas contrôlable. On montre facilement que l'ensemble des cibles est un espace vectoriel (le prouver!), donc si $(A,B)$ n'est pas contrôlable, cet espace est différent de ${\cal M}_{p,1}$ et admet un orthogonal non nul. Prenons alors $Z$ non nul dans cet orthogonal, on a alors que pour toute fonction continue $u$, $\int_0^1u(x)\!^tZW(x)dx=0$. D'après c) ceci implique que $\forall k\in[\![1,p]\!], \!^tZA^{k-1}B=0$ c'est à dire que $Z$ est orthogonal à ${\cal G}_p$ c'est à dire orthogonal à $Im(K_p)$. Il suit que $Im(K_p)\neq {\cal M}_{p,1}$ et donc $K_p$ n'est pas bijective.
dans les questions 13 et 14, on suppose que $K_p$ est inversible et on cherche à optimiser le contrôle $s$ d'un sustème linéaire discret en minimisant une fonction de coût quadratique $J$.
13. Soit $q$ un entier vérifiant $q\geq p$. Pour tout $q$-uplet $s=(s_1,\dots,s_q)$ de $\mathbb R^q$, appelé contrôle discret, on définit la suite finie $(X_{s,k})_{0\leq k\leq q}$ de ${\cal M}_{p,1}(\mathbb R)$ par : $$\begin{cases} X_{s,0}=0\\ \forall k\in[\![1,q]\!],\ X_{s,k}=AX_{s,k-1}+s_kB \end{cases}$$
a) Calculer $X_{s,q}$ et trouver une matrice colonne $C_s\in{\cal M}_{p,1}(\mathbb R)$ telle que : $X_{s,q}=K_qC_s$.
En itérant terme à terme, on trouve $$X_{s,k}=\sum_{i=1}^ks_{k+1-i}A^{i-1}B,$$ ce qui se traduit matriciellement par $$X_{s,q}=K_q\begin{pmatrix}s_q\\ s_{q-1}\\ \vdots\\ s_1\end{pmatrix},$$ autrement dit $C_s=\begin{pmatrix}s_q\\ s_{q-1}\\ \vdots\\ s_1\end{pmatrix}$.
b) Etablir pour toute matrice colonne $Y\in{\cal M}_{p,1}(\mathbb R)$ (cible) l'existence d'un contrôle discret $s$ tel que $X_{s,q}=Y$.
Par hypothèse $K_p$ est inversible, par conséquent puisque $q\geq p$, les colones de $K_q$ contiennent les colonnes de $K_p$ et donc $Im(K_p)=Im(K_q)={\cal M_{p,1}}$ (se rappeler que Im est engendré par les colonnes!). Par conséquent pour tout $Y\in {\cal M_{p,1}}$, il existe $C_s\in {\cal M_{p,1}}$ tel que $Y=K_qC_s$ c'est à dire $Y=X_{s,q}$.
14. On cherche ici à déterminer un contrôle discret optimal permettant d'atteindre une cible $Y\in{\cal M}_{p,1}(\mathbb R)$. Soit $J$ la fonction de $\mathbb R^q$ dans $\mathbb R$ définie par : $J(s)=\sum_{k=1}^qs_k^2$.
a) On admet sans démonstrationque la matrice $K_q^t\!K_q$ est inversible. Montrer que le problème de minimisation de $J$ sous la contrainte $X_{s,q}=Y$ admet un unique point critique $s^*$ donné par : $C_{s^*}=^t\!K_q(K_q^t\!K_q)^{-1}Y$.
On remarque que minimiser la fonction $J$ est équivalent à minimiser la fonction $H(s_1,\dots,s_q)=J(s_q,\dots,s_1)$, par conséquent une condition de minimisation sur $\begin{pmatrix}s_1\\ \vdots\\ s_q\end{pmatrix}$ conduit à une condition sur $C_s$. On a que $$\nabla J(s)=2\begin{pmatrix}s_1\\ \vdots\\ s_q\end{pmatrix}.$$ Comme $\nabla J(s^*)$ doit appartenir à l'orthogonal de l'espace engendré par les contraintes linéaires, on trouve que $$\nabla J(s^*)\in Im(\!^tK_q),$$ soit encore avec la remarque précédente $$C_{s^*}\in Im(\!^tK_q).$$ Il existe alors $X\in{\cal M}_{p,1}$ tel que $C_s=\!^tK_qX$. Il suit que $K_qC_{s^*}=K_q\!^tK_qX$, mais comme $K_q\!^tK_q$ est inversible on a aussi que $$X=(K_q\!^tK_q)^{-1}K_qC_{s^*}.$$ On en déduit que $$C_{s^*}=\!^tK_q(K_q\!^tK_q)^{-1}K_qC_{s^*}.$$ Enfin puisque $Y=K_qC_s$, on en déduit que $$C_{s^*}=\!^tK_q(K_q\!^tK_q)^{-1}Y,$$ qui est bien l'unique expression vérifiée par le point critique.
b) Montrer que $s^*$ réalise un minimum global de $J$ sous la contrainte $X_{s,q}=Y$.
Considérons un point $s$ vérifiant la contrainte $K_qC_s=Y$ et posons $H=C_s-C_{s^*}$. On a ceci $$\begin{cases}K_qC_s=Y\\ K_qC_{s^*}=Y\end{cases}\Longrightarrow K_qH=0.$$ D'autre part en observant que $J(s)=\!^tC_sC_s=\langle C_s,C_s\rangle$, on a que $$\begin{align} J(s)-J(s^*)&=\langle C_s,C_s\rangle-\langle C_{s^*},C_{s^*}\rangle \\ &=\langle C_{s^*}+H,C_{s^*}+H\rangle-\langle C_{s^*},C_{s^*}\rangle\\ &=2\langle C_{s^*},H\rangle+\Vert H\Vert^2. \end{align} $$ Mais comme $C_{s^*}=\!^tK_q(K_q\!^tK_q)^{-1}Y$ et que $K_qH=0$, on en déduit que $\langle H,C_{s^*}\rangle=\!^tY\!^t(K_q\!^tK_q)^{-1}K_qH=0$. Donc $$J(s)-J(s^*)=\Vert H\Vert^2\geq 0,$$ et $s^*$ réalise bien un minimum global sous la contrainte $X_{s,q}=Y$.
Pour afficher le fil des commentaires : Commentaires.
Pour poster un commentaire ou obtenir de l'aide : c'est ici!
L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :
Contacter l'auteur du site : frederic.millet @ math-sup.fr