Cours et vidéos

Cours en ligne Vidéos classées

Concours corrigés

HECS
HECE

Programme de concours

HECS

Chaîne Youtube


Pour me soutenir



Autour du site

Auteur du site.

Corrigé HEC 2015

L'objet du problème est d'aborder quelques questions mathématiques relatives au comportement asymptotique de systèmes dynamiques discrets ou continues susceptibles de modéliser l'évolution temporelle de diverse phénomènes, en particulier économiques (croissance économique, prix d'équilibre, etc.).)
Les trois parties sont indépendantes.

Dans tout le problème :


Partie I : Deux exemples de pilotage linéaire.


Soit $A$ une matrice non nulle de ${\cal M}_p(\mathbb R)$ et $b$ un vecteur de $\mathbb R^p$. Soit $x_1,\dots,x_p$ $p$ fonctions dérivables sur $\mathbb R_+$. On dit qu'une application $x:t\mapsto x(t)=(x_1(t),\dots,x_p(t))$ définie sur $\mathbb R_+$ à valeurs dans $\mathbb R^p$, est pilotée par le couple $(A,b)$ si pour tout réel $t\geq 0$, les matrices colonnes $X(t)$ et $X'(t)$ de $x(t)$ et $x'(t)$ dans la base canonique de $\mathbb R^p$ vérifient le système : $\forall t\geq 0,X'(t)=AX(t)+B$.

On appelle équilibre du système piloté par le couple $(A,b)$, tout vecteur $x^*\in\mathbb R^p$ vérifiant : $AX^*+B=0$

On dit qu'un équilibre $x^*$ est attractif si pour toute application $x$ pilotée par $(A,b)$, on a : $\lim_{t\to+\infty}x(t)=x^*$.

1. Le cas $p=1$.

Soit $(a,b)\in\mathbb R^*\times\mathbb R$ et $x$ une fonction dérivable sur $\mathbb R_+$, à valeurs réelles, vérifiant : $\forall t\geq 0,x'(t)=ax(t)+b$.

a) Calculer la dérivée de la fonction $y:t\mapsto\left(x(t)+\frac{b}{a}\right)e^{-at}$.

Afficher

Référence programme : V-3.

$$\left(\left(x(t)+\frac{b}{a}\right)e^{-at}\right)'=x'(t)e^{-at}-a\left(x(t)+\frac{b}{a}\right)e^{-at}=(x'(t)-ax(t)-b)e^{-at}$$ et comme $x'(t)=ax(t)+b$, on en déduit : $$\left(\left(x(t)+\frac{b}{a}\right)e^{-at}\right)'=0.$$

b) En déduire que pour tout $t\geq 0$, on a : $x(t)=-\frac{b}{a}+\left(x(0)+\frac{b}{a}\right)e^{at}$.

Afficher

Référence programme : V-3.

D'après 1.b), il existe une constante $C\in\mathbb R$ telle que $$\left(x(t)+\frac{b}{a}\right)e^{-at}=C$$ et donc $$x(t)=Ce^{at}-\frac{b}{a}.$$ Il nous reste à déterminer la constante $C$ qui doit s'exprimer en fonction de $x(0)$ si on regarde la formule recherché. Posons $t=0$ dans la formule précédente, nous avons : $$x(0)=C-\frac{b}{a},$$ soit $C=x(0)+\frac{b}{a}$ et le résultat suit.

c) On identifie $a$ et la matrice de ${\cal M}_1(\mathbb R)$ dont l'unique coefficient est $a$. Montrer que le système piloté par le couple $(a,b)$ admet un unique équilibre, puis montrer que cet équilibre est attractif si et seulement si $a<\! 0$.

Afficher

Références programme : I-1; V-3.

Avant de commencer, on remarque que comme $A$ est identifié à $a$ en dimension 1, et que $A$ est supposée non nulle, alors forcément $a$ est non nul. On se gardera donc de traiter le cas $a=0$.

Equilibre : Un équilibre $x^*$ doit vérifier l'équation $x^*=ax^*+b$ soit $x^*=-\frac{b}{a}$. Il est donc unique (on en a pas trouvé d'autres!) et vaut $-\frac{b}{a}$.

Attractivité : D'après a) et b), on a $x(t)=-\frac{b}{a}+\left(x(0)+\frac{b}{a}\right)e^{at}$. Si $a<\!0$, on a $\lim_{t\to+\infty}x(t)=-\frac{b}{a}=x^*$, alors $x^*$ est attractif.

Si maintenant $a>0$, on observe que $\lim_{t\to+\infty}e^{at}=+\infty$. Si on suppose par l'absurde que $x^*$ est attractif alors toutes les solutions de $x'=ax+b$ doivent vérifier $\lim_{t\to+\infty}x(t)=-\frac{b}{a}=x^*$. Prenons alors une solution vérifiant $x(0)\neq -\frac{b}{a}$, on a alors $\lim_{t\to+\infty}x(t)=\lim_{t\to+\infty}-\frac{b}{a}+\left(x(0)+\frac{b}{a}\right)e^{at}=\pm\infty\neq x^*$, d'où la contradiction.

En conclusion on a bien que l'équilibre est attractif si et seulement si $a<\! 0$.

Remarque : Le raisonnement compliqué de la dernière partie est nécessaire car il faut évacuer le cas où $x(0)=-\frac{b}{a}$ qui donne une solution constante $x(t)=x^*$ donc sans limite infinie. Il faut donc jouer sur le fait que la stabilité lorsqu'elle a lieu doit s'appliquer à toutes les solutions de l'équation.

2. Exemple 1. Soit $A=\begin{pmatrix}-2 & 1\\ 1 & -2\end{pmatrix}$ et $b=(1,1)$. Soit $x:t\mapsto x(t)=(x_1(t),x_2(t))$ une application définie sur $\mathbb R_+$, à valeurs dans $\mathbb R^2$, pilotée par le couple $(A,b)$.

a) Déterminer l'unique équilibre $x^*$ du système piloté par le couple $(A,b)$.

Afficher

Références programme : II.1,3.

On doit résoudre $$AX^*+B=0,$$ c'est à dire $$\begin{pmatrix}-2 & 1\\ 1 & -2\end{pmatrix}\begin{pmatrix}x_1^*\\ x_2^*\end{pmatrix}+\begin{pmatrix}1\\ 1\end{pmatrix}=\begin{pmatrix}0\\ 0\end{pmatrix},$$ soit encore $$\begin{cases}-2x_1^*+x_2^*+1=0\\ x_1^*-2x_2^*+1=0\end{cases}$$ Système que vous résolvez avec votre méthode préférée pour obtenir $$\begin{cases}x_1^*=1\\ x_2^*=1\end{cases}$$ En conclusion l'unique équilibre est $x^*=\left(1,1\right)$.

b) Justifier l'existence d'une matrice inversible $Q$ telle que la matrice $Q^{-1}AQ$ soit diagonale. Pourquoi peut-on choir $Q$ de telle manière que $Q^{-1}=Q^T$?

Afficher

Référence programme : III.5.

$A$ est symétrique réelle donc diagonalisable et on peut trouver une matrice de passage qui soit orthogonale, c'est-à-dire vérifiant $Q^{-1}AQ$ diagonale et $Q^{-1}=Q^T$.

c) Trouver deux réels $\lambda$ et $\mu$ ($\lambda\leq\mu$) et une matrice inversible $Q$ vérifiant : $Q^{-1}=Q^T$ et $Q^{-1}AQ=\begin{pmatrix}\lambda & 0\\ 0 & \mu \end{pmatrix}$.

Afficher

Références programme : III.5

Une recherche aux valeurs propres suivi d'une orthonormalisation d'une base de vecteurs propres nous conduit à : $$Q=\frac{1}{\sqrt 2}\begin{pmatrix}1 & 1\\ -1 & 1\end{pmatrix}\text{ et }Q^{-1}AQ=\begin{pmatrix}-3 & 0\\ 0 & -1 \end{pmatrix}$$ autrement dit $\lambda=-3$ et $\mu=-1$.

d) Pour tout $t\geq 0$, on pose : $W(t)=Q^TX(t)$.

(i) Vérifier pour tout $t\geq 0$, l'égalité : $W'(t)=DW(t)+Q^TB$ où $D=\begin{pmatrix}\lambda & 0\\ 0 & \mu \end{pmatrix}$.

Afficher

Référence programme : III.5.

Comme $Q^T$ est à coefficients constants on a $$W'(t)=Q^TX'(t).$$ Mais $X'(t)=AX(t)+B$ donc $$W'(t)=Q^T\left(AX(t)+B\right)=Q^TAX(t)+Q^TB.$$ Or d'après 2.c) $Q^TAQ=D$ donc $Q^TA=DQ^{-1}=DQ^T$ (car $Q^{-1}=Q^T$). Il suit que $Q^TAX(t)=DQ^TX(t)=DW(t)$ et donc en remplçant dans l'équation ci-dessus, on a : $$W'(t)=DW(t)+Q^TB.$$

(ii) A l'aide des résultats de la question 1, en déduire que l'équilibre $x^*$ est attractif.

Afficher

Référence programme : esprit de synthèse...

Notre équation de la question (ii) s'écrit en fait en remplçant les matrices comme $$\begin{pmatrix}w'_1(t)\\ w'_2(t)\end{pmatrix}=\begin{pmatrix}-3 & 0\\ 0 & -1 \end{pmatrix}\begin{pmatrix}w_1(t)\\ w_2(t)\end{pmatrix}+\frac{1}{\sqrt 2}\begin{pmatrix}1 & -1\\ 1 & 1\end{pmatrix}\begin{pmatrix}1\\ 1\end{pmatrix},$$ ce qui revient au système : $$\begin{cases}w'_1(t)=-3w_1(t)\\w'_2(t)=-w'_2(t)+\frac{2}{\sqrt 2}\end{cases}$$ Ces deux équations sont du type de la question 1. avec pour la première $a=-3$ et $b=0$ et pour la seconde $a=-1$ et $b=\frac{2}{\sqrt 2}$. Dans les deux cas $a$ est strictement négatif, donc d'après la question 1.c) les systèmes sont attratifs et tendent vers le point d'équilibre $-\frac{b}{a}$, autrement dit $$\lim_{t\to+\infty}w_1(t)=0\text{ et }\lim_{t\to+\infty}w_2(t)=-\frac{\sqrt 2}{2}.$$ Il nous faut maintenant revenir à $X$. On sait que $W=Q^TX$ et que $Q^T=Q^{-1}$ donc $X=QW$. Il suit alors que $$\lim_{t\to+\infty}X(t)=Q\lim_{t\to+\infty}W(t)=Q\begin{pmatrix}0\\ -\frac{\sqrt 2}{2}\end{pmatrix},$$ et un petit calcul en reprenant l'expression de $Q$ obtenue en 2.c) nous donne $$\lim_{t\to+\infty}X(t)=\begin{pmatrix} 1\\ 1\end{pmatrix},$$ soit encore si on revient en écriture ligne $\lim_{t\to+\infty}x(t)=(1,1)=x^*$. Notre équilibre est donc bien attractif.

3. On suppose $p\geq 2$. Soit ${\cal B}_p=(e_1,\dots,e_p)$ la base canonique de $\mathbb C^p$ et $u_p$ l'unique endomorphisme de $\mathbb C^p$ tel que $u_p(e_1)=e_p$ et pour tout $k\in[\![2,p]\!],u(e_k)=e_{k-1}$.

a) Ecrire la matrice $A_p$ de l'endomorphisme $u_p$ dans la base ${\cal B}_p$. Quel est sont rang?

Afficher

Références programme : II.8,9

$$\begin{pmatrix}0 & 1 & 0 & \dots & 0\\ \vdots & \ddots & 1 & & 0\\ \vdots & & & \ddots & \vdots\\ 0 & & & \ddots & 1\\ 1 & 0 & \dots & \dots & 0\end{pmatrix}$$ Pour le rang, le plus simple est d'observer que l'endomorphisme $u_p$ tranforme une base en une base de $\mathbb C^p$ donc sont rang égale la dimension de l'espace, en d'autres termes $rg(u_p)=p$.

b) Soit $\epsilon\in\mathbb C$ une racine p-ième de l'unité et $C$ la matrice colonne de ${\cal M}_{p,1}(\mathbb C)$ de composantes $1,\epsilon,\dots,\epsilon^{p-1}$. Montrer que $C$ est un vecteur propre de $A_p$ et préciser la valeur propre complexe associée.

Afficher

Références programme : I-5,6; II-11.

On calcule $$A_pC=\begin{pmatrix}\epsilon\\ \epsilon^2\\ \vdots\\ \epsilon^{p-1}\\ 1\end{pmatrix}$$ mais en se souvenant que comme $\epsilon$ est racine n-ième de l'unité, on a que $1=\epsilon^p$ donc $$A_pC=\begin{pmatrix}\epsilon\\ \epsilon^2\\ \vdots\\ \epsilon^{p-1}\\ \epsilon^p\end{pmatrix}=\epsilon\begin{pmatrix}1\\ \epsilon\\ \vdots\\ \epsilon^{p-2}\\ \epsilon^{p-1}\end{pmatrix}=\epsilon C.$$ En conclusion $C$ est vecteur propre de $A_p$ de valeur propre $\epsilon$.

c) Montrer que l'endomorphisme $u_p$ est diagonalisable.

Afficher

Références programme : II-14.

Commentaire avant de corriger : Il s'agit d'une question difficile. Le concepteur du sujet attend à ce que l'étudiant exploite la question précédente pour rechercher les autres vecteurs propres. Mais si on ne dispose pas d'intuition, on ne sait pas démarrer. Si c'est votre cas, faites la question qui suit, elle vous donnera une piste pour envisager les valeurs propres à trouver et peut-être aussi les vecteurs propre!

Considérons le vecteur colonne $$C=\begin{pmatrix}\epsilon^2\\ \epsilon^4\\ \vdots\\ \epsilon^{2p-2}\\ \epsilon^{2p}\end{pmatrix}.$$ On calcule $A_pC$, on trouve $$A_pC=\begin{pmatrix}\epsilon^4\\ \epsilon^6\\ \vdots\\ \epsilon^{2p}\\ \epsilon^{2}\end{pmatrix}.$$ Maintenant grâce à la relation $\epsilon^p=1$, on observe que $\epsilon^2=\epsilon^2\epsilon^p$ et $$A_pC=\begin{pmatrix}\epsilon^2\epsilon^2\\ \epsilon^2\epsilon^4\\ \vdots\\ \epsilon^2\epsilon^{2(p-1)}\\ \epsilon^{2}\epsilon^p\end{pmatrix}=\epsilon^2\begin{pmatrix}\epsilon^2\\ \epsilon^4\\ \vdots\\ \epsilon^{2p-2}\\ \epsilon^{2p}\end{pmatrix}=\epsilon^2C.$$ On vient donc de montrer que $\epsilon^2$ est valeur propre. De la même manière en considérant le vecteur $$C=\begin{pmatrix}\epsilon^3\\ \epsilon^6\\ \vdots\\ \epsilon^{3p-3}\\ \epsilon^{3p}\end{pmatrix},$$ on peut montrer que $A_pC=\epsilon^3C$ et ainsi de suite (je vous laisse faire les détails d'une jolie démonstration!). On montre ainsi que $\epsilon,\epsilon^2,\dots,\epsilon^{p}(=1)$ sont des valeurs propres distinctes de $u_p$. $u_p$ est alors un endomorphisme d'un espace vectoriel de dimension $p$, ayant $p$ valeurs propres distinctes, il est donc diagonalisable.

d) Montrer que le polynôme $X^p-1$ de $\mathbb C[X]$ est un polynôme annulateur de $u_p$.
L'endomorphisme $u_p$ admet-il un polynôme annulateur non nul de degré strictement inférieur à $p$?

Afficher

Références programme : II-10,12.

On peut par exemple calculer les puissances successives de $A$ pour montrer que $A^p=I$, c'est à dire que $A^p-I=0$. Par conséquent $X^p-1$ est annulateur de $u_p$.

Poue répondre à la deuxième question, on a vu que les racines n-ièmes de l'unité sont les $p$ valeurs propres de $u_p$. Un polynôme annulateur doit avoir parmi ses racines ces valeurs propres, donc sont degré est au minimum de $p$. Il n'existe donc pas de polynôme annulateur de degré strictement inférieur à $p$.

e) Soit $P\in\mathbb C[X]$. L'endomorphisme $P(u_p)$ de $\mathbb C^p$ est-il diagonalisable? Quelles sont ses valeurs propres?

Afficher

Références programme : II-10,14.

On peut jouer sur la diagonalisabilité de la matrice $A_p$ en introduisant une matrice de passage ou jouer sur le fait qu'un endomorphisme est diagonalisable si et seulement si il existe une base constituée de vecteurs propres. Je préfère cette seconde approche, question de goût...

Posons $P=\sum_{k=0}^na_kX^k$, on a donc $P(u_p)=\sum_{k=0}^na_ku_p^k$. Comme $u_p$ est diagonalisable en dimension $p$ avec $p$ valeurs propres distinctes $\epsilon,\epsilon^2,\dots,\epsilon^p(=1)$ (donc chaque espace propre est de dimension 1), on peut trouver une base de vecteurs propres $x_1,\dots,x_p$ vérifiant $u_p(x_j)=\epsilon^jx_j$. On a alors : $$P(u_p)(x_j)=\sum_{k=0}^na_ku_p^k(x_j)=\sum_{k=0}^na_ku_p^k\epsilon^{kj}x_j=\left(\sum_{k=0}^na_ku_p^k\epsilon^{kj}\right)x_j=P(\epsilon^j)x_j.$$ Il suit que $x_1,\dots,x_p$ est aussi une base de vecteurs propres de $P(u_p)$, donc $P(u_p)$ est diagonalisable, et le calcul précédent nous dit que les valeurs propres sont $P(\epsilon),P(\epsilon^2),\dots,P(\epsilon^p)$.

4. Exemple 2. Soit $\alpha$ et $\beta$ deux réels tels que $\alpha>\beta$, $\beta>0$, $\alpha\neq\beta$, $\alpha+\beta\neq 1$ et $M=\begin{pmatrix}-1 & \alpha & \beta\\ \beta & -1 & \alpha \\ \alpha & \beta & -1\end{pmatrix}\in{\cal M}_3(\mathbb R)$.

a) On note $A$ la matrice $A_p$ de la question 3 dans le cas où $p=3$.

(i) Déterminer un polynôme $P$ à coefficients réels, de degré inférieur ou égale à 2, tel que $M=P(A)$.

Afficher

Référence programme : II-10.

En cassant $M$, on trouve $$M=-\begin{pmatrix}1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1\end{pmatrix}+\alpha\begin{pmatrix}0 & 1 & 0\\ 0 & 0 & 1\\ 1 & 0 & 0\end{pmatrix}+\beta\begin{pmatrix}0 & 0 & 1\\ 1 & 0 & 0\\ 0 & 1 & 0\end{pmatrix}=-I+\alpha A+\beta A^2.$$ Le polynôme que je trouve est donc $P=-1+\alpha X+\beta X^2$.

(ii) En déduire les valeurs propres complexes de $M$ ainsi que les parties réelles et imaginaires respectives.

Afficher

Référence programme : I-5.

D'après 3.e, les valeurs propres de $M$ sont $P(\epsilon),P(\epsilon^2),P(\epsilon^3)$. Comme nous sommes en dimension 3, $\epsilon=e^{2i\pi/3}$ avec $\epsilon^3=1$ donc : $$P(\epsilon)=-1+\alpha\epsilon+\beta\epsilon^2,$$ $$P(\epsilon^2)=-1+\alpha\epsilon^2+\beta\epsilon^4=-1+\alpha\epsilon^2+\beta\epsilon,$$ $$P(\epsilon^3)=P(1)=-1+\alpha+\beta.$$ Pour les parties réelles et imaginaires, on se souvient que $e^{i\theta}=\cos(\theta)+i\sin(\theta)$ et on trouve : $$Re(P(\epsilon))=-1+\alpha\cos(2\pi/3)+\beta\cos(4\pi/3)\text{ et }Im(P(\epsilon))=-1+\alpha\sin(2\pi/3)+\beta\sin(4\pi/3)$$ $$Re(P(\epsilon^2))=-1+\alpha\cos(4\pi/3)+\beta\cos(2\pi/3)\text{ et }Im(P(\epsilon))=-1+\alpha\sin(4\pi/3)+\beta\sin(2\pi/3)$$ $$Re(P(\epsilon^3))=-1+\alpha+\beta\text{ et }Re(P(\epsilon^3))=0.$$ Je vous laisse remplacer les valeurs des sinus et cosinus si ça vous amuse!

b) Soit $c=(1,1,1)\in\mathbb R^3$.

(i) Trouver l'unique équilibre $x^*$ du système piloté par le couple $(M,c)$.

Afficher

Référence programme : II-1,3.

On doit résoudre l'équation $MX^*=-\begin{pmatrix}1\\1\\1\end{pmatrix}$. On peut bien sûr poser le système et résoudre une chose désagréable, ou bien on peut tricher un peu en utilisant son imagination. Voici comment j'ai "triché" :

D'après 4.a), $M$ n'a pas de valeur propre nulle car $\alpha+\beta-1\neq 0$, donc son noyau n'est pas réduit à $0$ et donc $M$ est inversible. Par conséquent l'équation à résoudre admet une unique solution et on va la deviner. On observe que $$M\begin{pmatrix}1\\1\\1\end{pmatrix}=(\alpha+\beta-1)\begin{pmatrix}1\\1\\1\end{pmatrix},$$ ce qui n'est pas loin de ce que l'on cherche. Cherchons $X^*$ sous la forme $X^*=c\begin{pmatrix}1\\1\\1\end{pmatrix}$. En écrivant l'équation $MX^*=-\begin{pmatrix}1\\1\\1\end{pmatrix}$, on trouve que $c=\frac{1}{\alpha+\beta-1}$ (valeur qui ne pose pas de problème car $\alpha+\beta-1\neq 0$) et par conséquent $x^*=\frac{1}{\alpha+\beta-1}(1,1,1)$.

(ii) Vérifier que l'application $x:t\mapsto x(t)=x^*+e^{(\alpha+\beta-1)t}c$ est pilotée par le couple $(M,c)$.

Afficher

Références programme : V-3;II-1.

On a que $$X'(t)=(\alpha+\beta-1)e^{(\alpha+\beta-1)t}C,$$ Tandis que $$MX(t)+C=MX^*+e^{(\alpha+\beta-1)t}MC+C.$$ Mais comme par définition de $X^*$, on $MX^*+C=0$ alors $$MX(t)+C=e^{(\alpha+\beta-1)t}MC=(\alpha+\beta-1)e^{(\alpha+\beta-1)t}C.$$ Enfin en calculant, on trouve $MC=(\alpha+\beta-1)C$ donc : $$MX(t)+C=(\alpha+\beta-1)e^{(\alpha+\beta-1)t}C=X'(t).$$ L'application est donc bien pilotée par $(M,c)$.

(iii) En déduire une condition nécessaire portant sur $\alpha$ et $\beta$ pour que l'équilibre $x^*$ soit attractif.

Afficher

Références programme : V-1.

Si on pose $\alpha+\beta-1<\! 0$, on trouve $\lim_{t\to+\infty}x(t)=\lim_{t\to+\infty}x^*+e^{(\alpha+\beta-1)t}c=x^*$, c'est à dire que $x^*$ est attractif.

On suppose désormais que la condition précédente est réalisée.

c) On pose : $N=M^T+M$.

(i) Quelles sont les valeurs propres de la matrice $N$?

Afficher

Référence programme : esprit de synthèse.

On exploite les techniques des questions précédentes. On observe que $$N=\begin{pmatrix}-2 & \alpha+\beta & \alpha+\beta\\ \alpha+\beta & -2 & \alpha+\beta\\ \alpha+\beta & \alpha+\beta & -2\end{pmatrix}=-2I+(\alpha+\beta)A+(\alpha+\beta)A^2.$$ On a donc $N=P(A)$ avec $P=-2+(\alpha+\beta)X+(\alpha+\beta)X^2$ et d'après 3.e), $N$ a pour valeurs propres $P(\epsilon),P(\epsilon^2),P(\epsilon^3)=P(1)$, c'est à dire $$P(\epsilon)=-2+(\alpha+\beta)\epsilon+(\alpha+\beta)\epsilon^2=-2+(\alpha+\beta)(\epsilon+\epsilon^2)$$ $$P(\epsilon^2)=-2+(\alpha+\beta)\epsilon^2+(\alpha+\beta)\epsilon^4=-2+(\alpha+\beta)\epsilon^2+(\alpha+\beta)\epsilon=-2+(\alpha+\beta)(\epsilon+\epsilon^2)$$ $$P(\epsilon^3)=P(1)=2(\alpha+\beta-1)$$

(ii) Déterminer un réel $\theta>0$ tel que toutes les valeurs propres de $N$ soient inférieures ou égales à $-2\theta$.

Afficher

Référence programme : I-5.

On se souvient que $\epsilon=e^{2i\pi/3}$ donc par les formules d'Euler $$\epsilon+\epsilon^2=e^{2i\pi/3}+e^{4i\pi/3}=e^{2i\pi/3}+e^{-2i\pi/3}=2\cos(2\pi/3)=-1$$ par conséquent les valeurs propres de la question précédentes sont $-2-(\alpha+\beta)$ et $2(\alpha+\beta-1)$. On écrit alors $$-2-(\alpha+\beta)=-2\left(1+\frac{\alpha+\beta}{2}\right)$$ et pour la seconde valeur propre $$2(\alpha+\beta-1)=-2(1-\alpha-\beta).$$ Enfin en se souvenant que $\alpha>0$ et $\beta>0$ et que $\alpha+\beta-1<\! 0$, on observe alors que $1+\frac{\alpha+\beta}{2}>0$ et que $1-\alpha-\beta>0$. Il suffit alors de poser $$\theta=\min\left\lbrace 1+\frac{\alpha+\beta}{2}, 1-\alpha-\beta\right\rbrace.$$ pour que la condition soit remplie.

Remarque : Si on veut faire mieux, on peut montrer que le minimum est en fait $1-\alpha-\beta$. Pour le voir, résoudre $1-\alpha-\beta<\! 1+\frac{\alpha+\beta}{2}$ et vous verrez se qui se passe!

d) On rappelle que $c=(1,1,1)$. On considère une application $x$ pilotée par le couple $(M,c)$. On note $y$ l'application définie sur $\mathbb R_+$, à valeurs dans $\mathbb R^3$, telle que $y:t\mapsto x(t)-x^*$ et $\varphi$ la fonction définie sur $\mathbb R_+$, à valeurs réelles, telle que $\varphi:t\mapsto e^{2\theta t}\Vert Y(t)\Vert^2$, où $\Vert.\Vert$ est la norme euclidienne canonique de ${\cal M}_{3,1}(\mathbb R)$.

(i) Vérifier que l'application $y$ est pilotée par le couple $(M,0_{\mathbb R^3}).$

Afficher

Référence programme : V-3.

On a que $$Y'(t)=X'(t)=MX(t)+C$$ Mais comme $X=Y+X^*$, on a $$Y'(t)=M(Y(t)+X^*)+C=MY(t)+MX^*+C.$$ Enfin comme $X^*$ est un équilibre, on a $MX^*+C=0$ donc $$Y'(t)=MY(t),$$ donc $y$ est pilotée par le couple $(M,0_{\mathbb R^3}).$

(ii) Montrer que $\varphi$ est dérivable sur $\mathbb R_+$ et que : $\forall t\in\mathbb R_+,\varphi'(t)=e^{2\theta t}\times Y(t)^T(N+2\theta I_3)Y(t)$.

Afficher

Référence programme : III-2.

On peut traiter cette question en développant les deux côtés de l'égalité proposée. Je vous propose un autre cheminement, plus subtil, mais aussi plus joli! A vous de voir ce qui vous convient comme démarche.

On a $$\varphi(t)=e^{2\theta t}(y_1^2(t)+y_2^2(t)+y_3^2(t)),$$ et comme les $y_i$ sont dérivables, $\varphi$ l'est également. Pour le calcul de la dérivée, observons que $$\varphi'(t)=e^{2\theta t}\left(2\theta(y_1^2(t)+y_2^2(t)+y_3^2(t))+2(y'_1(t)y_1(t)+y'_2(t)y_2(t)+y'_3(t)y_3(t))\right).$$ On observe alors que $$y_1^2(t)+y_2^2(t)+y_3^2(t)=Y^T(t)Y(t).$$ et que $$2(y'_1(t)y_1(t)+y'_2(t)y_2(t)+y'_3(t)y_3(t))=Y'^T(t)Y(t)+Y^T(t)Y'(t).$$ Mais comme $Y'=MY$, on a : $$\begin{align} 2(y'_1(t)y_1(t)+y'_2(t)y_2(t)+y'_3(t)y_3(t))&=(MY(t))^TY(t)+Y^T(t)MY(t)\\ &=Y^T(t)M^TY(t)+Y^T(t)MY(t)\\ &=Y^T(t)\left(M^T+M\right)Y(t)\\ &=Y^T(t)NY(t). \end{align}$$ Donc en regroupant tout ça on tombe bien sur $\varphi'(t)=e^{2\theta t}\times Y(t)^T(N+2\theta I_3)Y(t)$.

(iii) Montrer que la fonction $\varphi$ est décroissante sur $\mathbb R_+$.

Afficher

Référence programme : III-5.

Pour montrer la décroissance de $\varphi$, on va montrer que sa dérivée est négative ce qui est équivalent à montrer que $Y(t)^T(N+2\theta I_3)Y(t)$ est négative. Cette dernière nous fait immédiatement penser à une forme quadratique, mais avant de parler de forme quadratique, il faut vérifier que $N+2\theta I_3$ est symétrique. Si on prend l'expression obtenue pour $N$ en 4.c)(i), on voit que $N$ est symétrique et par conséquent $N+2\theta I_3$ aussi. Donc pour montrer que $\varphi'$ est négative, il suffit de montrer que la forme quadratique de $N+2\theta I_3$ est négative. Or pour faire cela, il suffit de montrer que les valeurs propres de $N+2\theta I_3$ sont négatives. Nous savons que les valeurs propres de $N$ sont $-2+\alpha+\beta$ et $2(\alpha+\beta-1)$ (voir réponse à la question 4.c)(ii)) donc les valeurs propres de $N+2\theta I_3$ sont $-2+\alpha+\beta+2\theta$ et $2(\alpha+\beta-1)+2\theta$. Or les valeurs propres de $N$ étant strictement inférieures à $-2\theta$ ces deux valeurs propres sont donc strictement négatives et le résultat est prouvé.

(iv) En déduire que l'équilibre $x^*$ est attractif.

Afficher

Références programme : V-1;VI-0.

On peut jouer sur le fait qu'une fonction décroissante positive admet une limite, mais je préfère le raisonnement qui suit. Comme $\varphi$ est décroissante, pour $t\geq 0$ $$\begin{align} \varphi(t)\leq \varphi(0)&\Longrightarrow e^{2\theta t}\Vert Y(t)\Vert^2\leq \Vert Y(0)\Vert^2\\ &\Longrightarrow 0\leq \Vert Y(t)\Vert^2\leq e^{-2\theta t}\Vert Y(0)\Vert^2 \end{align}$$ Comme $\theta>0$, $\lim_{t\to+\infty}e^{-2\theta t}=0$ donc par les gendarmes $\lim_{t\to+\infty}\Vert Y(t)\Vert^2=0$ et $\lim_{t\to+\infty}Y(t)=0$. En revenant à la définition de $Y$, on en déduit que $\lim_{t\to+\infty}x(t)=x^*$ donc $x^*$ est un équilibre attractif.

Pour afficher le fil des commentaires : Commentaires.


Pour poster un commentaire ou obtenir de l'aide : c'est ici!




Formulaire

L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :

Contacter l'auteur du site : frederic.millet @ math-sup.fr