Cours et vidéos

Cours en ligne Vidéos classées

Concours corrigés

HECS
HECE

Programme de concours

HECS

Chaîne Youtube


Pour me soutenir



Autour du site

Auteur du site.
Cours particuliers.

Partie II. Un critère de convergence vers la matrice nulle

Dans cette partie, on note $A=(a_{k,j})_{1\leq k,j\leq p}$ une matrice de ${\cal M}_p(\mathbb R)$, $\lambda$ une valeur propres complexe de $A$ et $X=\begin{pmatrix}x_1\\ \vdots\\ x_p\end{pmatrix}\in\mathbb C^p$ un vecteur propre de $A$ associé à $\lambda$.

3. Soit $k_0$ un entier de $[\![1,p]\!]$ pour lequel on a : $0<\!|x_{k_0}|=\max_{1\leq j\leq p}|x_j|$.

Etablir les encadrements suivants : $|\lambda|\leq\sum_{j=1}^p|a_{k_0,j}|\leq N(A)$ et $0\leq\rho(A)\leq N(A)$.

Afficher

L'inégalité $\sum_{j=1}^p|a_{k_0,j}|\leq N(A)$ provient de la définition de $N(A)$. En calculant la $k_0$-ième coordonnée de $AX$, on a : $\sum_{j=1}^pa_{k_0,j}x_j$. Mais comme $AX=\lambda X$, on a l'égalité : $\lambda x_{k_0}=\sum_{j=1}^pa_{k_0,j}x_j$. Or $|x_{k_0}|$ étant le max, on a aussi : $$|\lambda x_{k_0}|=\left|\sum_{j=1}^pa_{k_0,j}x_j\right|\leq \sum_{j=1}^p|a_{k_0,j}||x_j|\leq |x_{k_0}|\sum_{j=1}^p|a_{k_0,j}|.$$ En simplifiant par $x_{k_0}$ qui est non nul, on trouve $|\lambda|\leq\sum_{j=1}^p|a_{k_0,j}|$. Enfin la dernière inégalité est une conséquence immédiate.

4. Soit $n$ un entier de $\mathbb N^*$ et $\mu$ une valeur propre de $A^n$ telle que $|\mu|=\rho(A^n)$.

a) Montrer que $\lambda^n$ est une valeur propre de $A^n$. En déduire l'inégalité : $\rho(A^n)\geq (\rho(A))^n$.

Afficher

$AX=\lambda X$ donc par récurrence $A^nX=\lambda^n X$ et donc $\lambda^n$ est valeur propre de $A^n$. Il suit que $|\lambda|^n\leq\rho(A^n)$ pour tout $\lambda$ valeur propre de $A^n$ et donc $(\rho(A))^n\leq\rho(A^n)$.

b) Soit $\alpha_0,\alpha_1,\dots,\alpha_{n-1}$ les $n$ racines n-ièmes de $\mu$. Etablir l'égalité : $A^n-\mu I_p=\prod_{j=0}^{n-1}(A-\alpha_j I_p)$.

Afficher

$\alpha_0,\alpha_1,\dots,\alpha_{n-1}$ étant les racines n-ièmes de $\mu$, on a l'égalité polynomiale suivante : $$X^n-\mu=\prod_{j=0}^{n-1}(X-\alpha_i).$$ Il ne suffit plus que d'appliquer le polynome à la matrice $A$.

c) Montrer qu'il existe un entier $j_0$ de $[\![0,n-1]\!]$ pour lequel $\alpha_{j_0}$ est une valeur propre de $A$.

Afficher

D'après b) on a $0=AX-\mu X=\prod_{j=0}^{n-1}(A-\alpha_j Id)X=(A-\alpha_0)\prod_{j=1}^{n-1}(A-\alpha_j Id)X$. On en déduit que $\prod_{j=1}^{n-1}(A-\alpha_j Id)X$ appartient à $Ker(A-\alpha_0 Id)$. On a alors deux choix possibles, soit $\prod_{j=1}^{n-1}(A-\alpha_j Id)X$ est non nul et dans ce cas c'est un vecteur propre de valeur propre $\alpha_0$ et on a répondu à la question. Soit au contraire $\prod_{j=1}^{n-1}(A-\alpha_j Id)X=0$ et dans ce cas on réitère l'argument par la même astuce $0=\prod_{j={i}}^{n-1}(A-\alpha_j Id)X=(A-\alpha_i)\prod_{j={i+1}}^{n-1}(A-\alpha_j Id)X$ jusqu'à épuisement des $\alpha_i$.

d) En déduire l'égalité : $\rho(A^n)=(\rho(A))^n$. Etablir l'encadrement : $0\leq\rho(A)\leq(N(A^n))^{1/n}$.

Afficher

On a $$\rho(A^n)=|\mu|=|\alpha_{j_0}|^n\leq\rho(A)^n.$$ Or on a aussi prouvé l'inégalité dans l'autre sens dans a) d'où l'égalité $\rho(A^n)=\rho(A)^n$. Enfin d'après 3, $$\rho(A)=\rho(A^n)^{1/n}\leq N(A^n)^{1/n}.$$

5. On suppose que la suite de matrices $(A^n)_{n\in\mathbb N^*}$ converge vers la matrice nulle de ${\cal M}_p(\mathbb R)$.

Montrer que $\lim_{n\to+\infty}N(A^n)=0$. En déduire que $\rho(A)<\!1$.

Afficher

$A^n$ tend vers 0 donc tous ses coefficients aussi et donc $N(A^n)$ tend vers 0. Maintenant $\lim_{n\to+\infty}N(A^n)=0$ donc pour n suffisemment grand $N(A^n)<\!\frac{1}{2}$ et d'après l'inégalité établie en 4.d) $$\rho(A)\leq(N(A^n))^{1/n}=\exp\left(\frac{1}{n}\ln(A^n)\right)<\!\exp\left(\frac{1}{n}\ln\frac{1}{2}\right)<\! 1,$$ d'où le résultat.

6. Dans cette question, on suppose que la matrice $A$ est diagonalisable dans $\mathbb C$.

On pose pour tout réel $\epsilon$ strictement positif : $A_\epsilon=\frac{1}{\rho(A)+\epsilon}A$.

a) Montrer que si $\rho(A)<\!1$, alors la suite de matrices $(A^n)_{n\in\mathbb N^*}$ converge vers la matrice nulle de ${\cal M}_p(\mathbb R)$.

Afficher

$A$ est diagonalisable donc il existe une matrice $P$ inversible et une matrice $D$ diagonale telle que $A^n=PD^nP^{-1}$. $\rho(A)<\!1$ donc $D^n$ tend vers 0 et d'après les règles de calculs sur les limites de matrices $\lim_{n\to+\infty}P^{-1}D^nP=0$, d'où le résultat.

b) Montrer que $\rho(A_\epsilon)<\! 1$. En déduire qu'il existe un entier $n_0$ tel que pour tout entier $n\geq n_0$, on a : $N(A^n_\epsilon)\leq 1$.

Afficher

Si $\lambda$ est valeur propre de $A$ alors $\frac{\lambda}{\rho(A)+\epsilon}$ est valeur propre de $A_\epsilon$. Il suit que $\rho(A_\epsilon)=\frac{\rho(A)}{\rho(A)+\epsilon}<\!1$. D'après a), on en déduit que $A^n_\epsilon$ tend vers 0 et d'après 5, $\lim_{n\to+\infty}N(A_\epsilon)=0$ et donc il existe $n_0\in\mathbb N$ tel que pour $n\geq n_0$, $N(A^n_\epsilon)\leq 1$.

c) Etablir pour tout $n$ de $\mathbb N^*$, la relation : $N(A^n)=(\rho(A)+\epsilon)^nN(A^n_\epsilon)$.

Afficher

C'est clair en revenant à la définition de $N(A)$.

d) A l'aide des questions précédentes, établir pour tout $n\geq n_0$, l'encadrement : $0\leq(N(A^n))^{1/n}-\rho(A)\leq \epsilon$.

En déduire que l'on a : $\lim_{n\to+\infty}(N(A^n))^{1/n}=\rho(A)$.

Afficher

D'après 4.d) on a déjà $0\leq(N(A^n))^{1/n}-\rho(A)$. D'après 6.c) on a $N(A^n)=(\rho(A)+\epsilon)^nN(A^n_\epsilon)$, mais comme d'après 6.b) pour $n\geq n_0$, $N(A^n_\epsilon)\leq 1$, on en déduit $N(A^n)\leq(\rho(A)+\epsilon)^nN$ et $(N(A^n))^{1/n}-\rho(A)\leq \epsilon$. $\epsilon$ étant arbitraire on reconnait la définition de la limite demandée.

Dans la suite du problème, on admet que pour toute matrice $A$ de ${\cal M}_p(\mathbb R)$, on a $\lim_{n\to+\infty}(N(A^n))^{1/n}=\rho(A)$ et que la suite $(A^n)_{n\in\mathbb N^*}$ converge vers la matrice nulle de ${\cal M}_p(\mathbb R)$ si et seulement si on a $\rho(A)<\! 1$.

Partie III. Matrices positives - Relations entre $\rho(A)$ et les coefficients de $A$

Dans cette partie, on considère une matrice $A=(a_{k,j})_{1\leq k,j\leq p}$ de ${\cal M}_p(\mathbb R)$ positive et non nulle.

7. Soit $B=(b_{k,j})_{1\leq k,j\leq p}$ une matrice positive de ${\cal M}_p(\mathbb R)$ vérifiant pour tout couple $(k,j)$ de $[\![1,p]\!]^2$ : $b_{k,j}\leq a_{k,j}$. Montrer que pour tout $n$ de $\mathbb N^*$, on a : $N(B^n)\leq N(A^n)$. En déduire l'inégalité : $\rho(B)\leq\rho(A)$.

Afficher

On montre facilement par réccurence que si $A\leq B$ alors $A^n\leq B^n$ et donc $N(A^n)\leq N(B^n)$. Pour établir $\rho(A)\leq\rho(B)$, il suffit de se souvenir d'après 6.d) $\lim_{n\to+\infty}(N(A^n))^{1/n}=\rho(A)$.

8. On suppose dans cette question qu'il existe une constante $s$ vérifiant pour tout $k$ de $[\![1,p]\!] : \sum_{j=1}^pa_{k,j}=s$.

Etablir l'égalité : $\rho(A)=s$.

Afficher

Comme $A$ est réelle positive $s=\sum_{j=1}^pa_{k,j}=\sum_{j=1}^p|a_{k,j}|$ et donc $N(A)=s$. On sait d'après 3 que $\rho(A)\leq N(A)=s$. D'autre part le fait que pour tout $k$ de $[\![1,p]\!], \sum_{j=1}^pa_{k,j}=s$ implique que $\begin{pmatrix}1\\ \vdots\\ 1\end{pmatrix}$ est vecteur propre de valeur propre $s$. On en déduit que $s=|s|\leq\rho(A)$ et donc l'égalité est établie.

9. On pose : $\sigma=\min_{1\leq k\leq p}\sum_{j=1}^pa_{k,j}$. A l'aide des questions 7 et 8, établir l'encadrement : $\sigma\leq\rho(A)\leq N(A)$.

Afficher

L'inégalité $\rho(A)\leq N(A)$ a été établit précédemment. On construit une matrice $B=(b_{k,j})_{1\leq k,j\leq p}$ telle que $b_{k,j}\leq a_{k,j}$ et pour tout $k\in[\![1,p]\!]$, $\sum_{j=1}^pb_{k,j}=\sigma$ (cette construction est possible car $\sigma$ représente le minimum des sommes des lignes de $A$). D'après 7, on a $\rho(B)\leq\rho(A)$ et d'après 8, $\rho(B)=\sigma$ et le résultat suit.

10. Soit $X$ un vecteur de $\mathbb R^p$ tel que $X>0$ et soit $\Delta_X$ la matrice diagonale de ${\cal M}_p(\mathbb R)$ dont les éléments diagonaux sont les coordonnées $x_1,x_2,\dots,x_p$ de $X$.

a) Après avoir justifié l'existence de l'inverse $\Delta_X^{-1}$ de $\Delta_X$, calculer la matrice $\Delta_X^{-1}A\Delta_X$.

Afficher

$X$ étant strictement positif, aucune des valeurs propres de $\Delta_X$ est nulle donc représente un endomorphisme injectif donc bijectif et par conséquent $\Delta_X^{-1}$ existe. Enfin on a $$(\Delta_X^{-1}A\Delta_X)_{k,j}=a_{k,j}\frac{x_j}{x_k}.$$

b) Etablir l'encadrement : $\min_{1\leq k\leq p}\frac{1}{x_k}\sum_{j=1}^pa_{k,j}x_j\leq\rho(A)\leq \max_{1\leq k\leq p}\frac{1}{x_k}\sum_{j=1}^pa_{k,j}x_j$.

Afficher

Grâce à l'encadrement établit en 9, on a : $$\min_{1\leq k\leq p}\frac{1}{x_k}\sum_{j=1}^pa_{k,j}x_j\leq\rho(\Delta_X^{-1}A\Delta_X)\leq \max_{1\leq k\leq p}\frac{1}{x_k}\sum_{j=1}^pa_{k,j}x_j.$$ Or $A$ et $\Delta_X^{-1}A\Delta_X$ ont les même valeurs propres donc $\rho(A)=\rho(\Delta_X^{-1}A\Delta_X)$ et le résultat suit.

c) En déduire que s'il existe un réel positif $\beta$ vérifiant $\beta X<\! AX$, il vérifie également $\beta<\!\rho(A)$.

Afficher

La condition $\beta X<\! AX$ se réécrit en indice $\beta x_k<\! \sum_{j=1}^pa_{k,j}x_j$ soit encore comme $X>0$, $\beta <\!\frac{1}{x_k} \sum_{j=1}^pa_{k,j}x_j$. Il suit grâce à la question précédente que : $$\beta <\!\min_{1\leq k\leq p}\frac{1}{x_k} \sum_{j=1}^pa_{k,j}x_j\leq\rho(A),$$ d'où le résultat.

Pour afficher le fil des commentaires : Commentaires.


Pour poster un commentaire ou obtenir de l'aide : c'est ici!




Formulaire

L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :

Contacter l'auteur du site : frederic.millet @ math-sup.fr