Cours et vidéos

Cours en ligne Vidéos classées

Concours corrigés

HECS
HECE

Programme de concours

HECS

Chaîne Youtube


Pour me soutenir



Autour du site

Auteur du site.
Cours particuliers.

Corrigé HEC math II 2014

Dans tout le problème, $k$ désigne un entier supérieur ou égal à 2.

Notations algébriques

Notations probabilistes

L'objet du problème est l'étude des propriétés des matrices de variance-covariance en liaison avec la loi des vecteurs correspondants.


Partie I. Loi généralisées de Bernoulli.


Dans cette partie, on note $u$ la matrice-colonne de ${\cal M}_{k,1}(\mathbb R)$ dont tous les coefficients valent 1.

1. Soit $a=\begin{pmatrix}a_1\\ a_2\\ \vdots\\ a_k\end{pmatrix}$ une matrice colonne non nulle de ${\cal M}_{k,1}(\mathbb R)$ et $\alpha=\sum_{i=1}^ka_i$. On pose : $M=a ^t\!u$.

a) Calculer la matrice $M$ et préciser son rang.

Afficher

Références programme : II-1,9.

On trouve : $$M=\begin{pmatrix} a_1 & a_1 & \dots & a_1\\ a_2 & a_2 & \dots & a_2\\ \vdots & \vdots & \vdots & \vdots\\ a_k & a_k & \dots & a_k \end{pmatrix}.$$ Toutes les colonnes sont identiques et non nulles (car $a\neq 0$), donc le rang de $M$ est 1.

b) Calculer la matrice $Ma$ et en déduire une valeur propre de $M$.

Afficher

Références programme : II-1,11.

On trouve : $$Ma=\alpha a,$$ donc comme $a$ est non nul, c'est un vecteur propre de valeur propre $\alpha$.

c) Montrer que $M^2=\alpha M$. Que peut-on en déduire sur les valeurs propres de $M$?

Afficher

Références programme : II-1,12.

L'égalité $M^2=\alpha M$ se fait par calcul direct. On en déduit alors que $M^2-\alpha M=0$, c'est à dire que $X^2-\alpha X$ est un polynôme annulateur. Les valeurs propres étant racines d'un polynôme annulateur, on en déduit que les valeurs propres possibles de $M$ sont $\alpha$ et 0.

d) Montrer que $M$ est diagonalisable si et seulement si $\alpha\neq 0$.

Afficher

Référence programme : II-14.

Si $\alpha=0$ alors $M$ ne peut être diagonalisable. En effet si $M$ était diagonalisable, comme ses seules valeurs propres sont $0$ et $\alpha$ d'après la question précédente, on aurait que $M$ est semblable à la matrice diagonale nulle, c'est à dire la matrice nulle. Or $M$ est non nulle et donc ne peut être semblable à la matrice nulle. On a donc prouvé $M \text{diagonalisable }\Longrightarrow \alpha\neq 0$.

Réciproquement : Si $\alpha \neq 0$, d'après 1.c) $M$ admet une valeur propre non nulle $\alpha$. On observe aussi d'après la question 1.a) et le théorème du rang que $Ker(M)=k-rang(M)=k-1$. On en déduit que 0 est valeur propre et que son sous espace propre associé est de dimension $k-1$. La somme des dimensions des sous espaces propres ne pouvant excéder $k$, on en déduit que la dimension du sous espace propre associé à $\alpha$ est 1. Il suit alors que la somme de l'espace propre associé à 0 et de l'espace propre associé à 1 vaut $k$, ce qui prouve la diagonalisabilité de $M$.

e) Pour quelles valeurs de $\alpha$ la matrice $I_k-M$ est-elle inversible?

Afficher

Référence programme : II-10.

$I_k-M$ est inversible si et seulement si non noyau est réduit à $\{0\}$, soit encore si l'équation $(I_k-M)X=0$ n'admet que la solution nulle, c'est à dire si $MX=X$ n'a que la solution nulle. Mais on observe que $MX=X$ a des solutions non nulles si et seulement si 1 est valeur propre. Les seules valeurs propres de $M$ étant 1 et $\alpha$ (d'après 1.c)), on en déduit que $I_k-M$ est inversible si et seulement si $\alpha\neq 1$.

f) On suppose que $\alpha=1$. Montrer que $M$ est la matrice dans la base canonique de $\mathbb R^k$ d'un projecteur dont on précisera l'image et le noyau. Dans quel cas ce projecteur est-il orthogonal?

Afficher

Références programme : II-7,9; III-4.

D'après 1.c) et le fait que $\alpha=1$, on a : $$M^2=\alpha M=M,$$ donc $M$ est bien la matrice d'un projecteur. L'image d'une matrice étant engendrée par ses colonnes, on a : $$Im(M)=Vect\{a\}.$$ D'autre par on remarque que les $k-1$ vecteurs $$\begin{pmatrix} 1\\ -1\\ 0\\ \vdots\\ 0 \end{pmatrix},\ \begin{pmatrix} 1\\ 0\\ -1\\ 0\\ \vdots\\ 0 \end{pmatrix},\dots, \begin{pmatrix} 1\\ 0\\ \vdots\\ 0\\ -1 \end{pmatrix}, $$ sont $k-1$ vecteurs libres de $Ker(M)$. Puisque $dim(Ker(M))=k-1$ (vu dans la réponse à 1.d)), on en déduit que ces vecteurs forment une base de $Ker(M)$ donc $$Ker(M)=Vect\left\lbrace \begin{pmatrix} 1\\ -1\\ 0\\ \vdots\\ 0 \end{pmatrix},\ \begin{pmatrix} 1\\ 0\\ -1\\ 0\\ \vdots\\ 0 \end{pmatrix},\dots, \begin{pmatrix} 1\\ 0\\ \vdots\\ 0\\ -1 \end{pmatrix}\right\rbrace$$

Pour que la projection soit orthogonale il faut et il suffit que $a$ soit orthogonale à la base du noyau précitée (car le noyau et l'image doivent être orthogonaux). En faisant le prouduit des produit scalaire de $a$ avec chacun de ses éléments on en déduit que $M$ est othogonale si et seulement si $a_1=a_2=\dots,a_k$.

On dit qu'un vecteur aléatoire $(X_1,X_2,\dots,X_k)$ suit la loi généralisée de Bernoulli de paramètre $p$, notée ${\cal B}_k(p)$, si on a : $$\forall i\in[\![1,k]\!],P(X=e_i)=p_i,\text{ avec }X=\begin{pmatrix}X_1\\ X_2\\ \vdots\\ X_k\end{pmatrix}$$.

2. Soit $(X_1,X_2,\dots,X_k)$ un vecteur aléatoire suivant la loi ${\cal B}_k(p)$.

a) Pour $i\in[\![1,k]\!]$, comparer les évènements $[X=e_i]$ et $[X_i=1]$; en déduire que chaque variable aléatoire $X_i$ suit une loi de Bernoulli de paramètre $p_i$ et écrire la matrice ${\cal E}(X)$.

Afficher

Références programme : VII-2,7.

On observe que comme $\sum_{i=1}^kp_i=1$, les évènements $[X=e_1],\dots,[X=e_k]$ forment un système complet d'évènements. Il suit que presque sûrement, si $X_i=1$ alors tous les $X_j,\ j\neq i$ sont nuls. Autrement dit : $$[X=e_i]=[X_i=1]\text{ p.s.}$$ On en déduit que $P(X_i=1)=P(X=e_i)=p_i$, et comme $X_i(\Omega)=\{0,1\}$, alors $X_i$ suit une loi de Bernoulli de paramètre $p_i$.

b) Quelle est la loi de la variable $X_1+X_2$?

Afficher

Références programme : VII-2,7.

Comme $X_1$ et $X_2$ ne peuvent presque sûrement pas prendre la valeur 1 simultanément (voir réponse à 2.a)), on en déduit que $X_1+X_2(\Omega)=\{0,1\}$ et : $$P(X_1+X_2=1)=P([X_1=1]\cup[X_2=1])=P(X_1=1)+P(X_2=1)=P(X=e_1)+P(X=e_2)=p_1+p_2.$$ Il suit que $X_1+X_2$ suit une loi de Bernoulli de paramètre $p_1+p_2$.

c) Montrer que $Cov(X_1,X_2)=-p_1p_2$.

Afficher

Références programme : VII-2,21

Comme $X_1$ et $X_2$ ne peuvent presque sûrement pas prendre la valeur 1 simultanément (voir réponse à 2.a)), on a obligatoirement $X_1X_2=0$ et donc comme elles suivent une loi binomiales de paramètre $p_1$ et $p_2$ respectivement on a : $$Cov(X_1,X_2)=E(X_1X_2)-E(X_1)E(X_2)=0-p_1p_2=-p_1p_2.$$

d) Ecrire la matrice ${\cal V}(X)$.

Afficher

Références programme : VII-7

Comme $X_i$ suit une loi binomiale de paramètre $p_i$, on a $V(X_i)=p_i(1-p_i)$ et des questions précédentes, on en déduit : $${\cal V}(X)=\begin{pmatrix} p_1(1-p_1) & -p_1p_2 & \dots & -p_1p_k\\ -p_2p_1 & p_2(1-p_2) & \dots & -p_2p_k\\ \vdots & \vdots & \ddots & \vdots\\ -p_kp_1 & \dots & \dots & p_k(1-p_k) \end{pmatrix}$$

3. Soit $M(p)$ la matrice de ${\cal M}_k(\mathbb R)$ définie par : $M(p)=p ^t\!u$.

a) Vérifier l'égalité : ${\cal V}(X)=(I_k-M(p))Diag(p)$.

Afficher

Référence programme : II-1

Il suffit de faire le calcul!

b) Montrer que si $p_1,p_2,\dots,p_k$ sont différents de 0, le rang de ${\cal V}(X)$ est égal à $k-1$

Afficher

Références programme : II-7,8,9

D'après 3.b), on a ${\cal V}(X)=(I_k-M(p))Diag(p)$. Les éléments de $p$ sont non nuls donc $Diag(p)$ est inversible et $rang({\cal V}(X))=rang(I_k-M(p))$. D'autre part comme $\sum_{i=1}^kp_i=1$, $M(p)$ a la même forme que la matrice $M$ de la partie I avec la condition $\alpha=1$. Il suit d'après 1.f) que $M(p)$ est un projecteur de rang $1$ (d'après 1.a)). Par conséquent $I_k-M(p)$ est un projecteur de rang $k-1$ et le résultat suit.

c) Soit $\sigma$ une permutation de $[\![1,k]\!]$ et $p_\sigma$ la matrice-colonne de ${\cal M}_{k,1}(\mathbb R)$ de composantes $p_{\sigma(1)},p_{\sigma(2)},\dots,p_{\sigma(k)}$. Montrer que ${\cal V}(X)$ est semblable à $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$.

Afficher

Référence programme : II-9

Supposons que $u$ soit l'endomorphisme de $\mathbb R^k$ dont la matrice dans la base canonique est ${\cal V}(X)=(I_k-p ^t\!u)Diag(p)$. On observe qu'en considérant une nouvelle base construite à partir de la base canonique mais dont les éléments ont été permutés par $\sigma$, alors la matrice représentant l'endomorphisme associé à $Diag(p)$ dans $\mathbb R^k$ dans cette nouvelle base est $Diag(p_\sigma)$ et la matrice représentant l'endomorphisme associé à $p ^t\!u$ dans cette nouvelle base est $p_\sigma ^t\!u$. De sorte que la représentation de $u$ dans cette nouvelle base est $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$. Par conséquent ${\cal V}(X)$ et $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$ représentent le même endomorphisme dans des bases différentes, elles sont donc semblables.

d) Exprimer le rang de ${\cal V}(X)$ en fonction du nombre d'éléments $i$ de $[\![1,k]\!]$ pour lesquels on a $p_i\neq 0$.

Afficher

Référence programme : II-10

D'après la question précédente, comme ${\cal V}(X)$ et $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$ sont semblables, elles ont même rang. Notons $r$ le nombre d'éléments non nuls de $p$ et choisissons une permutation $\sigma$ qui mette en premier les indices des éléments de $p$ non nul, c'est à dire $$\forall i\in[\![1,r]\!], p_{\sigma(i)}\neq 0.$$ Grâce à 2.d), on en déduit que la matrice $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$ a pour forme : $$\begin{pmatrix} p_{\sigma(1)}(1-p_{\sigma(1)}) & -p_{\sigma(1)}p_{\sigma(2)} & \dots & -p_{\sigma(1)}p_{\sigma(r)} & 0 & \dots & 0\\ -p_{\sigma(2)}p_{\sigma(1)} & p_{\sigma(2)}(1-p_{\sigma(2)}) & \dots & -p_{\sigma(2)}p_{\sigma(r)} & 0 & \dots & 0\\ \vdots & \vdots & \ddots & \vdots & \vdots & \dots & \vdots\\ -p_{\sigma(r)}p_{\sigma(1)} & \dots & \dots & p_{\sigma(r)}(1-p_{\sigma(r)}) & 0 & \dots & 0\\ 0 & \dots & \dots & 0 & 0 & \dots & 0\\ \vdots & \dots & \dots & \vdots & \vdots & \dots & \vdots \\ 0 & \dots & \dots & 0 & 0 & \dots & 0\\ \end{pmatrix}.$$ Il suit que ${\cal V}(X)$ a le même rang que la matrice réduite de taille $r\times r$ : $$\begin{pmatrix} p_{\sigma(1)}(1-p_{\sigma(1)}) & -p_{\sigma(1)}p_{\sigma(2)} & \dots & -p_{\sigma(1)}p_{\sigma(r)}\\ -p_{\sigma(2)}p_{\sigma(1)} & p_{\sigma(2)}(1-p_{\sigma(2)}) & \dots & -p_{\sigma(2)}p_{\sigma(r)}\\ \vdots & \vdots & \ddots & \vdots\\ -p_{\sigma(r)}p_{\sigma(1)} & \dots & \dots & p_{\sigma(r)}(1-p_{\sigma(r)}) \end{pmatrix}.$$ Mais d'après 3.b), on sait que cette dernière matrice est de rang $r-1$. Par conséquent ${\cal V}(X)$ est de rang le nombre d'éléments non nuls de $p$ moins 1.

Pour afficher le fil des commentaires : Commentaires.


Pour poster un commentaire ou obtenir de l'aide : c'est ici!




Formulaire

L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :

Contacter l'auteur du site : frederic.millet @ math-sup.fr