Dans tout le problème, $k$ désigne un entier supérieur ou égal à 2.
Notations algébriques
Notations probabilistes
L'objet du problème est l'étude des propriétés des matrices de variance-covariance en liaison avec la loi des vecteurs correspondants.
Dans cette partie, on note $u$ la matrice-colonne de ${\cal M}_{k,1}(\mathbb R)$ dont tous les coefficients valent 1.
1. Soit $a=\begin{pmatrix}a_1\\ a_2\\ \vdots\\ a_k\end{pmatrix}$ une matrice colonne non nulle de ${\cal M}_{k,1}(\mathbb R)$ et $\alpha=\sum_{i=1}^ka_i$. On pose : $M=a ^t\!u$.
a) Calculer la matrice $M$ et préciser son rang.
On trouve : $$M=\begin{pmatrix} a_1 & a_1 & \dots & a_1\\ a_2 & a_2 & \dots & a_2\\ \vdots & \vdots & \vdots & \vdots\\ a_k & a_k & \dots & a_k \end{pmatrix}.$$ Toutes les colonnes sont identiques et non nulles (car $a\neq 0$), donc le rang de $M$ est 1.
b) Calculer la matrice $Ma$ et en déduire une valeur propre de $M$.
On trouve : $$Ma=\alpha a,$$ donc comme $a$ est non nul, c'est un vecteur propre de valeur propre $\alpha$.
c) Montrer que $M^2=\alpha M$. Que peut-on en déduire sur les valeurs propres de $M$?
L'égalité $M^2=\alpha M$ se fait par calcul direct. On en déduit alors que $M^2-\alpha M=0$, c'est à dire que $X^2-\alpha X$ est un polynôme annulateur. Les valeurs propres étant racines d'un polynôme annulateur, on en déduit que les valeurs propres possibles de $M$ sont $\alpha$ et 0.
d) Montrer que $M$ est diagonalisable si et seulement si $\alpha\neq 0$.
Si $\alpha=0$ alors $M$ ne peut être diagonalisable. En effet si $M$ était diagonalisable, comme ses seules valeurs propres sont $0$ et $\alpha$ d'après la question précédente, on aurait que $M$ est semblable à la matrice diagonale nulle, c'est à dire la matrice nulle. Or $M$ est non nulle et donc ne peut être semblable à la matrice nulle. On a donc prouvé $M \text{diagonalisable }\Longrightarrow \alpha\neq 0$.
Réciproquement : Si $\alpha \neq 0$, d'après 1.c) $M$ admet une valeur propre non nulle $\alpha$. On observe aussi d'après la question 1.a) et le théorème du rang que $Ker(M)=k-rang(M)=k-1$. On en déduit que 0 est valeur propre et que son sous espace propre associé est de dimension $k-1$. La somme des dimensions des sous espaces propres ne pouvant excéder $k$, on en déduit que la dimension du sous espace propre associé à $\alpha$ est 1. Il suit alors que la somme de l'espace propre associé à 0 et de l'espace propre associé à 1 vaut $k$, ce qui prouve la diagonalisabilité de $M$.
e) Pour quelles valeurs de $\alpha$ la matrice $I_k-M$ est-elle inversible?
$I_k-M$ est inversible si et seulement si non noyau est réduit à $\{0\}$, soit encore si l'équation $(I_k-M)X=0$ n'admet que la solution nulle, c'est à dire si $MX=X$ n'a que la solution nulle. Mais on observe que $MX=X$ a des solutions non nulles si et seulement si 1 est valeur propre. Les seules valeurs propres de $M$ étant 1 et $\alpha$ (d'après 1.c)), on en déduit que $I_k-M$ est inversible si et seulement si $\alpha\neq 1$.
f) On suppose que $\alpha=1$. Montrer que $M$ est la matrice dans la base canonique de $\mathbb R^k$ d'un projecteur dont on précisera l'image et le noyau. Dans quel cas ce projecteur est-il orthogonal?
D'après 1.c) et le fait que $\alpha=1$, on a : $$M^2=\alpha M=M,$$ donc $M$ est bien la matrice d'un projecteur. L'image d'une matrice étant engendrée par ses colonnes, on a : $$Im(M)=Vect\{a\}.$$ D'autre par on remarque que les $k-1$ vecteurs $$\begin{pmatrix} 1\\ -1\\ 0\\ \vdots\\ 0 \end{pmatrix},\ \begin{pmatrix} 1\\ 0\\ -1\\ 0\\ \vdots\\ 0 \end{pmatrix},\dots, \begin{pmatrix} 1\\ 0\\ \vdots\\ 0\\ -1 \end{pmatrix}, $$ sont $k-1$ vecteurs libres de $Ker(M)$. Puisque $dim(Ker(M))=k-1$ (vu dans la réponse à 1.d)), on en déduit que ces vecteurs forment une base de $Ker(M)$ donc $$Ker(M)=Vect\left\lbrace \begin{pmatrix} 1\\ -1\\ 0\\ \vdots\\ 0 \end{pmatrix},\ \begin{pmatrix} 1\\ 0\\ -1\\ 0\\ \vdots\\ 0 \end{pmatrix},\dots, \begin{pmatrix} 1\\ 0\\ \vdots\\ 0\\ -1 \end{pmatrix}\right\rbrace$$
Pour que la projection soit orthogonale il faut et il suffit que $a$ soit orthogonale à la base du noyau précitée (car le noyau et l'image doivent être orthogonaux). En faisant le prouduit des produit scalaire de $a$ avec chacun de ses éléments on en déduit que $M$ est othogonale si et seulement si $a_1=a_2=\dots,a_k$.
On dit qu'un vecteur aléatoire $(X_1,X_2,\dots,X_k)$ suit la loi généralisée de Bernoulli de paramètre $p$, notée ${\cal B}_k(p)$, si on a : $$\forall i\in[\![1,k]\!],P(X=e_i)=p_i,\text{ avec }X=\begin{pmatrix}X_1\\ X_2\\ \vdots\\ X_k\end{pmatrix}$$.
2. Soit $(X_1,X_2,\dots,X_k)$ un vecteur aléatoire suivant la loi ${\cal B}_k(p)$.
a) Pour $i\in[\![1,k]\!]$, comparer les évènements $[X=e_i]$ et $[X_i=1]$; en déduire que chaque variable aléatoire $X_i$ suit une loi de Bernoulli de paramètre $p_i$ et écrire la matrice ${\cal E}(X)$.
On observe que comme $\sum_{i=1}^kp_i=1$, les évènements $[X=e_1],\dots,[X=e_k]$ forment un système complet d'évènements. Il suit que presque sûrement, si $X_i=1$ alors tous les $X_j,\ j\neq i$ sont nuls. Autrement dit : $$[X=e_i]=[X_i=1]\text{ p.s.}$$ On en déduit que $P(X_i=1)=P(X=e_i)=p_i$, et comme $X_i(\Omega)=\{0,1\}$, alors $X_i$ suit une loi de Bernoulli de paramètre $p_i$.
b) Quelle est la loi de la variable $X_1+X_2$?
Comme $X_1$ et $X_2$ ne peuvent presque sûrement pas prendre la valeur 1 simultanément (voir réponse à 2.a)), on en déduit que $X_1+X_2(\Omega)=\{0,1\}$ et : $$P(X_1+X_2=1)=P([X_1=1]\cup[X_2=1])=P(X_1=1)+P(X_2=1)=P(X=e_1)+P(X=e_2)=p_1+p_2.$$ Il suit que $X_1+X_2$ suit une loi de Bernoulli de paramètre $p_1+p_2$.
c) Montrer que $Cov(X_1,X_2)=-p_1p_2$.
Comme $X_1$ et $X_2$ ne peuvent presque sûrement pas prendre la valeur 1 simultanément (voir réponse à 2.a)), on a obligatoirement $X_1X_2=0$ et donc comme elles suivent une loi binomiales de paramètre $p_1$ et $p_2$ respectivement on a : $$Cov(X_1,X_2)=E(X_1X_2)-E(X_1)E(X_2)=0-p_1p_2=-p_1p_2.$$
d) Ecrire la matrice ${\cal V}(X)$.
Comme $X_i$ suit une loi binomiale de paramètre $p_i$, on a $V(X_i)=p_i(1-p_i)$ et des questions précédentes, on en déduit : $${\cal V}(X)=\begin{pmatrix} p_1(1-p_1) & -p_1p_2 & \dots & -p_1p_k\\ -p_2p_1 & p_2(1-p_2) & \dots & -p_2p_k\\ \vdots & \vdots & \ddots & \vdots\\ -p_kp_1 & \dots & \dots & p_k(1-p_k) \end{pmatrix}$$
3. Soit $M(p)$ la matrice de ${\cal M}_k(\mathbb R)$ définie par : $M(p)=p ^t\!u$.
a) Vérifier l'égalité : ${\cal V}(X)=(I_k-M(p))Diag(p)$.
Il suffit de faire le calcul!
b) Montrer que si $p_1,p_2,\dots,p_k$ sont différents de 0, le rang de ${\cal V}(X)$ est égal à $k-1$
D'après 3.b), on a ${\cal V}(X)=(I_k-M(p))Diag(p)$. Les éléments de $p$ sont non nuls donc $Diag(p)$ est inversible et $rang({\cal V}(X))=rang(I_k-M(p))$. D'autre part comme $\sum_{i=1}^kp_i=1$, $M(p)$ a la même forme que la matrice $M$ de la partie I avec la condition $\alpha=1$. Il suit d'après 1.f) que $M(p)$ est un projecteur de rang $1$ (d'après 1.a)). Par conséquent $I_k-M(p)$ est un projecteur de rang $k-1$ et le résultat suit.
c) Soit $\sigma$ une permutation de $[\![1,k]\!]$ et $p_\sigma$ la matrice-colonne de ${\cal M}_{k,1}(\mathbb R)$ de composantes $p_{\sigma(1)},p_{\sigma(2)},\dots,p_{\sigma(k)}$. Montrer que ${\cal V}(X)$ est semblable à $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$.
Supposons que $u$ soit l'endomorphisme de $\mathbb R^k$ dont la matrice dans la base canonique est ${\cal V}(X)=(I_k-p ^t\!u)Diag(p)$. On observe qu'en considérant une nouvelle base construite à partir de la base canonique mais dont les éléments ont été permutés par $\sigma$, alors la matrice représentant l'endomorphisme associé à $Diag(p)$ dans $\mathbb R^k$ dans cette nouvelle base est $Diag(p_\sigma)$ et la matrice représentant l'endomorphisme associé à $p ^t\!u$ dans cette nouvelle base est $p_\sigma ^t\!u$. De sorte que la représentation de $u$ dans cette nouvelle base est $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$. Par conséquent ${\cal V}(X)$ et $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$ représentent le même endomorphisme dans des bases différentes, elles sont donc semblables.
d) Exprimer le rang de ${\cal V}(X)$ en fonction du nombre d'éléments $i$ de $[\![1,k]\!]$ pour lesquels on a $p_i\neq 0$.
D'après la question précédente, comme ${\cal V}(X)$ et $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$ sont semblables, elles ont même rang. Notons $r$ le nombre d'éléments non nuls de $p$ et choisissons une permutation $\sigma$ qui mette en premier les indices des éléments de $p$ non nul, c'est à dire $$\forall i\in[\![1,r]\!], p_{\sigma(i)}\neq 0.$$ Grâce à 2.d), on en déduit que la matrice $(I_k-p_\sigma ^t\!u)Diag(p_\sigma)$ a pour forme : $$\begin{pmatrix} p_{\sigma(1)}(1-p_{\sigma(1)}) & -p_{\sigma(1)}p_{\sigma(2)} & \dots & -p_{\sigma(1)}p_{\sigma(r)} & 0 & \dots & 0\\ -p_{\sigma(2)}p_{\sigma(1)} & p_{\sigma(2)}(1-p_{\sigma(2)}) & \dots & -p_{\sigma(2)}p_{\sigma(r)} & 0 & \dots & 0\\ \vdots & \vdots & \ddots & \vdots & \vdots & \dots & \vdots\\ -p_{\sigma(r)}p_{\sigma(1)} & \dots & \dots & p_{\sigma(r)}(1-p_{\sigma(r)}) & 0 & \dots & 0\\ 0 & \dots & \dots & 0 & 0 & \dots & 0\\ \vdots & \dots & \dots & \vdots & \vdots & \dots & \vdots \\ 0 & \dots & \dots & 0 & 0 & \dots & 0\\ \end{pmatrix}.$$ Il suit que ${\cal V}(X)$ a le même rang que la matrice réduite de taille $r\times r$ : $$\begin{pmatrix} p_{\sigma(1)}(1-p_{\sigma(1)}) & -p_{\sigma(1)}p_{\sigma(2)} & \dots & -p_{\sigma(1)}p_{\sigma(r)}\\ -p_{\sigma(2)}p_{\sigma(1)} & p_{\sigma(2)}(1-p_{\sigma(2)}) & \dots & -p_{\sigma(2)}p_{\sigma(r)}\\ \vdots & \vdots & \ddots & \vdots\\ -p_{\sigma(r)}p_{\sigma(1)} & \dots & \dots & p_{\sigma(r)}(1-p_{\sigma(r)}) \end{pmatrix}.$$ Mais d'après 3.b), on sait que cette dernière matrice est de rang $r-1$. Par conséquent ${\cal V}(X)$ est de rang le nombre d'éléments non nuls de $p$ moins 1.
Pour afficher le fil des commentaires : Commentaires.
Pour poster un commentaire ou obtenir de l'aide : c'est ici!
L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :
Contacter l'auteur du site : frederic.millet @ math-sup.fr