Cours et vidéos

Cours en ligne Vidéos classées

Concours corrigés

HECS
HECE

Programme de concours

HECS

Chaîne Youtube


Pour me soutenir



Autour du site

Auteur du site.
Cours particuliers.


Partie III. Support et rang stochastique d'un vecteur aléatoire


Dans toute cette partie, $(Y_1,Y_2,\dots,Y_k)$ désigne un vecteur aléatoire discret, à valeurs dans $\mathbb R^k$, dont chaque composante admet une espérance et une variance. On rappelle que $Y$ est la matrice-colonne de ${\cal M}_{k,1}(\mathbb R)$ de composantes $Y_1,Y_2,\dots,Y_k$.

7. On appelle support vectoriel de $Y$, tout sous-espace vectoriel $F$ de ${\cal M}_{k,1}(\mathbb R)$ tel que $P(Y-{\cal E}(Y)\in F)=1$. On note ${\cal S}(Y)$ l'ensemble des supports vectoriels de $Y$.

a) Justifier l'existence d'un plus petit élément de l'ensemble des dimensions des éléments de ${\cal S}(Y)$. Ce plus petit élément est appelé rang stochastique et noté $R_s(Y)$.

Afficher

Référence programme : I-2; II-5

Comme il s'agit de sous espaces vectoriels de $\mathbb R^k$, l'ensemble des dimension des espaces de ${\cal S}(Y)$ est un sous ensemble $[\![0,k]\!]$ et admet donc un plus petit élément.

b) Dans quels cas le rang stochastique $R_s(Y)$ est-il nul?

Afficher

Références programme : II-5, VII-9

$R_s(Y)=0$ veut donc dire que $\{0\}\in {\cal S}(Y)$, soit encore par définition $P(Y-{\cal E}(Y)=0)=1$. Cela veut donc dire que $Y$ est constante presque sûrement.

c) Montrer que l'intersection de deux supports vectoriels $F_1$ et $F_2$ de $Y$ est un support vectoriel de $Y$.

Afficher

Références programme : VII-3

Par définition $P(Y-{\cal E}(Y)\in F_1)=1$ et $P(Y-{\cal E}(Y)\in F_2)=1$ donc forcément, on a $$P\left([Y-{\cal E}(Y)\in F_1]\cup[Y-{\cal E}(Y)\in F_2]\right)=1.$$ Il suit que : $$\begin{align} 1&=P([Y-{\cal E}(Y)\in F_1]\cup[Y-{\cal E}(Y)\in F_2])\\ &=P(Y-{\cal E}(Y)\in F_1)+P(Y-{\cal E}(Y)\in F_2)-P([Y-{\cal E}(Y)\in F_1]\cap[Y-{\cal E}(Y)\in F_2])\\ &=1+1-P([Y-{\cal E}(Y)\in F_1]\cap[Y-{\cal E}(Y)\in F_2]), \end{align}$$ et par conséquent $P([Y-{\cal E}(Y)\in F_1]\cap[Y-{\cal E}(Y)\in F_2])=1$, c'est à dire $$P(Y-{\cal E}(Y)\in F_1\cap F_2)=1,$$ donc $F_1\cap F_2\in{\cal E}(Y)$.

d) En déduire l'existence d'un unique élément $F$ de $S(Y)$ tel que la dimension de $F$ soit égale à $R_s(Y)$. L'espace vectoriel $F$ est appelé support stochastique de $Y$.

Afficher

Références programme : I-1,II-5.

Si $R_s(Y)=0$, il n'y en a forcément qu'un c'est $F=\{0\}$. Supposons maintenant que $R_s(Y)\neq 0$ et supposons par l'absurde qu'il existe deux éléments $F_1$ et $F_2$ de ${\cal S}(Y)$ de dimension $R_s(Y)$. Alors d'après 7.d) $F_1\cap F_2\in{\cal S}(Y)$, mais comme $F_1$ et $F_2$ sont distincts, $F_1\cap F_2$ est de dimension strictement plus petite que celle de $F_1$ et $F_2$ c'est à dire $R_s(Y)$. Or $R_s(Y)$ est la plus petite dimension admissible des espaces de ${\cal S}(Y)$ donc $F_1\cap F_2$ ne peut être dans ${\cal S}(Y)$, d'où la contradiction et le résultat.

8. Soit $u$ une matrice colonne aléatoire de ${\cal M}_{k,1}(\mathbb R)$ de composante $u_1,u_2,\dots,u_k$.

a) Montrer que la variable aléatoire $\sum_{i=1}^ku_iY_i$ admet une variance égale à $^t\!u{\cal V}(Y)u$.

Afficher

Références programme : II-1,VII-21.

Il suffit de se souvenir que : $$V\left(\sum_{i=1}^ku_iY_i\right)=Cov\left(\sum_{i=1}^ku_iY_i,\sum_{j=1}^ku_jY_j\right)=\sum_{i=1}^k\sum_{j=1}^ku_iu_jCov(Y_i,Y_j),$$ Puis en calculant $^t\!u{\cal V}(Y)u$, on trouve la même expression.

b) Etablir l'existence d'un unique vecteur $(\lambda_1,\lambda_2,\dots,\lambda_k)$ de $\mathbb R^k$ tel que ${\cal V}(Y)$ soit semblable à la matrice $Diag(\lambda)$ et pour lequel $\lambda_1\geq\lambda_2\geq\dots\geq\lambda_k\geq 0$ (on note $Diag(\lambda)$ la matrice de ${\cal M}_k(\mathbb R)$ de coefficients diagonaux $\lambda_1,\lambda_2,\dots,\lambda_k$).

Afficher

Référence programme : II-14.

${\cal V}(Y)$ est symétrique donc diagonalisable, donc semblable à une matrice diagonale. L'unicité du vecteur $\lambda$ provient du fait qu'il n'y a qu'une seule façon d'ordonner de façon décroissante les valeurs propres. Enfin les valeurs propres sont positives car si $u$ est un vecteur propre de valeur propre $\lambda_i$, on a d'après 8.a) : $$0\leq V(\sum_{i=1}^ku_iY_i)= ^t\!u{\cal V}(Y)u= \lambda ^t\!uu=\lambda \Vert u\Vert^2,$$ ce qui implique $\lambda= \frac{V(\sum_{i=1}^ku_iY_i)}{\Vert u\Vert^2}\geq 0$.

c) On pose : $\Vert Y-{\cal E}(Y)\Vert^2=\sum_{i=1}^k(Y_i-E(Y_i))^2$. Montrer que $E(\Vert Y-{\cal E}(Y)\Vert^2)=\sum_{i=1}^k\lambda_i$.

Afficher

Références programme : II-1,14;VII-6.

Il faut se souvenir de la propriété de la trace suivente $Tr(AB)=Tr(BA)$. Comme ${\cal V}(Y)$ est semblable à $Diag(\lambda)$, on a : $$Tr({\cal V}(Y))=Tr(P^{-1}Diag(\lambda)P)=Tr(P^{-1}PDiag(\lambda))=Tr(Diag(\lambda))=\sum_{i=1}^k\lambda_i.$$ Une fois vu cela on a : $$E(\Vert Y-{\cal E}(Y)\Vert^2)=\sum_{i=1}^kE((Y_i-E(Y_i))^2)=\sum_{i=1}^kV(Y_i)=Tr({\cal V}(Y))=\sum_{i=1}^k\lambda_i,$$ d'où le résultat.

9. Soit $q\in[\![1,k]\!]$, $F$ un sous -espace vectoriel de ${\cal M}_{k,1}(\mathbb R)$ de dimension $q$ et $(f^{(1)},f^{(2)},\dots,f^{(q)})$ une base orthonormale de $F$.

a) Soit $\omega\in\Omega$. Justifier l'existence de $Q_F(\omega)=\inf\{\Vert Y(\omega)-{\cal E}(Y)-x\Vert^2;x\in F\}$ et montrer que : $$\Vert Y(\omega)-{\cal E}(Y)\Vert^2=Q_F(\omega)+\sum_{j=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(j)}\rangle^2.$$

Afficher

Référence programme : III-4.

$Q_F(\omega)$ est distance au carré entre $F$ et $Y(\omega)-{\cal E}(Y)$, son existence découle du théorème de la projection.

Pour montrer l'égalité, on se souvient que par le théorème de la projection, que la distance minimale est atteinte pour $x_0$ le projeté orthogonal de $Y(\omega)-{\cal E}(Y)$ sur $F$, c'est à dire en utilisant la base orthogonale donnée par : $$x_0=\sum_{i=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle f^{(i)}.$$ D'autre part toujours par le théorème de la projection, nous savons que $Y(\omega)-{\cal E}(Y)-x_0$ est orthogonal à $F$, donc en particulier $Y(\omega)-{\cal E}(Y)-x_0$ et $x_0$ sont orthogonaux. Grâce au théorème de Pythagore, on en déduit que : $$\Vert Y(\omega)-{\cal E}(Y)\Vert^2=\Vert Y(\omega)-{\cal E}(Y)-x_0+x_0\Vert^2=\Vert Y(\omega)-{\cal E}(Y)-x_0\Vert^2+\Vert x_0\Vert^2=Q_F(\omega)+\Vert x_0\Vert^2.$$ Calculons maintenant $\Vert x_0\Vert^2$, comme $f^{(i)}$ est une base orthonormale, on a par le théorème de Pythagore : $$\begin{align} \Vert x_0\Vert^2&=\Vert \sum_{i=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle f^{(i)}\Vert^2\\ &=\sum_{i=1}^q\Vert \langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle f^{(i)}\Vert^2\\ &=\sum_{i=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle^2\Vert f^{(i)}\Vert^2\\ &=\sum_{i=1}^q\langle Y(\omega)-{\cal E}(Y),f^{(i)}\rangle^2, \end{align}$$ et le résultat suit.

b) A l'aide de la question 8, établir l'égalité : $E(Q_F)=\sum_{i=1}^k\lambda_i-\sum_{j=1}^q\ ^t\!f^{(j)}{\cal V}(Y)f^{(j)}$.

Afficher

Références programme : II-1; VII-21.

D'après 8.b) on a déjà : $$E(Q_F)=E(\Vert Y-{\cal E}(Y)\Vert^2)-E\left(\sum_{j=1}^q\langle Y-{\cal E}(Y),f^{(j)}\rangle^2\right)=\sum_{i=1}^k\lambda_i-E\left(\sum_{j=1}^q\langle Y-{\cal E}(Y),f^{(j)}\rangle^2\right).$$ Maintenant si on note $f^{(j)}_i$ les coordonnées de $f^{(j)}$, on a : $$\begin{align} E\left(\sum_{j=1}^q\langle Y-{\cal E}(Y),f^{(j)}\rangle^2\right)&=\sum_{j=1}^qE\left(\left(\sum_{i=1}^k(Y_i-E(Y_i))f_i^{(j)}\right)^2\right)\\ &=\sum_{j=1}^qE\left(\sum_{i=1}^k(Y_i-E(Y_i))f_i^{(j)} \sum_{l=1}^k(Y_l-E(Y_l))f_l^{(j)}\right)\\ &=\sum_{j=1}^q\sum_{i=1}^k\sum_{l=1}^kE\left((Y_i-E(Y_i)) (Y_l-E(Y_l))\right)f_i^{(j)}f_l^{(j)}\\ &=\sum_{j=1}^q\sum_{i=1}^k\sum_{l=1}^kCov(Y_i,Y_l)f_i^{(j)}f_l^{(j)}. \end{align}$$ Enfin en développant $\sum_{j=1}^q\ ^t\!f^{(j)}{\cal V}(Y)f^{(j)}$, on retrouve l'expression ci dessus, ce qui finit de prouver le résultat.

c) Que devient l'égalité précédente lorsque $F={\cal M}_{k,1}(\mathbb R)$?

Afficher

Référence programme : III-4.

$F={\cal M}_{k,1}(\mathbb R)$ est l'espace tout entier et la distance entre un point et l'espace tout entier est nécessairement nul, donc $Q_F=0$ et $E(Q_F)=0$. L'égalité devient donc : $$\sum_{i=1}^k\lambda_i=\sum_{j=1}^k\ ^t\!f^{(j)}{\cal V}(Y)f^{(j)}$$

10. a) Montrer que pour toute matrice-colonne $f$ de ${\cal M}_{k,1}(\mathbb R)$ vérifiant $\Vert f\Vert=1$, on a : $^t\!f{\cal V}(Y)f\leq \lambda_1$.

Afficher

Référence programme : II-11;III-2.

${\cal V}(Y)$ est symétrique donc il existe une base orthonormale constituée de vecteurs propres de ${\cal V}(Y)$, notons là $\{f^{(i)}\}$. On décompose alors $f$ dans cette base $f=\sum_{i=1}^k\alpha_if^{(i)}$. On observe alors que : $$\begin{align} ^t\!f{\cal V}(Y)f&=\langle f,{\cal V}(Y)f\rangle\\ &=\langle \sum_{i=1}^k\alpha_if^{(i)},{\cal V}(Y)\sum_{j=1}^k\alpha_jf^{(j)}\rangle\\ &=\langle \sum_{i=1}^k\alpha_if^{(i)},\sum_{j=1}^k\alpha_j\lambda_jf^{(j)}\rangle\text{ car }f^{(j)}\text{ est valeur propre.}\\ &=\sum_{i=1}^k\alpha_i\sum_{j=1}^k\alpha_j\lambda_j\langle f^{(i)},f^{(j)}\rangle\\ &=\sum_{i=1}^k\alpha_i^2\lambda_i\text{ par orthonormalité}\\ &\leq \lambda_1\sum_{i=1}^k\alpha_i^2\text{ car }\lambda_1\text{ est la plus grande valeur propre.} \end{align}$$ Enfin on observe que $$1=\Vert f\Vert^2=\ ^t\!ff=\langle f,f\rangle=\langle \sum_{i=1}^k\alpha_if^{(i)}, \sum_{j=1}^k\alpha_jf^{(j)}\rangle=\sum_{i=1}^k\alpha_i\sum_{j=1}^k\alpha_j\langle f^{(i)},f^{(j)}\rangle=\sum_{i=1}^k\alpha_i^2,$$ donc $\sum_{i=1}^k\alpha_i^2=1$ et le résultat suit en remplaçant dans l'inégalité obtenue.

b) En déduire la borne inférieure de $E(Q_F)$ lorsque $F$ décrit l'ensemble des droites vectorielles de ${\cal M}_{k,1}(\mathbb R)$.

Afficher

Référence programme : II-5,11.

Si $F$ est une droite vectorielle, il existe un vecteur $f$ tel que $F=Vect\{f\}$. On peut aussi choisir $f$ tel que $\Vert f\Vert=1$ de sorte que $\{f\}$ constitue une base orthonormée de $f$. On a en particulier d'après 10.a) que $^t\!f{\cal V}(Y)f\leq \lambda_1$. D'après 9.b), on en déduit alors que : $$E(Q_F)=\sum_{i=1}^k\lambda_i-\ ^t\!f{\cal V}(Y)f\geq \sum_{i=1}^k\lambda_i-\lambda_1=\sum_{i=2}^k\lambda_i.$$ Par conséquent $\sum_{i=2}^k\lambda_i$ est un minorant de $E(Q_F)$ lorsque $F$ décrit les droites vectorielles. D'autre part si $f_1$ est un vecteur propre de valeur propre $\lambda_1$ de ${\cal V(Y)}$ et de norme 1, toujours grâce à 9.b) on a $$E(Q_F)=\sum_{i=1}^k\lambda_i-\ ^t\!f_1{\cal V}(Y)f_1=\sum_{i=1}^k\lambda_i-\lambda_1\ ^tf_1f_1=\sum_{i=1}^k\lambda_i-\lambda_1\Vert f_1\Vert^2=\sum_{i=1}^k\lambda_i-\lambda_1=\sum_{i=2}^k\lambda_i.$$ Par conséquent $\sum_{i=2}^k\lambda_i$ est un minorant atteint, c'est donc le minimum et aussi la borne inf de $E(Q_F)$ quand $F$ parcours les droites vectorielles.

c) Dans cette question, on suppose que $(Y_1,Y_2,\dots,Y_k)$ suit la loi ${\cal B}_k(p)$, où pour tout $i\in[\![1,k]\!]$, on a $p_i=\frac{1}{k}$. Calculer les valeurs propres de ${\cal V}(Y)$ et la borne inférieure de $E(Q_F)$ pour l'ensemble des droites vectorielles $F$ de ${\cal M}_{k,1}(\mathbb R)$, puis préciser pour quelle(s) droite(s) cette borne est atteinte.

Afficher

Référence programme : II-11.

D'après 2.d) et en utilisant les notations de la partie I on a : $${\cal V}(X)=\begin{pmatrix} \frac{1}{k}(1-\frac{1}{k}) & -\frac{1}{k^2} & \dots & -\frac{1}{k^2}\\ -\frac{1}{k^2} & \frac{1}{k}(1-\frac{1}{k}) & \dots & -\frac{1}{k^2}\\ \vdots & \vdots & \ddots & \vdots\\ -\frac{1}{k^2} & \dots & \dots & \frac{1}{k}(1-\frac{1}{k}) \end{pmatrix}=\frac{1}{k}(I_k-M(p)),$$ où $p=\frac{1}{k}u$. Or d'après 1.c) les valeurs propres de $M(p)$ sont 0 et 1 ($\alpha=1$ ici), donc les valeurs propres de $\frac{1}{k}(I_k-M(p))$ sont 0 et $\frac{1}{k}$.

D'après 9.b) on en déduit alors que la borne inférieur de $E(Q_F)$ lorsque $F$ parcours les droites vectorielles est $\frac{k-1}{k}$. En résolvant 9.b), nous avons également vu que cette borne était atteinte lorsque $F$ est engendré par un vecteur propre de valeur propre maximale, donc ici de valeur propre $\frac{1}{k}$. J'ignore si la question sous-entend de trouver les dits vecteurs propres, mais on peut préciser que l'espace propre associé à $\frac{1}{k}$ est $Ker(M(p))$ dont on a donné une expression en 1.f).

11. On suppose que le rang $r$ de ${\cal V}(Y)$ est non nul. On note $F_0$ la somme des sous-espaces propres associés aux valeurs propres non nulles de ${\cal V}(Y)$ et $F$ un sous-espace vectoriel de ${\cal M}_{k,1}(\mathbb R)$ tel que $F\subset F_0$ et $F\neq F_0$.

a) Calculer $E(Q_{F_0})$ et en déduire que $F_0$ est un support vectoriel de $Y$.

Afficher

Références programme : III-5, VII-14.

Soit $f^{(i)},\ i\in[\![1,r]\!]$ une famille orthonormée de vecteurs propres de ${\cal V}(Y)$ de valeurs propres associées non nulles et constituant une base de $F_0$. Alors par 9.b) on a : $$E(Q_F)=\sum_{i=1}^k\lambda_i-\sum_{i=1}^r\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)}=\sum_{i=1}^k\lambda_i-\sum_{i=1}^r\lambda_i\ ^t\!f^{(i)}f^{(i)}=\sum_{i=1}^k\lambda_i-\sum_{i=1}^r\lambda_i\Vert f^{(i)}\Vert^2=\sum_{i=1}^k\lambda_i-\sum_{i=1}^r\lambda_i.$$ Or si on retire les valeurs propres nulles de la première somme on a $\sum_{i=1}^k\lambda_i=\sum_{i=1}^r\lambda_i$, par conséquent : $$E(Q_F)=0.$$

Maintenant rappellons que $Q_{F_0}(\omega)$ représente la distance au carrée entre $Y-{\cal E}(Y)$ et $F_0$, Donc $$\forall\epsilon >0,P(Q_{F_0}(\omega)>\epsilon)=P(Y-{\cal E}(Y)\not\in F_0),$$ mais par l'inégalité de Markov : $$P(Q_{F_0}(\omega)>\epsilon)\leq\frac{E(Q_{F_0})}{\epsilon}=0,$$ alors $P(Y-{\cal E}(Y)\not\in F_0)=0$ soit encore $P(Y-{\cal E}(Y)\in F_0)=1$ donc $F_0$ est un support vectoriel de $Y$.

b) Justifier l'existence d'un vecteur $f^{(r)}$ de $F_0$, orthogonal à $F$ et de norme 1.

Afficher

Référence programme : III-2.

$F_0$ étant distinct de $F$, son orthogonal en tant que sous espace vectoriel de $F$ est alors non réduit à $\{0\}$. Il suffit de prendre un vecteur de cet orthogonal et de le normaliser.

c) Montrer que $^t\!f^{(r)}{\cal V}(Y)f^{(r)}>0$ et en déduire que $E(Q_F)\neq 0$.

Afficher

Référence programme : III-5.

On procède comme dans la question 10.a) en décomposant $f^{(r)}$ dans une base orthonormale de $F_0$ constituée de vecteurs propres et on a en suivant les mêmes notations : $$^t\!f^{(r)}{\cal V}(Y)f^{(r)}=\sum_{i=1}^{dim(F_0)}\alpha_i^2\lambda_i\geq \lambda_{dim(F_0)}\sum_{i=1}^{dim(F_0)}\alpha_i^2=\lambda_{dim(F_0)}>0,$$ où on a utilisé le fait que les $\lambda$ sont ordonnés par ordre décroissants et que les vecteurs propres dans $F_0$ on des valeurs propres strictements positives. Par conséquent on a bien $^t\!f^{(r)}{\cal V}(Y)f^{(r)}>0$.

Maintenant si on considère $f^{(1)},\dots,f^{(dim(F))}$ une base orthonormale de $F$, on peut la compléter en une base orthonormale de $F_0$ : $f^{(1)},\dots,f^{(dim(F))},\dots,f^{(dim(F_0)}$. D'après ce qu'on vient de démontrer on a alors : $$\sum_{i=1}^k\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)}>\sum_{i=1}^{dim(F)}\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)},$$ et donc d'après 9.b) et 11.a, on a : $$E(Q_F)=\sum_{i=1}^k\lambda_i-\sum_{i=1}^{dim(F)}\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)}>\sum_{i=1}^k\lambda_i-\sum_{i=1}^{dim(F_0)}\ ^t\!f^{(i)}{\cal V}(Y)f^{(i)}=E(Q_F)=0,$$ Il suit que $E(Q_F)\neq 0$.

d) Montrer que le rang stochastique $R_s(Y)$ de $Y$ est égal à $r$.

Afficher

Références programme : I-1; II-5.

On a que $E(Q_F)\neq 0$ et que $Q_F$ est une variable aléatoire positive, par conséquent $Q_F$ ne peut pas être nulle presque partout (sinon nous aurions $E(Q_F)=0$), dans ce cas $P(Q_F>0)\neq 0$, ce qui veut dire que $F$ ne peut être un support vectoriel de $Y$. D'autre part si $G$ est un support vectoriel autre que $F_0$, nous avons vu en 7.c) que $G\cap F_0$ est aussi un support vectoriel. Il suit que s'il y a un support vectoriel de plus petite dimension que $F_0$, c'est aussi un sous espace vectoriel de $F_0$. Or $F_0$ n'admet aucun sous espace vectoriel support vectoriel de $Y$. Par conséquent $F_0$ est un support de plus petite dimension possible et $$R_s(Y)=dim(F_0)=r.$$

12. dans cette question, on reprend les définitions et notations de la question 6.

a) A l'aide de la question 6.d), montrer que le rang stochastique $R_s(T)$ de $T$ est égale à $k$.

Afficher

Référence programme : VII-6.

Supposons que $T$ admet un support vectoriel $F\neq{\cal M}_{k,1}$, prenons alors un vecteur non nul de $v\in F^\bot$ et nous aurions pour preque tout $\omega$ : $\langle v,T\rangle=0,$ soit encore si on note $v_i$ les coordonnées de $v$ : $$\sum_{i=1}^kv_iT_i=0.$$ Or d'après 6.d) et le fait que toutes les coordonnées de $v$ ne sont pas nulles (car $v$ non nulle), $V\left(\sum_{i=1}^kv_iT_i\right)>0$ ce qui rend impossible la dernière égalité. Par conséquent $T$ n'admet pas d'autres support vectoriel que ${\cal M}_{k,1}$.

b) Montrer que pour tout $i\in\mathbb N^*$, on a : $E(T_1T_2|[T_1=i]\cap[T_2>i])=i\left(i+\frac{1}{p_2}\right)$.

Afficher

Référence programme : VII-17.

On a : $$\begin{align} E(T_1T_2|[T_1=i]\cap[T_2>i])&=E(iT_2|[T_1=i]\cap[T_2>i])\\ &=iE(T_2|[T_1=i]\cap[T_2>i]). \end{align},$$ Maitnenant sachant que $[T_1=i]\cap[T_2>i]$, tout se passe comme si nous avions décalé l'expérience de $i$ dans le temps pour $T_2$ donc : $$E(T_2|[T_1=i]\cap[T_2>i])=E(T_2+i)=E(T_2)+i=\frac{1}{p_2}+i,$$ et le résultat suit.

c) Etablir la relation : $E(T_1T_2)=\frac{1}{p_1p_2}-\frac{1}{p_1+p_2}$.

Afficher

Références programme : VII-11,17.

On observe en premier lieu que : $$\Omega=\{T_2>T_1\}\cup\{T_1>T_2\}=\bigcup_{i=1}^{+\infty}\left(\{T_1=i\}\cap\{T_2>i\}\right)\cup\left(\{T_2=i\}\cap\{T_1>i\}\right).$$ Cette dernière réunion forme un système complet d'évènements. On peut alors appliquer la formule de l'espérance totale : $$E(T_1T_2)=\sum_{i=1}^{+\infty}E(T_1T_2|[T_1=i]\cap[T_2>i])P([T_1=i]\cap[T_2>i])+E(T_1T_2|[T_2=i]\cap[T_1>i])P([T_2=i]\cap[T_1>i]).$$ Or $P([T_1=i]\cap[T_2>i])=P(T_1=i)P_{T_1=i}(T_2>i)=(1-p_2)^{i-1}(1-p_1)^{i-1}p_1$ et de même pour $P([T_2=i]\cap[T_1>i])$, alors grâce à la question 12.b), on a : $$\begin{align} E(T_1T_2)&=\sum_{i=1}^{+\infty}i\left(i+\frac{1}{p_2}\right)(1-p_2)^{i-1}(1-p_1)^{i-1}p_1+i\left(i+\frac{1}{p_1}\right)(1-p_1)^{i-1}(1-p_2)^{i-1}p_2\\ &=\sum_{i=1}^{+\infty}i^2\left((1-p_1)(1-p_2)\right)^{i-1}(p_1+p_2)+\sum_{i=1}^{+\infty}i\left((1-p_1)(1-p_2)\right)^{i-1}\left(\frac{p_1}{p_2}+\frac{p_2}{p_1}\right). \end{align}$$ Enfin on termine en reconnaissant une série géométrique dérivée et une série géométrique dérivée seconde.

d) On note $\Pi=(\pi_{i,j})_{1\leq i,j\leq k}$ la matrice de ${\cal M}_k(\mathbb R)$ définie par : $\pi_{i,j}=\begin{cases}\frac{1-p_i}{p_i^2}\text{ si }i=j\\ -\frac{1}{p_i+p_j}\end{cases}\text{ si }i\neq j$.

Montrer que la matrice $\Pi$ est inversible.

Afficher

Référence programme : .

Grâce à la question 12.c) on peut calculer $Cov(T_i,T_j)=E(T_iT_j)-E(T_i)E(T_j)$ avec $i\neq j$ et on trouve $Cov(T_i,T_j)=-\frac{1}{p_i+p_j}$. Avec ce calcul, on peut alors obtenir ${\cal V}(T)$ et en fait observer que ${\cal V}(T)=\Pi$. D'autre part nous avons vu en 11.d) que le rang stochastique est égal au rang de ${\cal V}$, c'est à dire ici : $$rg(\Pi)=rg({\cal V}(T))=R_s(T).$$ Mais d'après 12.a) $R_s(T)=k$ donc $\Pi$ est de rang $k=dim({\cal M}_{k,1})$, c'est à dire que $\Pi$ est inversible. CQFD.

Pour afficher le fil des commentaires : Commentaires.


Pour poster un commentaire ou obtenir de l'aide : c'est ici!




Formulaire

L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :

Contacter l'auteur du site : frederic.millet @ math-sup.fr