Cours et vidéos

Cours en ligne Vidéos classées

Concours corrigés

HECS
HECE

Programme de concours

HECS

Chaîne Youtube


Pour me soutenir



Autour du site

Auteur du site.
Cours particuliers.


Partie II


Partie II. Etude de la variable aléatoire $\ln(X_t)$

Soit $(Y_k)_{k\geq 1}$ une suite de variables aléatoires indépendantes de même loi exponentielle de paramètre 1. On suppose que pour tout réel $\alpha>0$, $X_\alpha$ est indépendante de chacune des variables aléatoires de la suite $(Y_k)_{k\geq 1}$.

On pose : $S_0=0$ et pour tout $k$ de $\mathbb N^*$, $S_k=\sum_{i=1}^kY_i.$

6. Rappeler sans démonstration la loi de $S_k$ ainsi que les valeurs respectives de $E(S_k)$ et $V(S_k)$.

Afficher

Une loi exponentielle est en fait une loi gamma de paramètre 1. D'autre part la somme de deux variables aléatoires indépendantes de loi gamma et de paramètre $\lambda_1$ et $\lambda_2$ est encore une loi gamma de paramètre $\lambda_1+\lambda_2$. Il suit que $S_k$ suit une loi gamma de paramètre k. L'espérance et la variance de $S_k$ sont k.

7.a) Justifier pour tout n de $\mathbb N^*$, l'égalité suivante : $\displaystyle\ln(X_t)=\ln\left(\prod_{k=1}^n\frac{X_t+S_{k-1}}{X_t+S_k}\right)+\ln(X_t+S_n)$.

Afficher

Il suffit de développer le terme de droite en utilisant le fait que le logarithme transforme le produit en somme et le fait que $\ln\frac{a}{b}=\ln a-\ln b$. Enfin on reconnaitra une somme téléscopique.

b) Montrer que pour tout entier m de $\mathbb N^*$, la loi de $X_t+S_m$ est celle de $X_{t+m}$.

Afficher

Utiliser le fait que la somme de deux lois gamma indépendantes suit encore une loi gamma et le fait que $X_t$ est indépendant des $(Y_k)_{k\geq 1}$.

On admet jusqu'à la fin du problème les résultats suivants :

8. On pose pour tout k de $\mathbb N^*$ : $R_{t,k}=\frac{X_t+S_{k-1}}{X_t+S_k}$.

a) Montrer que $R_{t,1}$ et $R_{t,2}$ sont indépendantes. On admet dans la suite que les variables aléatoires $R_{t,k}$ $k\geq 1$ sont indépendantes.

Afficher

On réécris d'abord $R_{t,1}$ et $R_{t,2}$ : $$R_{t,1}=\frac{X_t}{X_t+Y_1}\text{ et }R_{t,2}=\frac{X_t+Y_1}{X_t+Y_1+Y_2}.$$ On sait que $X_t$ et $Y_1$ suivent des lois gammas et sont indépendantes, donc d'après la troisième règle admise $\frac{X_t}{X_t+Y_1}$ et $X_t+Y_1$ sont indépendantes. D'autre part $Y_2$ est indépendante de $X_t$ et $Y_1$, donc $\frac{X_t}{X_t+Y_1}$, $X_t+Y_1$ et $Y_2$ sont indépendantes. En utilisant convenablement la première règle admise, on a alors que $\frac{X_t}{X_t+Y_1}$ et $\frac{X_t+Y_1}{X_t+Y_1+Y_2}$ sont indépendantes.

b) En déduire à l'aide des questions précédentes pour que tout n de $\mathbb N^*$, les variables aléatoires $\ln(X_t)$ et $\sum_{k=1}^n\ln(R_{t,k})+\ln(X_{t+n})$ sont de même loi.

Afficher

Grâce à 7)a), on a $\ln X_t=\sum_{k=1}^n\ln R_{t,k}+\ln(X_t+S_n)$. Grâce à la troisième propriété admise, $X_t+S_n$ est indépendante des $R_{t,k}$, il suit que si on vaut calculer une densité de $\sum_{k=1}^n\ln R_{t,k}+\ln(X_t+S_n)$, on peut faire le produit de convulution d'une densité de $\sum_{k=1}^n\ln R_{t,k}$ et de $\ln(X_t+S_n)$. Or $X_t+S_n$ suit la même loi que $X_{t+n}$, donc la convolution donnera la même densité que $\sum_{k=1}^n\ln R_{t,k}+\ln(X_{t+n})$ ce qui permet de conclure que les lois sont les mêmes.

9.a) Déterminer la loi de la variable aléatoire $-\ln U$.

Afficher

En calculant la fonction de répartition de $-\ln U$, on trouve que $\ln U$ suit une loi exponentielle de parmètre 1.

b) A l'aide de la question 5.e, calculer une densité $f_{R_{t,k}}$ de la variables aléatoire $R_{t,k}$.

Afficher

On réécrit $R_{t,k}$ sous la forme $R_{t,k}=\frac{X_t+S_{k-1}}{(X_t+S_{k-1})+Y_k}$. D'après 7.b), $X_t+S_{k-1}$ suit une loi gamma de paramètre $t+k-1$. Par indépendance de $X_t+S_{k-1}$ et de $Y_k$, en utilisant la formule de 5.e), $R_{t,k}$ admet pour densité : $$\begin{cases}& 0 \text{ si }z\not\in ]0,1[\\ & (t+k-1)z^{t+k-2} \text{ si } z\in ]0,1[\end{cases}.$$

c) Soit $(U_k)_{k\geq 1}$ une suite de variables aléatoires indépendantes de même loi U. Montrer que pour tout k de $\mathbb N^*$, les variables aléatoires $R_{t,k}$ et $U_k^{\frac{1}{t+k-1}}$ sont de même loi.

Afficher

Encore une fois on calcule la fonction de répartition de $U^{\frac{1}{t+k-1}}$ puis on la dérive et on retrouve la densité trouvée en 9.b).

d) Déduire des questions précédentes que pour tout n de $\mathbb N^*$, la variable aléatoire $\ln(X_t)$ est de même loi que la variable aléatoire $\displaystyle\sum_{k=0}^{n-1}\left(\frac{1}{k+1}-\frac{Y_{k+1}}{t+k}\right)+\ln\left(\frac{X_{t+n}}{t+n}\right)+d_{n,t}-\gamma$.

Afficher

$R_{t,k}$ suit la même loi que $U^{\frac{1}{t+k-1}}$ donc $\ln R_{t,k}$ a même loi que $\frac{1}{t+k-1}\ln(U_k)$. Or les $R_{t,k}$ et $X_{t+n}$ sont indépendante et les $U_k$ et $X_{t+n}$ sont indépendantes donc $\sum_{k=1}^n\ln(R_{t,k})+\ln(X_{t+n})$ et $\sum_{k=1}^n\frac{1}{t+k-1}\ln(U_k)+\ln(X_{t+n})$ suivent la même loi (on peut le voir par exemple en revenant au produit de convolution). Enfin $-\ln U$ suit une loi exponentielle, c'est à dire la même loi que $Y_k$, donc par indépendance des $Y_k$ et $X_t$, on en déduit que $\sum_{k=1}^n\frac{1}{t+k-1}\ln(U_k)+\ln(X_{t+n})$ a même loi que $\sum_{k=1}^n\frac{1}{t+k-1}Y_k+\ln(X_{t+n})$. Efin on conclut en développant la formule donnée dans l'énoncé.

10. En utilisant les résultats des questions 1.c, 2.b, 3.c et 9.d, montrer que pour tout réel $t>0$, on a : $$E(\ln(X_t))=\psi(t)=-\gamma+\sum_{k=0}^\infty\left(\frac{1}{k+1}-\frac{1}{t+k}\right)\text{ et }V(\ln(X_t))=\psi'(t)=\sum_{k=0}^{+\infty}\frac{1}{(t+k)^2}.$$

Afficher

En prenant l'espérance de la formule 9.d), on trouve : $$E(\ln X_t)=-\gamma+\sum_{k=0}^{n-1}\frac{1}{k+1}-\frac{1}{t+k}+E\left(\ln\frac{X_{t+n}}{t+n}\right)+d_{n,t}.$$ Il faut donc démontrer que la somme des deux derniers termes tend vers 0 quand n tend vers l'infini. On sait déjà d'après 1.c) que $d_{n,t}$ tend vers 0 quand n tend vers l'infini. D'autre part d'après 3.c), $-\frac{1}{t+n-1}\leq E\left(\ln\frac{X_{t+n}}{t+n}\right)\leq 0$ donc le terme restant tend aussi vers 0. Pour la variance, grâce à l'indépendance des $Y_k$ et $X_t$, on a : $$V(\ln X_t)=\sum_{k=0}^{n-1}\frac{1}{(t+k)^2}+V\left(\ln\frac{X_{t+n}}{t+n}\right).$$ Or on a que $V\left(\ln\frac{X_{t+n}}{t+n}\right)=E\left(\ln^2\frac{X_{t+n}}{t+n}\right)-\left(E\left(\ln\frac{X_{t+n}}{t+n}\right)\right)^2$. Le second terme tend vers zéro par le même argument que pour l'espérance, tandis que le premier terme tend vers zéro en utilisant la dernière inégalité obtenue dans la question 3.c).

11. En utilisant la question 3.c, calculer $\lim_{t\to\infty}(\psi(t)-\ln t)$.

Afficher

D'après 3.c), $\psi(t)\leq 0$, donc $\psi(t)-\ln t\leq-\ln t$ qui tend vers moins l'infini en plus l'infini.

12. On pose : $W=U^{1/\mu}$, où $\mu$ désigne un paramètre réel strictement positif inconnu. Afin d'estimer $\mu$, on considère pour p supérieur ou égal à 3, un p-échantillon $(W_1,W_2,\dots,W_p)$ i.i.d de la loi de W.

On pose : $\displaystyle G_p=-p\left(\sum_{i=1}^p\ln W_i\right)^{-1}$. Justifier que la variable aléatoire $G_p$ est un estimateur du paramètre $\mu$. Est-il sans biais? Est-il convergent?

Afficher

$G_p$ est une fonction des $W_i$ qui suivent tous la même loi W et sont indépendantes, donc c'est un estimateur. $\ln W_i$ a même loi que $\frac{1}{\mu}\ln U_i$. Par indépendance des $W_i$ et des $U_i$, $G_p$ a donc même loi que $p\mu \left(\sum_{i=1}^p -\ln U_i\right)^{-1}$. D'après 9.a) $-\ln U_i$ suit une loi exponentielle de paramètre 1, donc par indépendance des $U_i$, $\sum_{i=1}^p-\ln U_i$ suit une loi gamma de paramètre p. Il suit alors d'après 3.a) que $E\left(\frac{1}{\sum_{i=1}^p-\ln U_i}\right)=\frac{1}{p-1}$. On en conclut donc que : $E(G_p)=\frac{p}{p-1}\mu$. L'estimateur est donc biaisé. Reste à voir la convergence. D'après ce qu'on vient de voir $G_p$ suit la même loi que $\frac{p\mu}{X_p}$. Soit alors $\epsilon>0$, on a $$\begin{align} P(|G_p-\mu|>\epsilon)&=P\left(\left|\frac{p\mu}{X_p}-\mu\right|>\epsilon\right)\\ &=P\left(\frac{X_p}{p}<\frac{\mu}{\epsilon+\mu}\text{ ou }\frac{X_p}{p}>\frac{\mu}{\mu-\epsilon}\right)\\ &\leq P\left(\frac{X_p}{p}<\frac{\mu}{\epsilon+\mu}\right)+P\left(\frac{X_p}{p}>\frac{\mu}{\mu-\epsilon}\right)\\ &= P\left(\ln\frac{X_p}{p}<\ln\frac{\mu}{\epsilon+\mu}\right)+P\left(\ln\frac{X_p}{p}>\ln\frac{\mu}{\mu-\epsilon}\right) \end{align}$$ Or on a les inclusions suivantes : $\left[\ln\frac{X_p}{p}<\ln\frac{\mu}{\epsilon+\mu}\right]\subset \left[\left|\ln\frac{X_p}{p}\right|>\left|\ln\frac{\mu}{\epsilon+\mu}\right|\right]$ et $\left[\ln\frac{X_p}{p}>\ln\frac{\mu}{\mu-\epsilon}\right]\subset\left[\left|\ln\frac{X_p}{p}\right|>\left|\ln\frac{\mu}{\mu-\epsilon}\right|\right]$. Il suit que : $$P(|G_p-\mu|>\epsilon)\leq P\left(\left|\ln\frac{X_p}{p}\right|>\left|\ln\frac{\mu}{\epsilon+\mu}\right|\right)+P\left(\left|\ln\frac{X_p}{p}\right|>\left|\ln\frac{\mu}{\mu-\epsilon}\right|\right).$$ Enfin grâce à 3.d), on sait que $\ln\frac{X_p}{p}$ tend vers 0 en probabilité donc les deux termes de l'inégalité ci-dessus tendent vers 0. $G_p$ converge donc en proba vers $\mu$, c'est un estimateur convergent.

13. On rappelle que l'appel à la fonction Pascal random a pour résultat un nombre de type real pris au hasard dans l'intervalle $[0,1[$.

a) Soit X la fonction Pascal suivante :

function X(lambda : real) : real;
begin
	X := -ln(1-random)/lambda
end;

Cette fonction simule une variable aléatoire réelle. Donner sa loi. Justifier votre réponse.

Afficher

En cherchant la fonction de répartition de $-\frac{\ln( 1-U)}{\lambda}$, on tombe sur une loi exponentielle de paramètre $\lambda$. $X$ simule donc une loi exponentielle.

b) Ecrire une fonction Pascal d'en-tête g(n : integer) : real simulant une variable aléatoire de loi $\gamma(n)$.

Afficher

On sait qu'une somme de n variables indépendante de loi exponentielle de paramètre 1 suit une loi gamma. En réexploitant le programme de la question précédente, le rpogramme suivant simule une loi gamma :

function g(n:integer):real;
begin
	var S : real;
	var i : integer;
	S := 0;
	for i := 1 to n do S := S - ln(1-random);
	g := S;
end;

c) Soit m la fonction Pascal suivante :

function m(p : integer) : real;
begin
	m := p/g(p)
end;

On appelle la fonction m pour différentes valeurs de p de plus en plus grandes. Que devrait-on constater?

Afficher

D'après la question 12, la suite devrait tendre vers 1.

Pour afficher le fil des commentaires : Commentaires.


Pour poster un commentaire ou obtenir de l'aide : c'est ici!




Formulaire

L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :

Contacter l'auteur du site : frederic.millet @ math-sup.fr