Dans cette partie, $X$ suit la loi normale d'espérance $\theta$ et de variance égale à 1. On suppose que le paramètre réel $\theta$ est inconnu.
On note $\Phi$ la fonction de répartition de la loi normale centrée réduite.
On rappelle que pour $n$ entier de $\mathbb N^*$, $(X_1,X_2,\dots,X_n)$ est un $n$ échantillon i.i.d de la loi de $X$.
5. Quelle est la loi de $\overline{X_n}$? Montrer que $\overline{X_n}$ est une estimateur sans biais et convergent du paramètre $\theta$.
Comme $(X_1,X_2,\dots,X_n)$ sont $n$ variables aléatoires Gaussiennes indépendantes, $\overline{X_n}$ suit également une loi Gaussienne ${\cal N}(\theta,\frac{1}{n})$. Comme $E(\overline{X_n})=\theta$, $\overline{X_n}$ est sans biais. D'autre part $\overline{X_n}$ est convergent par la loi faible des grands nombres.
6. Soit $\alpha$ un réel tel que $0<\alpha<\!1$. On appelle marge d'erreur associée à un intervalle de confiance de $\theta$ au risque $\alpha$, le réel positif noté $\mu(\alpha)$, égal à la demi-longueur de cet intervalle.
a) Justifier l'existence de la fonction réciproque $\Phi^{-1}$ de la fonction $\Phi$.
$\Phi$ est continue strictement croissante, donc on peut appliquer le théorème de la bijection.
b) Déterminer un intervalle de confiance du paramètre $\theta$ au risque $\alpha$ dont le milieu est $\overline{X_n}$.
Vérifier que $\mu(\alpha)=-\frac{\Phi^{-1}(\alpha/2)}{\sqrt{n}}$.
Par définition de $\mu(\alpha)$, un intervalle de confiance centré en $\overline{X_n}$ est $[\overline{X_n}-\mu(\alpha),\overline{X_n}+\mu(\alpha)]$. On a donc : $$1-\alpha=P\left(\overline{X_n}-\mu(\alpha)\leq\theta\leq\overline{X_n}+\mu(\alpha)\right)=P\left(-\mu(\alpha)\sqrt{n}\leq(\theta-\overline{X_n})\sqrt{n}\leq\mu(\alpha)\sqrt{n}\right).$$ Or comme $\overline{X_n}\sim{\cal N}(\theta,\frac{1}{n})$, on a $(\theta-\overline{X_n})\sqrt{n}\sim{\cal N}(0,1)$ et donc l'égalité précédente s'écrit : $$1-\alpha=\Phi\left(\mu(\alpha)\sqrt{n}\right)-\Phi\left(-\mu(\alpha)\sqrt{n}\right).$$ Or en utilisant les symétries de la loi normale centrée réduite, on a aussi : $$\frac{\alpha}{2}=\Phi\left(-\mu(\alpha)\sqrt{n}\right).$$ En inversant cette dernière inégalité, on trouve l'égalité demandée.
c) on considère un risque $\beta$ $(\beta\neq\alpha)$ tel que $\mu(\beta)=b\mu(\alpha)$, avec $0<\!b<\!1$. Exprimer $\beta$ en fonction de $\alpha$. Comparer $\alpha$ et $\beta$. Commenter.
En remplaçant $\mu(\alpha)$ et $\mu(\beta)$ à l'aide de l'expression trouvée en b), on trouve $$\beta=2\Phi\left(\frac{1}{b}\Phi^{-1}\left(\frac{\alpha}{2}\right)\right).$$ Comme $\frac{\alpha}{2}<\!1$, on a $\Phi^{-1}\left(\frac{\alpha}{2}\right)<\!0$ et comme $\frac{1}{b}>1$, on a $\frac{1}{b}\Phi^{-1}\left(\frac{\alpha}{2}\right)>\Phi^{-1}\left(\frac{\alpha}{2}\right)$. Et donc comme $\Phi$ est strictement croissante, on a $\beta>2\Phi\left(\Phi^{-1}\left(\frac{\alpha}{2}\right)\right)=\alpha$. Donc si l'intervalle de confiance diminue, le risque augmente.
7. On note ${\cal E}_\theta$ l'ensemble des statistiques $U_n=g_n(X_1,X_2,\dots,X_n)$, où $g_n$ est une fonction de $\mathbb R^n$ dans $\mathbb R$, qui sont des estimateurs sans biais de $\theta$ et qui admettent une variance.
Sous réserve d'existence, on dit qu'un élément $Z_n$ de ${\cal E}_\theta$ est un estimateur optimal dans ${\cal E}_\theta$, si pour tout $U_n$ de ${\cal E}_\theta$, on a : $V(Z_n)\leq V(U_n)$.
On admet que pour tout $U_n$ de ${\cal E}_\theta$, on a : $Cov(\overline{X_n},U_n-\overline{X_n})=0$.
a) Montrer que ${\cal E}_\theta$ n'est pas vide.
$\overline{X_n}$ est sans biais et admet une variance donc est dans ${\cal E}_\theta$. ${\cal E}_\theta$ est donc non vide.
b) Montrer que $\overline{X_n}$ est optimal dans ${\cal E}_\theta$.
On a grâce à $Cov(\overline{X_n},U_n-\overline{X_n})=0$ : $$V(U_n)=V((U_n-\overline{X_n})+\overline{X_n})=V(U_n-\overline{X_n})+2Cov(U_n-\overline{X_n},\overline{X_n})+V(\overline{X_n})=V(U_n-\overline{X_n})+V(\overline{X_n})\geq V(\overline{X_n}).$$ D'où l'optimalité.
c) Soit $Z_n$ un estimateur optimal dans ${\cal E}_\theta$. On pose pour tout $U_n$ de ${\cal E}_\theta$ et pour tout $\lambda$ réel : $A_n(\lambda)=Z_n+\lambda(U_n-Z_n)$.
Montrer que $A_n(\lambda)$ est un élément de ${\cal E}_\theta$. Calculer $V(A_n(\lambda))$. En déduire que $Cov(Z_n,U_n-Z_n)=0$.
On a par linéarité de l'espérance $E(A_n(\lambda))=E(Z_n)+\lambda(E(U_n)-E(Z_n))=\theta+\lambda(\theta-\theta)=\theta$. Donc $A_n(\lambda)$ est sans biais. D'autre part comme $Z_n$ et $U_n$ admettent une variance, une combinaison linéaire de ces deux variables aléatoires aussi et donc $A_n(\lambda)$ admet une variance. On a donc bien que $A_n(\lambda)$ est dans ${\cal E}_\theta$.
Le calcul de la variance donne : $$V(A_n(\lambda))=V(Z_n)+\lambda Cov(Z_n,U_n-Z_n)+\lambda^2V(U_n-Z_n).$$
Comme $Z_n$ est supposée optimale, on a $V(A_n(\lambda))\geq V(Z_n)$ et donc pour tout $\lambda$ réel $$\lambda Cov(Z_n,U_n-Z_n)+\lambda^2 V(U_n-Z_n)\geq 0.(*)$$ On a maintenant plusieurs cas de figure. Si $U_n=Z_n$ alors forcément $Cov(Z_n,U_n-Z_n)=0$. Si maintenant $U_n\neq Z_n$, si jamais $Cov(Z_n,U_n-Z_n)\neq 0$, le polynôme $\lambda\mapsto \lambda Cov(Z_n,U_n-Z_n)+\lambda^2 V(U_n-Z_n)$ admet deux racines distinctes et donc change de signe. Ceci contredit $(*)$, donc forcément on doit avoir $Cov(Z_n,U_n-Z_n)=0$.
d) On suppose l'existence de deux estimateurs optimaux $\overline{X_n}$ et $Z_n$ dans ${\cal E}_\theta$.
Montrer que $Z_n=\overline{X_n}$ presque sûrement. Conclure.
Comme $\overline{X_n}$ et $Z_n$ sont optimaux, on a les deux égalité suivantes : $Cov(Z_n,\overline{X_n}-Z_n)=0$ et $Cov(\overline{X_n},Z_n-\overline{X_n})=0$. Il suit que : $$V(\overline{X_n}-Z_n)=Cov(\overline{X_n}-Z_n,\overline{X_n}-Z_n)=Cov(\overline{X_n},\overline{X_n}-Z_n)-Cov(Z_n,\overline{X_n}-Z_n)=0.$$ Il suit que $Z_n-\overline{X_n}$ est presque sûrement constant, disons par exemple $Z_n-\overline{X_n}=C$. Or $Z_n$ et $\overline{X_n}$ sont deux estimateurs sans biais de $\theta$ donc $$C=E(Z_n-\overline{X_n})=E(Z_n)-E(\overline{X_n})=\theta-\theta,$$ donc $C=0$ et $Z_n=\overline{X_n}$ presque sûrement. On en conclut que $\overline{X_n}$ est l'unique (au sens presque sûr) estimateur optimal de ${\cal E}_\theta$.
8. a) Justifier l'existence et l'unicité de la médiane théorique $M$ de $X$, et exprimer $M$ en fonction de $\theta$.
L'existence de $M$ provient de la stricte croissance de la fonction de répartition de la loi normale combinée avec le théorème de la bijection. On trouve d'autre part $M=\theta$.
b) Calculer $f_X(M)$. Montrer que pour tout réel $x$, on a : $F_X(2M-x)=1-F_X(x)$.
On trouve $f_X(M)=f_X(\theta)=\frac{1}{\sqrt{2\pi}}$. On a maintenant que $F_X(2M-x)=P(X\leq 2M-x)=P(X-M\leq M-x)$. On observe maintenant que $X-M=X-\theta$ suit une loi normale centrée, donc $X-M$ et $-(M-X)$ ont la même loi. Il suit que : $$F_X(2M-x)=P(M-X\leq M-x)=P(X\geq x)=1-P(X\leq x)=1-F_X(x).$$ Ce qui montre l'égalité.
En déduire une relation entre $f_X(2M-x)$ et $f_X(x)$.
Il suffit de dériver la relation établie. On trouve alors $f_X(2M-x)=f_X(x)$.
c) Etablir pour tout $k$ de $[\![1,n]\!]$, la relation : $E(Y_k-M)=E(M-Y_{n-k+1})$.
On observe que $f_{Y_k-M}(x)=f_{y_k}(x+M)$ donc grâce à la relation établie en I.1.e), on a $$f_{Y_k-M}(x)=f_{Y_k}(x+M)=k\begin{pmatrix}n\\ k\end{pmatrix}(F_X(x+M))^{k-1}(1-F_X(x+M))^{n-k}f_X(x+M).$$ Or on peut réécrire les relations établies en b) par $F_X(M-x)=1-F_X(x+M)$ et $f_X(M-x)=f_X(x+M)$ de sorte que $$f_{Y_k-M}(x)=k\begin{pmatrix}n\\ k\end{pmatrix}(1-F_X(M-x))^{k-1}(F_X(M-x))^{n-k}f_X(M-x)=f_{M-Y_{n-k+1}}(x).$$ $Y_k-M$ et $M-Y_{n-k+1}$ ayant des densités identiques, ils ont donc forcément même espérance.
d) En supposant que $n=2l+1$ ($l\in\mathbb N$), calculer $E(Y_{l+1})$, puis justifier que $V(Y_{l+1})\geq \frac{1}{n}$. Commenter.
Grâce à c), on a $E(Y_{l+1}-M)=E(M-Y_{l+1})$. Donc par linéarité de l'espérance, on en déduit que $E(Y_{l+1})=M=\theta$. $Y_{l+1}$ est un estimateur sans biais de $\theta$ qui admet une variance d'après la partie I.1.f), il est donc dans ${\cal E}_\theta$. Par optimalité de $\overline{X_n}$, on a $V(Y_{l+1})\geq V(\overline{X_n})=\frac{1}{n}$. On en déduit que l'estimateur "naturel" de la médiane n'est pas forcément le plus efficace.
Pour afficher le fil des commentaires : Commentaires.
Pour poster un commentaire ou obtenir de l'aide : c'est ici!
L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :
Contacter l'auteur du site : frederic.millet @ math-sup.fr