Cours et vidéos

Cours en ligne Vidéos classées

Concours corrigés

HECS
HECE

Programme de concours

HECS

Chaîne Youtube


Pour me soutenir



Autour du site

Auteur du site.
Cours particuliers.


Partie II. Existence et unicité d'un estimateur optimal

Dans cette partie, $X$ suit la loi normale d'espérance $\theta$ et de variance égale à 1. On suppose que le paramètre réel $\theta$ est inconnu.

On note $\Phi$ la fonction de répartition de la loi normale centrée réduite.

On rappelle que pour $n$ entier de $\mathbb N^*$, $(X_1,X_2,\dots,X_n)$ est un $n$ échantillon i.i.d de la loi de $X$.

5. Quelle est la loi de $\overline{X_n}$? Montrer que $\overline{X_n}$ est une estimateur sans biais et convergent du paramètre $\theta$.

Afficher

Comme $(X_1,X_2,\dots,X_n)$ sont $n$ variables aléatoires Gaussiennes indépendantes, $\overline{X_n}$ suit également une loi Gaussienne ${\cal N}(\theta,\frac{1}{n})$. Comme $E(\overline{X_n})=\theta$, $\overline{X_n}$ est sans biais. D'autre part $\overline{X_n}$ est convergent par la loi faible des grands nombres.

6. Soit $\alpha$ un réel tel que $0<\alpha<\!1$. On appelle marge d'erreur associée à un intervalle de confiance de $\theta$ au risque $\alpha$, le réel positif noté $\mu(\alpha)$, égal à la demi-longueur de cet intervalle.

a) Justifier l'existence de la fonction réciproque $\Phi^{-1}$ de la fonction $\Phi$.

Afficher

$\Phi$ est continue strictement croissante, donc on peut appliquer le théorème de la bijection.

b) Déterminer un intervalle de confiance du paramètre $\theta$ au risque $\alpha$ dont le milieu est $\overline{X_n}$.

Vérifier que $\mu(\alpha)=-\frac{\Phi^{-1}(\alpha/2)}{\sqrt{n}}$.

Afficher

Par définition de $\mu(\alpha)$, un intervalle de confiance centré en $\overline{X_n}$ est $[\overline{X_n}-\mu(\alpha),\overline{X_n}+\mu(\alpha)]$. On a donc : $$1-\alpha=P\left(\overline{X_n}-\mu(\alpha)\leq\theta\leq\overline{X_n}+\mu(\alpha)\right)=P\left(-\mu(\alpha)\sqrt{n}\leq(\theta-\overline{X_n})\sqrt{n}\leq\mu(\alpha)\sqrt{n}\right).$$ Or comme $\overline{X_n}\sim{\cal N}(\theta,\frac{1}{n})$, on a $(\theta-\overline{X_n})\sqrt{n}\sim{\cal N}(0,1)$ et donc l'égalité précédente s'écrit : $$1-\alpha=\Phi\left(\mu(\alpha)\sqrt{n}\right)-\Phi\left(-\mu(\alpha)\sqrt{n}\right).$$ Or en utilisant les symétries de la loi normale centrée réduite, on a aussi : $$\frac{\alpha}{2}=\Phi\left(-\mu(\alpha)\sqrt{n}\right).$$ En inversant cette dernière inégalité, on trouve l'égalité demandée.

c) on considère un risque $\beta$ $(\beta\neq\alpha)$ tel que $\mu(\beta)=b\mu(\alpha)$, avec $0<\!b<\!1$. Exprimer $\beta$ en fonction de $\alpha$. Comparer $\alpha$ et $\beta$. Commenter.

Afficher

En remplaçant $\mu(\alpha)$ et $\mu(\beta)$ à l'aide de l'expression trouvée en b), on trouve $$\beta=2\Phi\left(\frac{1}{b}\Phi^{-1}\left(\frac{\alpha}{2}\right)\right).$$ Comme $\frac{\alpha}{2}<\!1$, on a $\Phi^{-1}\left(\frac{\alpha}{2}\right)<\!0$ et comme $\frac{1}{b}>1$, on a $\frac{1}{b}\Phi^{-1}\left(\frac{\alpha}{2}\right)>\Phi^{-1}\left(\frac{\alpha}{2}\right)$. Et donc comme $\Phi$ est strictement croissante, on a $\beta>2\Phi\left(\Phi^{-1}\left(\frac{\alpha}{2}\right)\right)=\alpha$. Donc si l'intervalle de confiance diminue, le risque augmente.

7. On note ${\cal E}_\theta$ l'ensemble des statistiques $U_n=g_n(X_1,X_2,\dots,X_n)$, où $g_n$ est une fonction de $\mathbb R^n$ dans $\mathbb R$, qui sont des estimateurs sans biais de $\theta$ et qui admettent une variance.

Sous réserve d'existence, on dit qu'un élément $Z_n$ de ${\cal E}_\theta$ est un estimateur optimal dans ${\cal E}_\theta$, si pour tout $U_n$ de ${\cal E}_\theta$, on a : $V(Z_n)\leq V(U_n)$.

On admet que pour tout $U_n$ de ${\cal E}_\theta$, on a : $Cov(\overline{X_n},U_n-\overline{X_n})=0$.

a) Montrer que ${\cal E}_\theta$ n'est pas vide.

Afficher

$\overline{X_n}$ est sans biais et admet une variance donc est dans ${\cal E}_\theta$. ${\cal E}_\theta$ est donc non vide.

b) Montrer que $\overline{X_n}$ est optimal dans ${\cal E}_\theta$.

Afficher

On a grâce à $Cov(\overline{X_n},U_n-\overline{X_n})=0$ : $$V(U_n)=V((U_n-\overline{X_n})+\overline{X_n})=V(U_n-\overline{X_n})+2Cov(U_n-\overline{X_n},\overline{X_n})+V(\overline{X_n})=V(U_n-\overline{X_n})+V(\overline{X_n})\geq V(\overline{X_n}).$$ D'où l'optimalité.

c) Soit $Z_n$ un estimateur optimal dans ${\cal E}_\theta$. On pose pour tout $U_n$ de ${\cal E}_\theta$ et pour tout $\lambda$ réel : $A_n(\lambda)=Z_n+\lambda(U_n-Z_n)$.

Montrer que $A_n(\lambda)$ est un élément de ${\cal E}_\theta$. Calculer $V(A_n(\lambda))$. En déduire que $Cov(Z_n,U_n-Z_n)=0$.

Afficher

On a par linéarité de l'espérance $E(A_n(\lambda))=E(Z_n)+\lambda(E(U_n)-E(Z_n))=\theta+\lambda(\theta-\theta)=\theta$. Donc $A_n(\lambda)$ est sans biais. D'autre part comme $Z_n$ et $U_n$ admettent une variance, une combinaison linéaire de ces deux variables aléatoires aussi et donc $A_n(\lambda)$ admet une variance. On a donc bien que $A_n(\lambda)$ est dans ${\cal E}_\theta$.

Le calcul de la variance donne : $$V(A_n(\lambda))=V(Z_n)+\lambda Cov(Z_n,U_n-Z_n)+\lambda^2V(U_n-Z_n).$$

Comme $Z_n$ est supposée optimale, on a $V(A_n(\lambda))\geq V(Z_n)$ et donc pour tout $\lambda$ réel $$\lambda Cov(Z_n,U_n-Z_n)+\lambda^2 V(U_n-Z_n)\geq 0.(*)$$ On a maintenant plusieurs cas de figure. Si $U_n=Z_n$ alors forcément $Cov(Z_n,U_n-Z_n)=0$. Si maintenant $U_n\neq Z_n$, si jamais $Cov(Z_n,U_n-Z_n)\neq 0$, le polynôme $\lambda\mapsto \lambda Cov(Z_n,U_n-Z_n)+\lambda^2 V(U_n-Z_n)$ admet deux racines distinctes et donc change de signe. Ceci contredit $(*)$, donc forcément on doit avoir $Cov(Z_n,U_n-Z_n)=0$.

d) On suppose l'existence de deux estimateurs optimaux $\overline{X_n}$ et $Z_n$ dans ${\cal E}_\theta$.

Montrer que $Z_n=\overline{X_n}$ presque sûrement. Conclure.

Afficher

Comme $\overline{X_n}$ et $Z_n$ sont optimaux, on a les deux égalité suivantes : $Cov(Z_n,\overline{X_n}-Z_n)=0$ et $Cov(\overline{X_n},Z_n-\overline{X_n})=0$. Il suit que : $$V(\overline{X_n}-Z_n)=Cov(\overline{X_n}-Z_n,\overline{X_n}-Z_n)=Cov(\overline{X_n},\overline{X_n}-Z_n)-Cov(Z_n,\overline{X_n}-Z_n)=0.$$ Il suit que $Z_n-\overline{X_n}$ est presque sûrement constant, disons par exemple $Z_n-\overline{X_n}=C$. Or $Z_n$ et $\overline{X_n}$ sont deux estimateurs sans biais de $\theta$ donc $$C=E(Z_n-\overline{X_n})=E(Z_n)-E(\overline{X_n})=\theta-\theta,$$ donc $C=0$ et $Z_n=\overline{X_n}$ presque sûrement. On en conclut que $\overline{X_n}$ est l'unique (au sens presque sûr) estimateur optimal de ${\cal E}_\theta$.

8. a) Justifier l'existence et l'unicité de la médiane théorique $M$ de $X$, et exprimer $M$ en fonction de $\theta$.

Afficher

L'existence de $M$ provient de la stricte croissance de la fonction de répartition de la loi normale combinée avec le théorème de la bijection. On trouve d'autre part $M=\theta$.

b) Calculer $f_X(M)$. Montrer que pour tout réel $x$, on a : $F_X(2M-x)=1-F_X(x)$.

Afficher

On trouve $f_X(M)=f_X(\theta)=\frac{1}{\sqrt{2\pi}}$. On a maintenant que $F_X(2M-x)=P(X\leq 2M-x)=P(X-M\leq M-x)$. On observe maintenant que $X-M=X-\theta$ suit une loi normale centrée, donc $X-M$ et $-(M-X)$ ont la même loi. Il suit que : $$F_X(2M-x)=P(M-X\leq M-x)=P(X\geq x)=1-P(X\leq x)=1-F_X(x).$$ Ce qui montre l'égalité.

En déduire une relation entre $f_X(2M-x)$ et $f_X(x)$.

Afficher

Il suffit de dériver la relation établie. On trouve alors $f_X(2M-x)=f_X(x)$.

c) Etablir pour tout $k$ de $[\![1,n]\!]$, la relation : $E(Y_k-M)=E(M-Y_{n-k+1})$.

Afficher

On observe que $f_{Y_k-M}(x)=f_{y_k}(x+M)$ donc grâce à la relation établie en I.1.e), on a $$f_{Y_k-M}(x)=f_{Y_k}(x+M)=k\begin{pmatrix}n\\ k\end{pmatrix}(F_X(x+M))^{k-1}(1-F_X(x+M))^{n-k}f_X(x+M).$$ Or on peut réécrire les relations établies en b) par $F_X(M-x)=1-F_X(x+M)$ et $f_X(M-x)=f_X(x+M)$ de sorte que $$f_{Y_k-M}(x)=k\begin{pmatrix}n\\ k\end{pmatrix}(1-F_X(M-x))^{k-1}(F_X(M-x))^{n-k}f_X(M-x)=f_{M-Y_{n-k+1}}(x).$$ $Y_k-M$ et $M-Y_{n-k+1}$ ayant des densités identiques, ils ont donc forcément même espérance.

d) En supposant que $n=2l+1$ ($l\in\mathbb N$), calculer $E(Y_{l+1})$, puis justifier que $V(Y_{l+1})\geq \frac{1}{n}$. Commenter.

Afficher

Grâce à c), on a $E(Y_{l+1}-M)=E(M-Y_{l+1})$. Donc par linéarité de l'espérance, on en déduit que $E(Y_{l+1})=M=\theta$. $Y_{l+1}$ est un estimateur sans biais de $\theta$ qui admet une variance d'après la partie I.1.f), il est donc dans ${\cal E}_\theta$. Par optimalité de $\overline{X_n}$, on a $V(Y_{l+1})\geq V(\overline{X_n})=\frac{1}{n}$. On en déduit que l'estimateur "naturel" de la médiane n'est pas forcément le plus efficace.

Pour afficher le fil des commentaires : Commentaires.


Pour poster un commentaire ou obtenir de l'aide : c'est ici!




Formulaire

L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :

Contacter l'auteur du site : frederic.millet @ math-sup.fr