Cours et vidéos

Cours en ligne Vidéos classées

Concours corrigés

HECS
HECE

Programme de concours

HECS

Chaîne Youtube


Pour me soutenir



Autour du site

Auteur du site.
Cours particuliers.

Corrigé HEC math II 2013

Toutes les variables aléatoires qui interviennes dans ce problème sont définies sur un même espace probabilisé $(\Omega,{\cal A},P)$ et à valeurs réelles.

L'objectif du problème est d'introduire une famille de lois de probabilité discrètes, dites lois de Poisson mélangées, qui jouent un rôle important en mathématiques de l'assurance, car elles permettent de modéliser le nombre d'apparitions d'évènement aléatoires provenant de sources hétérogènes.


Partie I. Polynômes factoriels ascendants et lois binomiales négatives


Pour tout réel $x$ et tout entier naturel $n$, on pose : $x^{<\!n>}=\begin{cases}\Pi_{k=1}^n(x+k-1) & \text{ si } & n\geq 1\\ 1 & \text{ si } & n=0\end{cases}$.

On associe aux fonctions polynomiales $x\mapsto x^{<\!n>}$, les polynômes $X^{<\!n>}$ (n\in\mathbb N) de $\mathbb R[X]$, dits polynômes factoriels ascendants.

1.a) Vérifier les égalités : $X^2=X^{<\!2>}-X^{<\!1>}$ et $X^3=X^{<\!3>}-3X^{<\!2>}+X^{<\!1>}$.

Afficher

$$X^{<\!2>}-X^{<\!1>}=X(X+1)-X=X^2$$ et pareil pour la seconde égalité.

b) Exprimer $X^4$ comme combinaison linéaire des polynômes $X^{<\!4>}$, $X^{<\!3>}$, $X^{<\!2>}$ et $X^{<\!1>}$.

Afficher

On développe $-6$ et on remplace $X^3$, $X^2$ par les expressions obtenues en 1)a) et on trouve : $$X^4=X^{<\!4>}-6X^{<\!3>}+2X^{<\!2>}+2X^{<\!1>}.$$

c) Justifier plus généralement que les polynômes $X^n$ ($n\in\mathbb N$) de la base canonique de $\mathbb R[X]$ sont tous des combinaisons linéaires de polynômes factoriels ascendants.

Afficher

On observe que $deg(X^{<\!k>})=k$, par conséquent $(X^{<\!k>})_{k\in\mathbb N}$ forme une base de $\mathbb R[X]$.

2. Soit $(r,s)$ un couple de réels et $n$ un entier naturel.

a) Exprimer $r^{<\!n+1>}$ en fonction de $r^{<\!n>}$.

Afficher

$r^{<\!n+1>}=r(r+1)\dots(r+n-1)(r+n)=r^{<\!n>}(r+n)$.

b) En déduire pour tout $k\in[\![0,n]\!]$, la relation $(r+s+n)r^{<\!k>}s^{<\!n-k>}=r^{<\!k+1>}s^{<\!n-k>}+r^{<\!k>}s^{<\!n-k+1>}$.

Afficher

$$\begin{align} (r+s+n)r^{<\!k>}s^{<\!n-k>}&=((r+k)+(s+n-k))r^{<\!k>}s^{<\!n-k>}\\ &=(r+k)r^{<\!k>}s^{<\!n-k>}+r^{<\!k>}(s+n-k)s^{<\!n-k>}\\ &=r^{<\!k+1>}s^{<\!n-k>}+r^{<\!k>}s^{<\!n-k+1>} \end{align}$$

c) Montrer par récurrence que pour tout $n\in\mathbb N$, on a : $(r+s)^{<\!n>}=\sum_{k=0}^n\begin{pmatrix}n\\ k\end{pmatrix}r^{<\!k>}s^{<\!n-k>}$.

Afficher

L'initialisation est immédiate. L'hérédité suit les mêmes lignes que la démonstration du binôme de Newton, c'est à dire : $$\begin{align} (r+s)^{<\!n+1>}&=(r+s+n)(r+s)^{<\!n>}\\ &=(r+s+n)\sum_{k=0}^n\begin{pmatrix}n\\ k\end{pmatrix}r^{<\!k>}s^{<\!n-k>}\text{ (par hypothèse de récurrence)}\\ &=\sum_{k=0}^n\begin{pmatrix}n\\ k\end{pmatrix}r^{<\!k+1>}s^{<\!n-k>}+r^{<\!k>}s^{<\!n-k+1>}\text{ (par la question 2)b))}\\ &=\sum_{k=0}^n\begin{pmatrix}n\\ k\end{pmatrix}r^{<\!k+1>}s^{<\!n-k>}+\sum_{k=0}^n\begin{pmatrix}n\\ k\end{pmatrix}r^{<\!k>}s^{<\!n-k+1>}\\ &=\begin{pmatrix}n\\ n\end{pmatrix}r^{<\!n+1>}s^{<\!0>}+\sum_{k=0}^{n-1}\begin{pmatrix}n\\ k\end{pmatrix}r^{<\!k+1>}s^{<\!n-k>}+\begin{pmatrix}n\\ 0\end{pmatrix}r^{<\!0>}s^{<\!n+1>}+\sum_{k=1}^n\begin{pmatrix}n\\ k\end{pmatrix}r^{<\!k>}s^{<\!n-k+1>}\\ &=\begin{pmatrix}n+1\\ n+1\end{pmatrix}r^{<\!n+1>}s^{<\!0>}+\sum_{k=0}^{n-1}\begin{pmatrix}n\\ k\end{pmatrix}r^{<\!k+1>}s^{<\!n-k>}+\begin{pmatrix}n\\ 0\end{pmatrix}r^{<\!0>}s^{<\!n+1>}+\sum_{k=0}^{n-1}\begin{pmatrix}n\\ k+1\end{pmatrix}r^{<\!k+1>}s^{<\!n+1-(k+1)>}\\ &=\begin{pmatrix}n\\ 0\end{pmatrix}r^{<\!0>}s^{<\!n+1>}+\sum_{k=0}^{n-1}\left(\begin{pmatrix}n\\ k+1\end{pmatrix}+\begin{pmatrix}n\\ k\end{pmatrix}\right)r^{<\!k+1>}s^{<\!n+1-(k+1)>}+\begin{pmatrix}n+1\\ n+1\end{pmatrix}r^{<\!n+1>}s^{<\!0>}\\ &=\begin{pmatrix}n\\ 0\end{pmatrix}r^{<\!0>}s^{<\!n+1>}+\sum_{k=0}^{n-1}\begin{pmatrix}n+1\\ k+1\end{pmatrix}r^{<\!k+1>}s^{<\!n+1-(k+1)>}+\begin{pmatrix}n+1\\ n+1\end{pmatrix}r^{<\!n+1>}s^{<\!0>}\\ &=\begin{pmatrix}n\\ 0\end{pmatrix}r^{<\!0>}s^{<\!n+1>}+\sum_{k=1}^{n}\begin{pmatrix}n+1\\ k\end{pmatrix}r^{<\!k>}s^{<\!n+1-k>}+\begin{pmatrix}n+1\\ n+1\end{pmatrix}r^{<\!n+1>}s^{<\!0>}\\ &=\sum_{k=0}^{n+1}\begin{pmatrix}n+1\\ k\end{pmatrix}r^{<\!k>}s^{<\!n+1-k>} \end{align}$$ d'où l'hérédité.

3. Dans cette question, $r$ est un réel strictement positif et $x$ est un réel fixé de $]0,1[$. Pour tout $n\in\mathbb N$, on pose : $$u_n=\frac{r^{<\!n+1>}x^{n+1}}{n!(1-x)^{r+1}}\text{ et }R_n=\frac{r^{<\!n>}}{n!}\int_0^x\left(\frac{x-t}{1-t}\right)^n\frac{1}{(1-t)^{r+1}}dt$$.

a) Calculer $\lim_{n\to+\infty}\frac{u_{n+1}}{u_n}$.

Afficher

$$\frac{u_{n+1}}{u_n}=\frac{(r+n)x}{n+1}\overset{n\to+\infty}{\longrightarrow}x.$$

b) En déduire l'existence d'un entier naturle $N$ tel que pour tout $n\in\mathbb N$, on ait : $u_{N+n}\leq u_N\left(\frac{1+x}{2}\right)^n$.

Afficher

On observe d'abord que $$x<\! 1\Longrightarrow x+x<\! 1+x\Longrightarrow x<\!\frac{1+x}{2}.$$ Or comme $\lim_{n\to+\infty}\frac{u_{n+1}}{u_n}=x$ il exite donc un $N\in\mathbb N$ tel que $n>N\Longrightarrow \frac{u_n+1}{u_n}<\frac{1+x}{2}$. $x$ étant positif, cela implique aussi que $\forall n>N,u_{n+1}\leq \frac{1+x}{2}u_n$. Une petite récurrence permet alors de conclure.

c) Quelle est la limite de la suite $(u_n)_{n\in\mathbb N}$?

Afficher

Comme $x\in]0,1[$, on montre facilement que $0<\! \frac{1+x}{2}<\! 1$ donc $\lim_{n\to+\infty}\left(\frac{1+x}{2}\right)^n=0$. D'autre part comme $x$ est positif, $u_n$ aussi. Grâce à la question 3)b), on en déduit que $\lim_{n\to+\infty}u_n=0$.

d) A l'aide d'une formule de Taylor que l'on citera avec ses hypothèses, justifier pour tout $n\in\mathbb N$, l'égalité : $$(1-x)^{-r}=\sum_{k=0}^n\frac{r^{<\!k>}}{k!}x^k+R_n.$$

Afficher

On appliquera Taylor avec reste intégrale à la fonction $x\mapsto (1-x)^{-r}$ qui est ${\cal C}^\infty$ sur $[0,1[$.

e) Montrer que pour tout $t\in[0,x]$, on a : $0\leq\frac{x-t}{1-t}\leq x$. En déduire pour tout $n\in\mathbb N$, l'inégalité : $R_n\leq u_n$.

Afficher

On a $0\leq t\leq x<\! 1$ donc $t\geq xt$ et $-t\leq -xt$ puis $x-t\leq x-xt$ soit encore comme $t\leq x$, $0\leq x-t\leq x(1-t)$; Enfin comme $t<\! 1$, on a $1-t>0$ et donc $0\leq\frac{x-t}{1-t}\leq x$.

Grâce à l'inégalité précédente on a : $$R_n\leq\frac{r^{<\! n>}}{n!}\int_0^xx^n\frac{1}{(1-t)^{r+1}}dt\leq \frac{r^{<\! n>}}{n!}\int_0^xx^n\frac{1}{(1-x)^{r+1}}dt=u_n.$$

f) Déduire des résultats précédents que la série de terme général $\frac{r^{<\!n>}}{n!}x^n$ est convergente et que : $$\sum_{n=0}^{+\infty}\frac{r^{<\!n>}}{n!}x^n=\frac{1}{(1-x)^r}.$$

Afficher

Découle de 3)d) du fait que $0\leq R_n\leq u_n$ et que $u_n$ tend vers $0$ d'après 3)c).

4. Vérifier que pour tout couple $(r,p)$ de réels tels que $r>0$ et $0<\! p<\! 1$, on a : $\sum_{k=0}^{+\infty}\frac{r^{<\!k>}}{k!}p^r(1-p)^k=1$.

Afficher

Remplacer $x$ par $1-p$ dans 3)c) (possible car $0<\!1-p<\! 1$).

Dans toute la suite du problème, on dit qu'une variable aléatoire $X$ définie sur $(\Omega,{\cal A},P)$ à valeurs dans $\mathbb N$ suit une loi binomiale négative de paramètre $r$ ($r>0$) et $p$ ($0<\! p<\! 1$), si pour tout entier naturel $k$, on a : $P([X=k])=\frac{r^{<\!k>}}{k!}p^r(1-p)^k$. Cette loi sera notée $BN(r,p)$.

5. Soit $X$ une variable aléatoire qui suit la loi $BN(r,p)$.

a) Soit $n$ un entier supérieur ou égal à 1. Montrer que la variable aléatoire $X_n$ définie par $X_n=\Pi_{k=1}^n(X-k+1)$ admet une espérance égale à $r^{<\!n>}\left(\frac{1-p}{p}\right)^n$.

Afficher

Si l'espérance existe, par le théorème de transfert on doit avoir : $$E(X_n)=\sum_{k=0}^{+\infty}k(k-1)\dots(k-n+1)\frac{r^{<\!k>}}{k!}p^r(1-p)^k.$$ Or pour $k\in\{0,\dots,n-1\},\ k(k-1)\dots(k-n+1)=0$ donc par changement de variable : $$E(X_n)=\sum_{k=0}^{+\infty}(k+n)(k+n-1)\dots(k+1)\frac{r^{<\!k+n>}}{(k+n)!}p^r(1-p)^{k+n}=\sum_{k=0}^{+\infty}\frac{r^{<\!k+n>}}{k!}p^r(1-p)^{k+n}.$$ Maintenant on observe que $r^{<\!k+n>}=r(r+1)\dots(r+n-1)(r+n)\dots(r+n+k-1)=r^{<\! n>}(r+n)^{<\! k>}$ donc : $$E(X_n)=r^{<\! n>}p^r(1-p)^n\sum_{k=0}^{+\infty}\frac{(r+n)^{<\!k>}}{k!}(1-p)^{k},$$ et le résultat suit de la formule établie en 3)f).

b) En déduire que $X$ admet des moments de tous ordres. Calculer l'espérance et la variance de $X$.

Afficher

On observe que $X_n$ vu en tant que polynôme (et pas variable aléatoire) vérifie $deg(X_n)=n$, donc la famille $\{1,X_1,X_2,\dots\}$ forme une base de $\mathbb R[X]$ et donc $X^n$ est une combinaison linéaire de $\{1,X_1,X_2,\dots\}$. Or chacun des $X_i$ admet une espérance d'après 5)a) donc $X^n$ également. Par conséquent $X$ admet des moments de tous ordres.

Pour l'espérance de $X$ on a que : $$E(X)=E(X_1)=r\frac{1-p}{p},$$ et pour la variance : $$\begin{align} V(X)&=E(X^2)-E(X)^2\\ &=E(X(X-1)+X)-E(X)^2\\ &=E(X_2)+E(X)-E(X)^2\\ &=r(r-1)\left(\frac{1-p}{p}\right)^2+r\frac{1-p}{p}-r^2\left(\frac{1-p}{p}\right)^2, \end{align}$$ et je vous laisse simplifier!!

6. Soit $X$ et $Y$ deux variables aléatoires indépendantes suivant les lois $BN(r,p)$ et $BN(s,p)$, respectivement. On pose : $Z=X+Y$. Montrer que $Z$ suit la loi $BN(r+s,p)$.

Afficher

On a déjà $(X+Y)(\Omega)=\mathbb N$. De plus par indépendance de $X$ et $Y$, on a pour $n\in\mathbb N$ : $$\begin{align} P(X+Y=n)&=\sum_{k=0}^nP(X=k)P(Y=n-k)\\ &=\sum_{k=0}^n\frac{r^{<\!k>}}{k!}p^r(1-p)^k\frac{s^{<\!n-k>}}{(n-k)!}p^s(1-p)^{n-k}\\ &=p^{r+s}(1-p)^n\frac{1}{n!}\sum_{k=0}^n\begin{pmatrix}n\\ k\end{pmatrix}r^{<\!k>}s^{<\!n-k>}\\ &=p^{r+s}(1-p)^n\frac{1}{n!}(r+s)^{<\! n>}\text{ (d'après 2)c))} \end{align}$$ d'où le résultat.

Pour afficher le fil des commentaires : Commentaires.


Pour poster un commentaire ou obtenir de l'aide : c'est ici!




Formulaire

L'insertion de formules suit la syntaxe LATEX. Toute formule doit être encadrée par des dollars : $\bf{\$formule\$}$. Par exemple $\bf{\$ u\_n \$}$ sera interprétée comme une formule et donnera $\bf{u_n}$. Voici quelques exemples pour ceux qui ne sont pas habitués :

Contacter l'auteur du site : frederic.millet @ math-sup.fr