\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \begin{document} \section*{BANQUE COMMUNE D'EPREUVES} CONCOURS D'ADMISSION DE 2009\\ Concepteur : ESSEC\\ ESSECM2\_E \section*{OPTION ECONOMIQUE} \section*{MATHEMATIQUES II} Mardi 5 mai de 8 h à 12 h La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies.\\ Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs.\\ Ils ne doivent faire usage d'aucun document. L'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée.\\ Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre. \section*{Notations} \begin{itemize} \item Tout au long du sujet ( \(\Omega, \mathcal{F}, P\) ) désignera un espace probabilisé et les variables aléatoires utilisées seront toutes définies sur cet espace probabilisé. Sous réserve d'existence, l'espérance mathématique d'une variable aléatoire réelle \(X\) sera notée \(E(X)\) et sa variance sera notée \(V(X)\). \item Pour un événement \(A\), on notera \(P_{B}(A)\) la probabilité conditionnelle de \(A\) sachant \(B\) où \(B\) est un événement non négligeable. \end{itemize} Le sujet est composé de quatre parties. Les parties I, II, III et IV.A sont indépendantes. Il s'agit de variations autour de la notion de risque quadratique en théorie de l'estimation. \section*{I. Premier problème d'estimation} Dans ce premier problème d'estimation, on dispose d'une seule observation notée \(X\). On suppose que \(X\) admet pour densité \(f_{\theta}\) définie sur \(\mathbb{R}\) par \[ \begin{aligned} f_{\theta}(x) & =\frac{k+1}{\theta^{k+1}} x^{k} \text { pour tout } x \in[0, \theta] \\ & =0 \text { sinon } \end{aligned} \] où \(k\) est un entier naturel non nul et \(\theta\) un paramètre réel inconnu strictement positif que l'on souhaite estimer.\\ I. 1 Montrer que \(f_{\theta}\) est bien une densité de probabilité.\\ I. 2 Calculer \(E(X)\).\\ I. 3 Déterminer \(\lambda_{0}\) réel dépendant uniquement de \(k\) tel que \(\lambda_{0} X\) estime \(\theta\) sans biais.\\ I. 4 Calculer \(V(X)\). On définit le risque quadratique de \(T\) estimateur de \(\theta\) par \[ R(T, \theta)=E\left((T-\theta)^{2}\right) \] I. 5 Redémontrer le résultat du cours précisant que pour tout \(T\) estimateur de \(\theta\) \[ R(T, \theta)=(E(T)-\theta)^{2}+V(T) \] I. 6 Donner la valeur de \(R\left(\lambda_{0} X, \theta\right)\). Le but de la fin de cette partie I est de déterminer un estimateur de \(\theta\) ayant un plus petit risque quadratique que celui de \(\lambda_{0} X\).\\ I. 7 En utilisant I. 5 montrer que pour tout \(\lambda\) réel \[ R(\lambda X, \theta)=\theta^{2} Q(\lambda) \] où \(Q\) est un polynôme de degré 2 dont les coefficients ne dépendent que de \(k\).\\ I. 8 Montrer que la fonction \(\lambda \mapsto Q(\lambda)\) atteint son minimum en un unique réel noté \(\lambda^{*}\) que l'on exprimera en fonction de \(k\).\\ I. 9 Conclure sur le but recherché. \section*{II. Second problème d'estimation} Dans ce second problème d'estimation, on dispose de \(n\) observations indépendantes ( \(n \geq 2\) ) notées \(X_{1}, \ldots, X_{n}\) de même loi de Poisson de paramètre \(\theta\) inconnu \((\theta \in] 0,+\infty[)\). On souhaite estimer le paramètre \(\exp (-\theta)\). On définit pour tout \(i\) élément de \(\{1, \ldots, n\}\) la variable aléatoire \(Y_{i}\) par \[ Y_{i}=1 \text { si } X_{i}=0 \text { et } Y_{i}=0 \text { sinon. } \] Puis on note \[ \begin{gathered} \overline{Y_{n}}=\frac{1}{n} \sum_{i=1}^{n} Y_{i} \\ 2 / 7 \end{gathered} \] II. 1 Pour tout \(i\) élément de \(\{1, \ldots, n\}\), donner la loi de \(Y_{i}\).\\ II. 2 Donner la loi de \(\sum_{i=1}^{n} Y_{i}\), puis montrer que \(E\left(\overline{Y_{n}}\right)=\exp (-\theta)\). On dira dans ce cas que \(\overline{Y_{n}}\) est un estimateur sans biais de \(\exp (-\theta)\).\\ II. 3 Calculer \(V\left(\overline{Y_{n}}\right)\). Pour tout \(k\) élément de \(\{1, \ldots, n\}\) on définit \(S_{k}=\sum_{i=1}^{k} X_{i}\).\\ II. 4 Rappeler sans démonstration la loi de \(S_{k}\) pour tout \(k\) élément de \(\{1, \ldots, n\}\). On définit jusqu'à la fin de cette partie II pour tout \(j\) entier naturel \[ \varphi(j)=P_{\left\{S_{n}=j\right\}}\left(X_{1}=0\right) \] II. 5 Montrer que pour tout \(j\) entier naturel \[ \varphi(j)=\left(1-\frac{1}{n}\right)^{j} \] On a donc \(\varphi(j)\) indépendant du paramètre \(\theta\) inconnu.\\ D'après la question II.5, on peut définir l'estimateur \[ \varphi\left(S_{n}\right)=\left(1-\frac{1}{n}\right)^{S_{n}} \] II. 6 Montrer que \(\varphi\left(S_{n}\right)\) admet une espérance et que \(E\left(\varphi\left(S_{n}\right)\right)=\exp (-\theta)\). On dira dans ce cas que \(\varphi\left(S_{n}\right)\) est un estimateur sans biais de \(\exp (-\theta)\).\\ II. 7 Montrer que \(\varphi\left(S_{n}\right)\) admet une variance vérifiant \[ V\left(\varphi\left(S_{n}\right)\right)=\exp (-2 \theta)\left(\exp \left(\frac{\theta}{n}\right)-1\right) \] II. 8 On souhaite comparer les performances de \(\overline{Y_{n}}\) et \(\varphi\left(S_{n}\right)\) en tant qu'estimateurs de \(\exp (-\theta)\).\\ a. En utilisant le théorème des accroissements finis, démontrer que \[ 1 \leq \frac{\exp (\theta)-1}{\theta} \leq \exp (\theta) \] b. Soit la fonction \(h:[0,1] \rightarrow \mathbb{R}\) définie par \[ h(t)=t \exp (\theta)+(1-t)-\exp (t \theta) \] pour tout \(t \in[0,1]\). Etudier les variations de \(h\).\\ c. En déduire que \[ \exp \left(\frac{\theta}{n}\right) \leq \frac{\exp (\theta)}{n}+\frac{n-1}{n} \] puis l'inégalité \[ V\left(\varphi\left(S_{n}\right)\right) \leq V\left(\overline{Y_{n}}\right) \] d. On définit le risque quadratique de \(T_{n}\) estimateur de \(\exp (-\theta)\) par \[ R\left(T_{n}, \exp (-\theta)\right)=E\left(\left(T_{n}-\exp (-\theta)\right)^{2}\right) \] Comparer les risques quadratiques de \(\overline{Y_{n}}\) et \(\varphi\left(S_{n}\right)\).\\ On reprendra à la fin de la partie IV l'étude de \(\varphi\left(S_{n}\right)\). \section*{III. Information de Fisher} \section*{A. Cas discret} Dans cette section III.A, on considère \(I\) un intervalle de \(\mathbb{R}, \theta\) un paramètre inconnu de \(I\) et \(X\) une variable aléatoire à valeurs dans \(\mathbb{N}(X(\Omega) \subseteq \mathbb{N})\). On suppose qu'il existe une fonction \(p\) définie sur \(I \times X(\Omega)\) telle que pour tout \(k\) élément de \(X(\Omega)\) \[ P(X=k)=p(\theta, k) \] et vérifiant pour tout \(k\) de \(X(\Omega) \theta \mapsto p(\theta, k)\) dérivable sur \(I\).\\ On définit sous réserve d'existence l'information de Fisher de \(X\) par \[ I_{X}(\theta)=\sum_{k \in X(\Omega)}\left(\frac{\partial}{\partial \theta} \ln p(\theta, k)\right)^{2} p(\theta, k) \] III.A. 1 Dans cette question 1 , on considère \(X\) variable aléatoire de loi de Bernoulli de paramètre \(\theta(\theta \in] 0,1[)\). On a alors \(X(\Omega)=\{0,1\}, P(X=1)=p(\theta, 1)=\theta, P(X=0)=p(\theta, 0)=1-\theta\) et \[ I_{X}(\theta)=\left(\frac{\partial}{\partial \theta} \ln p(\theta, 1)\right)^{2} p(\theta, 1)+\left(\frac{\partial}{\partial \theta} \ln p(\theta, 0)\right)^{2} p(\theta, 0) \] Montrer que \[ I_{X}(\theta)=\frac{1}{\theta(1-\theta)} \] III.A. 2 Dans cette question 2, on considère \(X\) variable aléatoire de loi binomiale de paramètres \(N\) et \(\theta\left(N \in \mathbb{N}^{*}, \theta \in\right] 0,1[)\).\\ a. Montrer que \[ I_{X}(\theta)=\frac{1}{(\theta(1-\theta))^{2}} \sum_{k=0}^{N}(k-N \theta)^{2}\binom{N}{k} \theta^{k}(1-\theta)^{N-k} \] b. En déduire que \[ I_{X}(\theta)=\frac{V(X)}{(\theta(1-\theta))^{2}} \] puis donner la valeur de \(I_{X}(\theta)\).\\ III.A. 3 Dans cette question 3 , on considère \(X\) une variable aléatoire de loi de Poisson de paramètre \(\theta(\theta \in] 0,+\infty[)\). Puisque \(X(\Omega)=\mathbb{N}\), on a sous réserve de convergence \[ I_{X}(\theta)=\sum_{k=0}^{+\infty}\left(\frac{\partial}{\partial \theta} \ln p(\theta, k)\right)^{2} p(\theta, k) \] a. Montrer que la série de terme général \(\left(\frac{\partial}{\partial \theta} \ln p(\theta, k)\right)^{2} p(\theta, k)\) converge et calculer sa somme \(I_{X}(\theta)\).\\ b. Justifier que \[ I_{X}(\theta)=E\left(\left(\frac{\partial}{\partial \theta} \ln p(\theta, X)\right)^{2}\right) \] \section*{B. Cas d'une variable gaussienne} Soit \(X\) une variable aléatoire qui suit la loi normale de moyenne \(\theta(\theta \in \mathbb{R})\) et de variance 1 dont la densité est notée \(x \mapsto f(\theta, x)\). On définit sous réserve de convergence l'information de Fisher de \(X\) par \[ I_{X}(\theta)=\int_{-\infty}^{+\infty}\left(\frac{\partial}{\partial \theta} \ln (f(\theta, x))\right)^{2} f(\theta, x) d x \] III.B. 1 Montrer que sous réserve de convergence \[ I_{X}(\theta)=\int_{-\infty}^{+\infty}(x-\theta)^{2} f(\theta, x) d x \] III.B. 2 En déduire l'existence et la valeur de \(I_{X}(\theta)\).\\ III.B. 3 Justifier que \[ I_{X}(\theta)=E\left(\left(\frac{\partial}{\partial \theta} \ln (f(\theta, X))\right)^{2}\right) \] \section*{IV. Minoration du risque quadratique} \section*{A. Inégalité de Cramer-Rao} Dans cette section IV.A, on considère \(I\) un intervalle de \(\mathbb{R}, \theta\) un paramètre inconnu de \(I\) et \(X\) une variable aléatoire telle que \(X(\Omega)=\{0, \ldots, N\}(N \in \mathbb{N})\). On suppose qu'il existe une fonction \(p\) définie sur \(I \times X(\Omega)\) telle que pour tout \(k \in\{0, \ldots, N\}\) \[ P(X=k)=p(\theta, k) \] et vérifiant : \begin{itemize} \item pour tout \(k \in\{0, \ldots, N\}, \theta \mapsto p(\theta, k)\) dérivable sur \(I\), \item l'information de Fisher de \(X\) notée \(I_{X}(\theta)\) définie dans la partie III est non nulle pour tout \(\theta \in I\). \end{itemize} Le but de la section IV.A est de démontrer l'inégalité suivante dûe à Cramer et Rao. \section*{Théorème de Cramer-Rao} Soit \(f(X)\) un estimateur sans biais de \(g(\theta)\) à savoir tel que \(E(f(X))=g(\theta)\) où \(g\) est dérivable sur \(I\). On a alors \[ V(f(X)) \geq \frac{\left(g^{\prime}(\theta)\right)^{2}}{I_{X}(\theta)} \] IV.A. 1 Montrer que pour tout \(\theta\) élément de \(I\) \[ \sum_{k=0}^{N} \frac{\partial}{\partial \theta}(p(\theta, k))=0 \] IV.A. 2 En déduire que pour tout \(\theta\) élément de \(I\) \[ E\left(\frac{\partial}{\partial \theta} \ln (p(\theta, X))\right)=0 \] IV.A. 3 En dérivant partiellement par rapport à \(\theta\) les deux membres de l'égalité \((E)\), montrer que pour tout \(\theta\) élément de \(I\) \[ E\left(\frac{\partial^{2}}{\partial \theta^{2}} \ln (p(\theta, X))\right)=-E\left(\left(\frac{\partial}{\partial \theta} \ln (p(\theta, X))\right)^{2}\right) \] IV.A. 4 Montrer que pour tout \(\theta\) élément de \(I\) \[ g^{\prime}(\theta)=\sum_{k=0}^{N} f(k)\left(\frac{\partial}{\partial \theta} \ln (p(\theta, k))\right) p(\theta, k) \] puis que \[ g^{\prime}(\theta)=E\left((f(X)-g(\theta)) \frac{\partial}{\partial \theta} \ln (p(\theta, X))\right) \] IV.A. 5 On pose pour tout \(t\) réel \[ L(t)=E\left(\left((f(X)-g(\theta))+t \frac{\partial}{\partial \theta} \ln (p(\theta, X))\right)^{2}\right) \] a. Développer le polynôme \(L\) suivant les puissances décroissantes de \(t\).\\ b. Calculer le discriminant \(\Delta\) de \(L\) et justifier que \(\Delta \leq 0\).\\ c. En déduire l'inégalité de Cramer-Rao. \section*{B. Extension du théorème de Cramer-Rao} On reprend dans cette section IV.B les notations et hypothèses de la partie II. On admet que, dans ce contexte, le théorème de Cramer-Rao peut se généraliser comme suit : \section*{Théorème de Cramer-Rao} Soit \(T_{n}=f\left(X_{1}, \ldots, X_{n}\right)\) un estimateur sans biais de \(g(\theta)\) à savoir tel que \(E\left(f\left(X_{1}, \ldots, X_{n}\right)\right)=g(\theta)\) où \(g\) est dérivable sur \(] 0,+\infty[\). On a alors \[ V\left(T_{n}\right) \geq \frac{\left(g^{\prime}(\theta)\right)^{2}}{n I_{X_{1}}(\theta)} \] où \(I_{X_{1}}(\theta)\) est l'information de Fisher d'une variable aléatoire de loi de Poisson de paramètre \(\theta\) définie et calculée à la partie III. Il s'agit dans cette section d'exploiter cette nouvelle inégalité de Cramer-Rao. On note \[ \overline{X_{n}}=\frac{1}{n} \sum_{i=1}^{n} X_{i} \] IV.B. 1 Calculer \(E\left(\overline{X_{n}}\right)\) et \(V\left(\overline{X_{n}}\right)\).\\ IV.B. 2 Déduire de la généralisation de Cramer-Rao, que \(\overline{X_{n}}\) a le plus petit risque quadratique parmi les estimateurs sans biais de \(\theta\).\\ IV.B. 3 Montrer que pour \(g(\theta)=\exp (-\theta)\) où \(\theta \in] 0,+\infty[\) \[ V\left(\varphi\left(S_{n}\right)\right) \underset{n \rightarrow+\infty}{\sim} \frac{\left(g^{\prime}(\theta)\right)^{2}}{n I_{X_{1}}(\theta)} \] IV.B. 4 Que prouve ce résultat en terme d'optimalité de \(\varphi\left(S_{n}\right)\) dans l'estimation de \(\exp (-\theta) ?\)\\ IV.B. 5 A la lumière de la partie I, peut-on conclure que lorsque \(n\) est grand \(\varphi\left(S_{n}\right)\) est le meilleur estimateur de \(\exp (-\theta)\) en terme de risque quadratique? \end{document}