\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \author{Concepteur : H.E.C. - E.S.C.P. - E.A.P.} \date{} \begin{document} \maketitle CODE EPREUVE :\\ 283\\ CCIP\_M2\_S \section*{OPTION SCIENTIFIQUE} \section*{MATHEMATIQUES II} Mercredi 7 mai 2008, de 14 h . à 18 h . La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies.\\ Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs.\\ Ils ne doivent faire usage d'aucun document : l'utilisation de toute calculatrice et de tout matériel électronique est interdite.\\ Seule l'utilisation d'une règle graduée est autorisée. Toutes les variables aléatoires qui interviennent dans ce problème sont supposées définies sur le même espace probabilisé ( \(\Omega, \mathcal{A}, P\) ). Sous réserve d'existence, on note \(E(X)\) et \(V(X)\) respectivement, l'espérance et la variance d'une variable aléatoire réelle \(X\) quelconque. Pour toute variable aléatoire réelle \(X\) admettant une densité sur \(\mathbb{R}\), notée \(f_{X}\), on note \(\mathcal{D}_{X}\) l'ensemble des réels \(s\) pour lesquels la variable aléatoire \(e^{s X}\) admet une espérance, et on note \(\Phi_{X}\) la fonction définie sur \(\mathcal{D}_{X}\) par : \(\Phi_{X}(s)=E\left(e^{s X}\right)\).\\ On admet les résultats suivants : \begin{itemize} \item si deux variables aléatoires \(X\) et \(Y\) sont telles que \(\Phi_{X}\) et \(\Phi_{Y}\) coïncident sur un intervalle ouvert non vide, alors \(X\) et \(Y\) ont la même loi ; \item si \(n\) est un entier naturel non nul, et \(X_{1}, X_{2}, \ldots, X_{n}\) des variables aléatoires réelles quelconques, mutuellement indépendantes, alors, pour tout entier \(p\) de \(\llbracket 1, n-1 \rrbracket\) et pour toutes fonctions réelles continues \(\varphi_{1}\) et \(\varphi_{2}\), les variables aléatoires \(\varphi_{1}\left(X_{1}, \ldots, X_{p}\right)\) et \(\varphi_{2}\left(X_{p+1}, \ldots, X_{n}\right)\) sont indépendantes; \item si \(X\) et \(Y\) sont des variables aléatoires indépendantes admettant une espérance, alors \(X Y\) admet une espérance, et \(E(X Y)=E(X) E(Y)\).\\ La fonction exponentielle est également notée exp. On rappelle que : \(\int_{-\infty}^{+\infty} \exp \left(\frac{-x^{2}}{2}\right) d x=\sqrt{2 \pi}\).\\ Dans tout le problème, \(U\) désigne une variable aléatoire qui suit la loi normale centrée réduite. \end{itemize} \section*{Préliminaire} On rappelle que, pour tout \(s\) de \(\mathcal{D}_{X}\), on a : \(\Phi_{X}(s)=\int_{-\infty}^{+\infty} \exp (s x) f_{X}(x) d x\). \begin{enumerate} \item Soit \(a\) un réel non nul et \(b\) un réel quelconque.\\ a) Montrer que l'intégrale \(\int_{-\infty}^{+\infty} \exp \left(-a x^{2}\right) d x\) est convergente si et seulement si \(a>0\), et vaut alors \(\sqrt{\frac{\pi}{a}}\).\\ b) En déduire que l'intégrale \(\int_{-\infty}^{+\infty} \exp \left(-a x^{2}+b x\right) d x\) est convergente si et seulement si \(a>0\), puis montrer que dans ces conditions, on a : \(\int_{-\infty}^{+\infty} \exp \left(-a x^{2}+b x\right) d x=\sqrt{\frac{\pi}{a}} \exp \left(\frac{b^{2}}{4 a}\right)\). \item a) Déterminer \(\mathcal{D}_{U}\); pour tout \(s\) de \(\mathcal{D}_{U}\), calculer \(\Phi_{U}(s)\).\\ b) On pose : \(Z=U^{2}\). Établir que : \(\left.\mathcal{D}_{Z}=\right]-\infty, \frac{1}{2}\) [; montrer, à l'aide du théorème de transfert, que pour tout réel \(s\) de \(\mathcal{D}_{Z}\), on a : \(\Phi_{Z}(s)=(1-2 s)^{-1 / 2}\). \item Soit \(X\) une variable aléatoire réelle à densité, et soit \(\mu\) et \(\beta\) deux réels quelconques.\\ a) Montrer qu'un réel \(s\) appartient à \(\mathcal{D}_{\mu X+\beta}\) si et seulement si \(\mu s\) appartient à \(\mathcal{D}_{X}\), et que dans ce cas, on a : \(\Phi_{\mu X+\beta}(s)=\exp (\beta s) \Phi_{X}(\mu s)\).\\ b) On suppose que \(X\) suit une loi \(\gamma\) de paramètre \(\nu\), où \(\nu\) est un réel strictement positif. \end{enumerate} Montrer que : \(\left.\mathcal{D}_{X}=\right]-\infty, 1\) [; pour tout \(s\) de \(\mathcal{D}_{X}\), établir la formule : \(\Phi_{X}(s)=(1-s)^{-\nu}\). De même, déterminer \(\mathcal{D}_{2 X}\); pour tout \(s\) de \(\mathcal{D}_{2 X}\), calculer \(\Phi_{2 X}(s)\). \section*{Partie I. Loi du \(\chi^{2}\) centré} Soit \(r\) un entier supérieur ou égal à 1 . On considère une variable aléatoire \(X_{r}\) suivant la loi \(\Gamma\) de paramètres \(\left(2, \frac{r}{2}\right)\), c'est-à-dire que \(X_{r}\) possède une densité \(f_{X_{r}}\) donnée par : \[ f_{X_{r}}(x)= \begin{cases}\frac{1}{2^{\frac{r}{2}} \times \Gamma\left(\frac{r}{2}\right)} \times x^{\frac{r}{2}-1} \times \exp \left(-\frac{x}{2}\right) & \text { si } x>0 \\ 0 & \text { si } x \leqslant 0\end{cases} \] On dit que \(X_{r}\) suit une loi du \(\chi^{2}\) («chi deux») centré à \(r\) degrés de liberté, et on note : \(X_{r} \hookrightarrow \chi^{2}(r)\). \begin{enumerate} \item Étudier les variations de \(f_{X_{4}}\) et tracer sa courbe représentative dans un repère orthogonal du plan. \item a) Montrer que la variable aléatoire \(\frac{X_{r}}{2}\) suit une loi \(\gamma\) de paramètre \(\frac{r}{2}\). En déduire \(E\left(X_{r}\right)\) et \(V\left(X_{r}\right)\).\\ b) Déterminer \(\mathcal{D}_{X_{r}}\); pour tout \(s\) de \(\mathcal{D}_{X_{r}}\), calculer \(\Phi_{X_{r}}(s)\). \item Soit \(n\) un entier de \(\mathbb{N}^{*}\). On considère \(n\) variables aléatoires indépendantes \(U_{1}, U_{2}, \ldots, U_{n}\) de même loi que \(U\). Pour tout \(i\) de \(\llbracket 1, n \rrbracket\), on pose : \(Z_{i}=U_{i}^{2}\).\\ a) Vérifier que \(X_{1}\) et \(U^{2}\) sont de même loi.\\ b) On pose : \(W_{n}=\sum_{i=1}^{n} Z_{i}\). Quelle est la loi de probabilité de \(W_{n}\) ?\\ c) Déterminer \(\mathcal{D}_{W_{n}}\), et pour tout \(s\) de \(\mathcal{D}_{W_{n}}\), exprimer \(\Phi_{W_{n}}(s)\) en fonction de \(s\) et de \(n\). Établir une relation entre \(\Phi_{W_{n}}(s)\) et \(\Phi_{Z_{1}}(s), \Phi_{Z_{2}}(s), \ldots, \Phi_{Z_{n}}(s)\). \item Soit \(T\) une variable aléatoire qui suit la loi normale centrée, de variance \(\sigma^{2}\) inconnue, \(\sigma\) étant un réel strictement positif. Pour \(n\) entier supérieur ou égal à 2 , on dispose d'un \(n\)-échantillon indépendant, identiquement distribué (i.i.d.), \(T_{1}, T_{2}, \ldots, T_{n}\) de la loi de \(T\). On considère la variable aléatoire \(S_{n}\) définie par : \(S_{n}=\frac{1}{n} \sum_{i=1}^{n} T_{i}^{2}\).\\ a) Montrer que \(S_{n}\) est un estimateur sans biais et convergent du paramètre \(\sigma^{2}\).\\ b) Soit \(\alpha\) un réel vérifiant : \(0<\alpha<1\), et soit \(k_{\alpha}\) le réel strictement positif tel que : \(P\left(\left[W_{n} \geqslant k_{\alpha}\right]\right)=1-\alpha\). Montrer que l'intervalle \(\left.] 0, \frac{n S_{n}}{k_{\alpha}}\right]\) est un intervalle de confiance de \(\sigma^{2}\) au risque \(\alpha\). \end{enumerate} \section*{Partie II. Loi du \(\chi^{2}\) décentré} On considère une suite \(\left(M_{j}\right)_{j \geqslant 1}\) de variables aléatoires définies sur un espace probabilisé \((\Omega, \mathcal{A}, P)\), mutuellement indépendantes, telles que pour tout \(j\) de \(\mathbb{N}^{*}, M_{j}\) suive la loi normale d'espérance \(m_{j} \left(m_{j} \in \mathbb{R}\right)\) et de variance égale à 1 .\\ Pour \(n\) entier de \(\mathbb{N}^{*}\), on pose : \(Y_{n}=\sum_{j=1}^{n} M_{j}^{2}\) et \(\lambda_{n}=\sum_{j=1}^{n} m_{j}^{2}\).\\ On dit que \(Y_{n}\) suit une loi du \(\chi^{2}\) décentré à \(n\) degrés de liberté, de paramètre de décentrage \(\lambda_{n}\), et on note: \(Y_{n} \hookrightarrow \chi^{2}\left(n, \lambda_{n}\right)\). \begin{enumerate} \item Dans cette question uniquement, on suppose que l'entier \(n\) est égal à 1 .\\ a) Montrer les deux égalités suivantes : \(E\left(U^{3}\right)=0\) et \(E\left(U^{4}\right)=3\).\\ b) En déduire, en fonction de \(\lambda_{1}\), les valeurs respectives de \(E\left(Y_{1}\right)\) et de \(V\left(Y_{1}\right)\).\\ c) Montrer que : \(\left.\mathcal{D}_{Y_{1}}=\right]-\infty, \frac{1}{2}\) [ et établir, pour tout réel \(s\) de \(\mathcal{D}_{Y_{1}}\), la formule suivante : \end{enumerate} \[ \Phi_{Y_{1}}(s)=(1-2 s)^{-1 / 2} \times \exp \left(\frac{s \lambda_{1}}{1-2 s}\right) \] \begin{enumerate} \setcounter{enumi}{1} \item Soit \(n\) un entier de \(\mathbb{N}^{*}\).\\ a) Calculer \(E\left(Y_{n}\right)\) et \(V\left(Y_{n}\right)\) en fonction de \(n\) et \(\lambda_{n}\).\\ b) On admet que l'on a : \(\left.\mathcal{D}_{Y_{n}}=\right]-\infty, \frac{1}{2}\) [. Pour tout \(s\) de \(\mathcal{D}_{Y_{n}}\), exprimer \(\Phi_{Y_{n}}(s)\) en fonction de \(s, n\) et \(\lambda_{n}\). \end{enumerate} \section*{Partie III. Nombre aléatoire de degrés de liberté} Sur un espace probabilisé ( \(\Omega, \mathcal{A}, P\) ), on considère une variable aléatoire \(X\) à valeurs dans \(\mathbb{R}\) admettant une espérance \(E(X)\), et une variable aléatoire \(K\) à valeurs dans \(\mathbb{N}\). On note \(N_{K}\) l'ensemble des entiers naturels \(k\) vérifiant \(P([K=k])>0\), et on suppose que pour tout entier \(k\) de \(N_{K}\), la variable aléatoire \(X\) admet une espérance pour la probabilité conditionnelle \(P_{[K=k]}\), notée \(E(X / K=k)\).\\ On admet alors l'égalité suivante : \((\star) E(X)=\sum_{k \in N_{K}} E(X / K=k) P([K=k])\)\\ Soit \(g\) l'application définie sur \(\mathbb{N}\) par : \(g(k)=\left\{\begin{array}{ll}E(X / K=k) & \text { si } k \in N_{K} \\ 0 & \text { sinon }\end{array}\right.\). \begin{enumerate} \item Vérification de la formule ( \(\star\) ) sur un exemple. \end{enumerate} Soit \(\left(J_{i}\right)_{i \geqslant 1}\) une suite de variables aléatoires définies sur ( \(\Omega, \mathcal{A}, P\) ), indépendantes et de même loi uniforme sur l'intervalle \([0,1]\). Pour tout \(k\) de \(\mathbb{N}^{*}\), on pose : \(X_{k}=\sup _{1 \leqslant i \leqslant k}\left(J_{i}\right)\); autrement dit, pour tout \(\omega\) de \(\Omega\), \(X_{k}(\omega)=\max _{1 \leqslant i \leqslant k} J_{i}(\omega)\). Soit \(K\) une variable aléatoire définie sur ( \(\Omega, \mathcal{A}, P\) ) qui suit la loi uniforme discrète sur \(\llbracket 1, n \rrbracket\left(n \in \mathbb{N}^{*}\right)\). On suppose que \(K\) est indépendante des variables aléatoires de la suite \(\left(J_{i}\right)_{i \geqslant 1}\).\\ Pour tout \(\omega\) de \(\Omega\), on pose : \(X(\omega)=\max _{1 \leqslant i \leqslant K(\omega)} J_{i}(\omega)\), et on admet que \(X\) est une variable aléatoire définie \(\operatorname{sur}(\Omega, \mathcal{A}, P)\).\\ a) Établir, pour tout entier \(k\) de \(\llbracket 1, n \rrbracket\) et pour tout réel \(x\), la relation : \(P_{[K=k]}([X \leqslant x])=P\left(\left[X_{k} \leqslant x\right]\right)\).\\ b) Déterminer la fonction de répartition \(F_{X}\) de la variable aléatoire \(X\).\\ c) En déduire que \(X\) est une variable aléatoire à densité, qui admet une espérance \(E(X)\) que l'on exprimera en fonction de \(\sum_{k=1}^{n} \frac{k}{k+1}\).\\ d) Vérifier l'égalité ( \(\star): E(X)=E(g(K))\).\\ 2. Soit \(\left(U_{i}\right)_{i \geqslant 1}\) une suite de variables aléatoires indépendantes qui suivent la loi normale centrée réduite. Soit \(K\) une variable aléatoire indépendante des variables aléatoires de la suite \(\left(U_{i}\right)_{i \geqslant 1}\), qui suit la loi de Poisson de paramètre \(\frac{\lambda}{2}\) strictement positif. Pour \(n\) entier de \(\mathbb{N}^{*}\), on pose : \(H_{n}=U_{1}^{2}+U_{2}^{2}+\cdots+U_{n+2 K}^{2}\). On admet que \(H_{n}\) est une variable aléatoire à densité à valeurs positives, et que \(\left.\mathcal{D}_{H_{n}}=\right]-\infty, \frac{1}{2}[\).\\ Soit \(s\) un réel de \(]-\infty, \frac{1}{2}[\).\\ a) Montrer que pour tout \(k\) de \(\mathbb{N}\), la loi conditionnelle de \(H_{n}\) sachant \([K=k]\) est la loi de la variable aléatoire \(W_{n+2 k}\) définie dans la question I.3.b.\\ b) En posant : \(X=e^{s H_{n}}\), déterminer, pour tout entier \(k\) de \(\mathbb{N}\), l'expression de \(g(k)\) en fonction de \(k\).\\ c) Établir la formule suivante : \[ E(g(K))=(1-2 s)^{-n / 2} \times \exp \left(\frac{\lambda s}{1-2 s}\right) \] d) En utilisant l'égalité ( \(\star\) ), admise au début de cette partie, avec \(X=e^{s H_{n}}\), déterminer la loi de \(H_{n}\).\\ e) À l'aide de la question III.2.a, montrer que pour tout entier \(n\) supérieur ou égal à 3 , on a : \[ E\left(\frac{1}{H_{n}}\right)=E\left(\frac{1}{n-2+2 K}\right) \] \section*{Partie IV. Estimateur de James-Stein} Soit \(p\) un entier supérieur ou égal à 3 . On suppose qu'un modèle aléatoire défini sur ( \(\Omega, \mathcal{A}, P\) ) comporte \(p\) paramètres réels inconnus \(\theta_{1}, \ldots, \theta_{p}\) non tous nuls. Un échantillon d'observations statistiques permet d'exhiber des estimateurs \(\widehat{\theta_{1}}, \ldots, \widehat{\theta_{p}}\) sans biais des paramètres \(\theta_{1}, \ldots, \theta_{p}\) respectivement. On suppose que les variables aléatoires \(\widehat{\theta_{1}}, \ldots, \widehat{\theta_{p}}\) sont indépendantes et suivent une loi normale de variance égale à 1 .\\ On pose : \(\theta=\left(\theta_{1}, \ldots, \theta_{p}\right), \widehat{\theta}=\left(\widehat{\theta_{1}}, \ldots, \widehat{\theta_{p}}\right), B_{p}=\sum_{j=1}^{p}{\widehat{\theta_{j}}}^{2}\) et \(b_{p}=\sum_{j=1}^{p} \theta_{j}{ }^{2}\).\\ On dit que le vecteur aléatoire \(\widehat{\theta}\) est un estimateur sans biais du paramètre vectoriel \(\theta\), et \(E(\widehat{\theta})\) est alors le vecteur \(\theta\).\\ On définit le risque quadratique scalaire d'un estimateur \(\theta^{*}\) de \(\theta\), noté \(R\left(\theta^{*}, \theta\right)\), par : \[ R\left(\theta^{*}, \theta\right)=E\left(\sum_{j=1}^{p}\left(\theta_{j}^{*}-\theta_{j}\right)^{2}\right) \] Dans cette partie, on cherche un estimateur \(\theta^{*}\) de \(\theta\), représenté par un vecteur aléatoire \(\left(\theta_{1}^{*}, \ldots, \theta_{p}^{*}\right)\), dont le risque \(R\left(\theta^{*}, \theta\right)\) est strictement inférieur à \(R(\widehat{\theta}, \theta)\). \begin{enumerate} \item Justifier que la variable aléatoire \(B_{p}\) suit la loi \(\chi^{2}\left(p, b_{p}\right)\), et qu'elle constitue un estimateur biaisé de \(b_{p}\). \item On pose : \(\theta^{*}=\left(1-\frac{c}{B_{p}}\right) \times \widehat{\theta}\), où \(c\) est un paramètre réel strictement positif. Soit \(K\) une variable aléatoire qui suit la loi de Poisson de paramètre \(\frac{b_{p}}{2}\).\\ a) En admettant que l'on a : \(E\left(\frac{1}{B_{p}} \sum_{j=1}^{p} \theta_{j} \hat{\theta}_{j}\right)=E\left(\frac{2 K}{p-2+2 K}\right)\), établir l'égalité suivante : \end{enumerate} \[ R\left(\theta^{*}, \theta\right)-R(\hat{\theta}, \theta)=\left(c^{2}-2 c(p-2)\right) \times E\left(\frac{1}{p-2+2 K}\right) \] b) Montrer que l'inégalité : \(R\left(\theta^{*}, \theta\right)