\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \usepackage{graphicx} \usepackage[export]{adjustbox} \graphicspath{ {./images/} } \usepackage{caption} \title{Conception : HEC Paris - ESCP BS } \author{} \date{} \begin{document} \maketitle \captionsetup{singlelinecheck=false} \section*{OPTION SCIENTIFIQUE} \section*{MATHÉMATIQUES II} Jeudi 29 avril 2021, de 8 h. à 12 h. La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies.\\ Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs.\\ Aucun document n'est autorisé. L'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée.\\ Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre. \section*{Partie 1 -Polynômes factoriels} On note-F, l'espace vectoriel des fonctions polynomiales à coefficients réels et, pour tout entier naturel r, on note \(F_{r}\), le sous-espace vectoriel des fonctions polynomiales à coefficients réels de degré inférieur ou égal à \(r\). On note \(U_{k}\) la fonction \(x \mapsto x^{k}\) avec la convention habituelle \(x^{0}=1\), de telle sorte que la base canonique de \(F_{r}\) est notée ( \(U_{0}, U_{1}, \ldots, U_{r}\) ). \begin{enumerate} \item Soit \(r\), un entier naturel. On considère une famille ( \(Q_{0}, Q_{1}, \ldots, Q_{r}\) ) de fonctions polynomiales de degrés respectifs \(d_{0}, d_{1}, \ldots, d_{r}\) avec \(d_{0}0\). Pour tout entier \(r \geqslant 1\), on pose \(X^{\underline{r}}=X(X-1) \times \cdots \times(X-r+1)\) avec la convention \(X^{\underline{0}}=X^{0}=1\).\\ Avec la suite \((\sigma(r, k))_{0 \leqslant k \leqslant r}\) définie au 3.a) et la suite \((s(r, k))_{0 \leqslant k \leqslant r}\) définie au 4.a), on a \[ \forall r \in \llbracket 1,+\infty \llbracket, \quad X^{r}=\sum_{k=0}^{r} \sigma(r, k) X^{\underline{k}} \quad \text { et } \quad X^{\underline{r}}=\sum_{k=0}^{r} s(r, k) X^{k} . \] On admet ces deux résultats sans démonstration.\\ 5.a) Rappeler sans démonstration les valeurs respectives de \(\mathbf{E}(X), \mathbf{V}(X)\) et \(\mathbf{E}\left(X^{2}\right)\).\\ 5.b) Exprimer \(X, X^{2}, X^{3}\) et \(X^{4}\) en fonction des variables aléatoires \(X^{1}, X^{2}, X^{3}\) et \(X^{4}\).\\ 5.c) Démontrer que la variable aléatoire \(X\) admet des moments de tous ordres.\\ 6. a) Justifier que, pour tout entier \(r \geqslant 1\), la variable aléatoire \(X^{\underline{r}}\) admet des moments de tous ordres.\\ 6.b) Pour tout entier \(r \geqslant 1\), exprimer \(\mathbf{E}\left(X^{\underline{r}}\right)\) en fonction de \(r\) et de \(\theta\).\\ 6.c) Calculer \(\mathbf{E}\left(X^{3}\right)\) et \(\mathbf{E}\left(X^{4}\right)\) en fonction de \(\theta\).\\ 7) Pour tout entier naturel \(k\) et pour tout réel \(\theta>0\), on pose \[ f(\theta, k)=\frac{\theta^{k}}{k!} \mathrm{c}^{-\theta} \quad \text { et } \quad g(\theta, k)=\ln (f(\theta, k)) \] 7.a) Pour tout entier \(k \geqslant 0\), calculer l'expression de la dérivée partielle \(\partial_{1}(g)(\theta, k)\) et exprimer la variable aléatoire \(\partial_{1}(g)(\theta, X)\) en fonction de \(X\) et de \(\theta\).\\ 7.b) Vérifier que \(X X^{\underline{r}}=X^{\underline{r+1}}+r X^{\underline{r}}\) pour tout entier \(r \geqslant 1\). En déduire que \(\operatorname{Cov}\left(X, X^{\underline{r}}\right)=r \theta^{r}\).\\ 7.c) Calculer \(\operatorname{Cov}\left(\partial_{1}(g)(\theta, X), X^{\underline{r}}\right.\) ) et en déduire l'inégalité \[ \forall \theta>0, \forall r \in \mathbf{N}^{*}, \quad \mathbf{V}\left(X^{\underline{r}}\right) \geqslant r^{2} \theta^{2 r-1} . \] \section*{Partie 3 - Estimation ponctuelle de fonctions du paramètre \(\theta\)} Le contexte et les notations sont ceux de la partie 2.\\ On suppose que le paramètre \(\theta \in \mathbf{R}_{+}^{*}\) est inconnu et on cherche ici à estimer \(\varphi(\theta)\), où \(\varphi\) est une fonction dérivable sur \(\mathbf{R}_{+}^{*}\). Pour \(n\) entier de \(\mathbf{N}^{*}\), on considère dans toute cette partie un \(n\)-échantillon ( \(X_{1}, \ldots, X_{n}\) ) de variables aléatoires mutuellement indépendantes qui, comme \(X\), suivent toutes la loi de Poisson de paramètre \(\theta\). Pour tout \(\theta>0\) et pour tout \(\left(k_{1}, \ldots, k_{n}\right) \in \mathbf{N}^{n}\), on pose \[ F\left(\theta, k_{1}, \ldots, k_{n}\right)=\mathbf{P}\left(\bigcap_{i=1}^{n}\left[X_{i}=k_{i}\right]\right)=\prod_{i=1}^{n} f\left(\theta, k_{i}\right) \] et \[ G\left(\theta, k_{1}, \ldots, k_{n}\right)=\ell \mathrm{n}\left(F\left(\theta, k_{1}, \ldots, k_{n}\right)\right) . \] \begin{enumerate} \setcounter{enumi}{7} \item a) Démontrer que les fonctions \(\theta \mapsto F\left(\theta, k_{1}, \ldots, k_{n}\right)\) et \(\theta \mapsto G\left(\theta, k_{1}, \ldots, k_{n}\right)\) sont dérivables sur \(\mathbf{R}_{+}^{*}\) et calculer les dérivées partielles \(\partial_{1}(F)\left(\theta, k_{1}, \ldots, k_{n}\right)\) et \(\partial_{1}(G)\left(\theta, k_{1}, \ldots, k_{n}\right)\).\\ 8.b) Pour tout \(\theta>0\), on pose \(Z_{\theta}=\partial_{1}(G)\left(\theta, X_{1}, \ldots, X_{n}\right)\). Démontrer que la variable aléatoire \(Z_{\theta}\) est centrée et admet une variance strictement positive, notée \(I(\theta)\), que l'on calculera. \end{enumerate} On rappelle que : s'il existe \(n\) séries absolument convergentes \(\sum_{k_{1} \in \mathbf{N}} v_{1, k_{1}}, \ldots, \sum_{k_{n} \in \mathbf{N}} v_{n, k_{n}}\) telles que \[ \forall\left(k_{1}, \ldots, k_{n}\right) \in \mathbf{N}^{n} ; \quad\left|u_{k_{1}, \ldots, k_{n}}\right| \leqslant\left|v_{1, k_{1}}\right| \times \cdots \times\left|v_{n, k_{n}}\right| \] alors la série \(\sum u_{k_{1}, \ldots, k_{n}}\) est dite absolument convergente. On admet que, dans ce cas, la somme \[ \sum_{\left(k_{1}, \ldots, k_{n}\right) \in \mathbf{N}^{n}} u_{k_{1}, \ldots, k_{n}} \] est bien définie. On rappelle l'énoncé de la Formule de transfert : si la série \(\sum u_{\theta}\left(k_{1}, \ldots, k_{n}\right) F\left(\theta, k_{1}, \ldots, k_{n}\right)\) est absolument convergente (au sens qui vient d'être rappelé), alors la variable aléatoire discrète \(U_{\theta}=u_{6}\left(X_{1}, \ldots, X_{n}\right)\) est d'espérance finie et \[ \begin{aligned} \mathbf{E}\left(U_{\theta}\right) & =\sum_{\left(k_{1}, \ldots, k_{n}\right) \in \mathbf{N}^{n}} u_{\theta}\left(k_{1}, \ldots, k_{n}\right) F\left(\theta, k_{1}, \ldots, k_{n}\right) \\ & =\sum_{\left(k_{1}, \ldots, k_{n}\right) \in \mathbf{N}^{n}} u_{\theta}\left(k_{1}, \ldots, k_{n}\right) \mathbf{P}\left(\left[X_{1}=k_{1}\right] \cap \cdots \cap\left[X_{n}=k_{n}\right]\right) . \end{aligned} \] Soit \(t: \mathbf{N}^{n} \rightarrow \mathbf{R}\), une application indépendante de \(\theta\). On peut alors considérer la variable aléatoire discrète \[ T=t\left(X_{1}, \ldots, X_{n}\right) \] comme un estimateur de \(\varphi(\theta)\).\\ On dira que la variable aléatoire \(T\) est un estimateur régulier de \(\varphi(\theta)\) lorsque les trois conditions suivantes ( \(R_{1}\) ), ( \(R_{2}\) ) et ( \(R_{3}\) ) sont satisfaites. \[ \begin{aligned} \mathbf{E}(T) & =\varphi(\theta) \\ \mathbf{V}(T) & \text { existe } \\ \forall \theta>0, \quad \varphi^{\prime}(\theta) & =\sum_{\left(k_{1}, \ldots, k_{n}\right) \in \mathbb{N}^{\mathrm{n}}} t\left(k_{1}, \ldots, k_{n}\right) \partial_{1}(F)\left(\theta, k_{1}, \ldots, k_{n}\right) \end{aligned} \] On notera que la condition ( \(R_{3}\) ) sous-entend que le second membre est la somme d'une série absolument convergente (au sens rappelé plus haut).\\ 9) Dans cette question, on suppose que \(T\) est un estimateur régulier de \(\varphi(\theta)\).\\ 9.a) La variable aléatoire \(T\) est-elle un estimateur sans biais de \(\varphi(\theta)\) ?\\ 9.b) Pourquoi la condition ( \(R_{3}\) ) n'est-elle pas une conséquence directe de la condition ( \(R_{1}\) ) ?\\ 10) Soit \(T\), un estimateur régulier du paramètre \(\varphi(\theta)\).\\ 10.a) Établir les égalités suivantes: \[ \forall \theta>0, \quad \varphi^{\prime}(\theta)=\mathbf{E}\left(T \times Z_{\theta}\right)=\operatorname{Cov}\left(T, Z_{\theta}\right) . \] 10.b) En déduire l'inégalité \[ \forall \theta>0, \quad \mathbf{V}(T) \geqslant \frac{\left(\varphi^{\prime}(\theta)\right)^{2}}{I(\theta)} \] où \(I(\theta)\) a été défini au 8.b).\\ 11) On cherche à simuler un échantillon de \(N\) réalisations de \(Z_{\theta}\) pour différents couples \((n, \theta)\).\\ 11.a) Compléter le code scilab suivant en justifiant votre réponse. \begin{verbatim} function ech=Z_th(n, theta) X=grand(n,N,'poi',theta); ech = (sum(X, ) - n*theta)/theta endfunction \end{verbatim} On rappelle l'usage de la commande sum : pour un tableau \(M=\left(M_{i, j}\right)_{1 \leqslant i \leqslant n, 1 \leqslant j \leqslant p}\), les deux instructions sum( \(M\), ' \(r\) ') et sum( \(M\), ' \(c\) ') retournent respectivement les tableaux \[ \left(\sum_{i=1}^{n} M_{i, j}\right)_{1 \leqslant j \leqslant p} \quad \text { et } \quad\left(\sum_{j=1}^{p} M_{i, j}\right)_{1 \leqslant i \leqslant n} \] de tailles (size) respectives ( \(1, p\) ) et ( \(n, 1\) ).\\ 11.b) À l'aide de la commande histplot, on a tracé les histogrammes des échantillons obtenus pour les couples \((n, \theta)=(10,4),(20,4),(40,4)\) et \((50,5)\). À quels couples correspondent les figures suivantes ? (On pourra admettre que \(I(\theta)=n / \theta\).) \begin{figure}[h] \begin{center} \includegraphics[alt={},max width=\textwidth]{9928e1a2-15a0-4955-bda9-cde9de104e50-5_447_682_470_285} \captionsetup{labelformat=empty} \caption{Figure A} \end{center} \end{figure} \begin{figure}[h] \begin{center} \includegraphics[alt={},max width=\textwidth]{9928e1a2-15a0-4955-bda9-cde9de104e50-5_445_673_995_292} \captionsetup{labelformat=empty} \caption{Figure C} \end{center} \end{figure} \begin{figure}[h] \begin{center} \includegraphics[alt={},max width=\textwidth]{9928e1a2-15a0-4955-bda9-cde9de104e50-5_440_664_477_1050} \captionsetup{labelformat=empty} \caption{Figure B} \end{center} \end{figure} \begin{figure}[h] \begin{center} \includegraphics[alt={},max width=\textwidth]{9928e1a2-15a0-4955-bda9-cde9de104e50-5_440_664_1000_1050} \captionsetup{labelformat=empty} \caption{Figure D} \end{center} \end{figure} \begin{enumerate} \setcounter{enumi}{11} \item Soit un entier \(r \geqslant 1\). On suppose ici que \(\varphi(\theta)=\theta^{r}\) et pour tout entier \(n\) supérieur ou égal à 1 , on pose \end{enumerate} \[ S_{n}=X_{1}+\cdots+X_{n} \quad \text { et } \quad M_{r, n}=\frac{S_{n}\left(S_{n}-1\right) \times \cdots \times\left(S_{n}-r+1\right)}{n^{r}} . \] \begin{enumerate} \setcounter{enumi}{11} \item a) Rappeler (sans démonstration) la loi de la variable aléatoire \(S_{n}\) ainsi que son espérance et sa variance.\\ 12.b) Démontrer que \(M_{r, n}\) est un estimateur régulier de \(\theta^{r}\). \end{enumerate} NB : Pour établir la propriété ( \(R_{3}\) ), on admettra que la série est absolument convergente.\\ En déduire que \[ \forall \theta>0, \quad \mathbf{V}\left(M_{r, n}\right) \geqslant \frac{r^{2} \theta^{2 r-1}}{n} \] 12.c) Dans cette question, on suppose que \(r=2\). Calculer la variance de \(M_{2, n}\) et démontrer que la suite d'estimateurs de \(\theta^{2}\) \[ \left(M_{2, n}\right)_{n \geqslant 1} \] est convergente.\\ 12.d) Pour un entier \(r \geqslant 1\) quelconque, la suite \[ \left(M_{r, n}\right)_{n \geqslant 1} \] d'estimateurs de \(\theta^{r}\) est-elle convergente? (On pourra commencer par calculer, en fonction de l'entier \(k \in \mathbb{N}^{*}\) un équivalent de \(\mathbf{E}\left(S_{n}^{k}\right)\) lorsque \(n\) tend vers \(+\infty\).) \section*{Partie 4- Le cas \(\varphi(\theta)=\theta\)} Le contexte et les notations sont ceux des parties 2 et 3.\\ Dans cette partie, on compare deux estimateurs du paramètre inconnu \(\theta\).\\ 13) Pour tout entier \(n\) supérieur ou égal à 1 , on pose \[ \bar{X}_{n}=\frac{1}{n} \sum_{i=1}^{n} X_{i} \] 13.a) Démontrer que \(\bar{X}_{n}\) est un estimateur régulier du paramètre \(\theta\).\\ 13.b) Que devient l'inégalité du 10.b) ? On dit qu'un estimateur régulier de \(\theta\) est efficace lorsque sa variance est minimale parmi les estimateurs réguliers de \(\theta\).\\ 14) Soit \(Y\), un estimateur régulier de \(\theta\). Pour tout réel \(\alpha\), on pose \[ \psi(\alpha)=\bar{X}_{n}+\alpha\left(Y-\bar{X}_{n}\right) \] 14.a) Vérifier que \(\psi(\alpha)\) est un estimateur régulier de \(\theta\) pour tout \(\alpha \in \mathbf{R}\).\\ 14.b) En déduire que \[ \operatorname{Cov}\left(\bar{X}_{n}, Y\right)=\frac{\theta}{n} \] 14.c) Exprimer \(\mathbf{V}\left(Y-\bar{X}_{n}\right)\) en fonction de \(\mathbf{V}(Y)\) et de \(\mathbf{V}\left(\bar{X}_{n}\right)\). En déduire qu'un estimateur efficace de \(\theta\) est presque sûrement unique.\\ 15) Pour tout entier \(n \geqslant 2\), on pose \[ W_{n}=\frac{1}{n-1} \sum_{i=1}^{n}\left(X_{i}-\bar{X}_{n}\right)^{2} \] 15.a) Exprimer \(W_{n}\) en fonction de \(\sum_{i=1}^{n} X_{i}^{2}\) et de \(\bar{X}_{n}^{2}\).\\ 15.b) Démontrer que \(W_{n}\) est un estimateur sans biais de \(\theta\).\\ 15.c) Démontrer que \(W_{n}\) admet une variance (qu'on ne cherchera pas à calculer).\\ 15.d) Étudier la convergence des deux suites d'estimateurs \(\left(\bar{X}_{n}\right)_{n \geqslant 1}\) et \(\left(W_{n}\right)_{n \geqslant 2}\) du paramètre inconnu \(\theta\). On pourra démontrer que : si une suite réelle \(\left(a_{n}\right)_{n \in \mathbf{N}}\) converge vers \(a \in \mathbf{R}\) et si deux suites \(\left(Y_{n}\right)_{n \in \mathbf{N}}\) et \(\left(Z_{n}\right)_{n \in \mathbf{N}}\) de variables aléatoires convergent en probabilité vers les réels \(y\) et \(z\) respectivement, alors la suite de variables aléatoires \(\left(a_{n}\left(Y_{n}-Z_{n}\right)\right)_{n \in \mathrm{~N}}\) converge en probabilité vers le réel \(a(y-z)\).\\ 16) On simule des échantillons de \(N\) réalisations des estimateurs \(\bar{X}_{n}, W_{n}\) et \[ W_{n}^{\prime}=\frac{1}{n} \sum_{i=1}^{n}\left(X_{i}-\bar{X}_{n}\right)^{2} \] avec \(n=50\). En comparant les figures suivantes, relier chaque histogramme à l'estimateur qui lui correspond. \begin{figure}[h] \begin{center} \includegraphics[alt={},max width=\textwidth]{9928e1a2-15a0-4955-bda9-cde9de104e50-7_429_1203_328_408} \captionsetup{labelformat=empty} \caption{Figure E} \end{center} \end{figure} \begin{figure}[h] \begin{center} \includegraphics[alt={},max width=\textwidth]{9928e1a2-15a0-4955-bda9-cde9de104e50-7_430_1205_852_408} \captionsetup{labelformat=empty} \caption{Figure F} \end{center} \end{figure} \begin{figure}[h] \begin{center} \includegraphics[alt={},max width=\textwidth]{9928e1a2-15a0-4955-bda9-cde9de104e50-7_430_1205_1375_406} \captionsetup{labelformat=empty} \caption{Figure G} \end{center} \end{figure} Fin de l'énoncé \end{document}