\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \title{BCH \\ BANQUE COMMUNE D'EPREUVES \\ CONCOURS D'ADMISSION DE 2010 \\ Conceptions : H.E.C. - E.S.C.P. / EUROPE } \author{} \date{} \begin{document} \maketitle \section*{OPTION SCIENTIFIQUE} \section*{MATHEMATIQUES II} Lundi 10 mai 2010, de 8 h. à 12 h. La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies.\\ Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs.\\ Ils ne doivent faire usage d'aucun document : l'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée.\\ Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre \section*{Dans tout le problème :} \begin{itemize} \item toutes les variables aléatoires sont supposées définies sur un espace probabilisé ( \(\Omega, \mathcal{A}, P\) ); \item pour tout réel \(t>0, X_{t}\) désigne une variable aléatoire à valeurs strictement positives qui suit la loi gamma de paramètre \(t\), notée \(\gamma(t)\); \item \(U\) désigne une variable aléatoire qui suit la loi uniforme sur \(] 0,1\) ]; \item l'espérance et la variance d'une variable aléatoire \(A\) sont notées respectivement \(E(A)\) et \(V(A)\); \item la notation exp désigne la fonction exponentielle de base e . \end{itemize} \section*{On rappelle ou on admet sans démonstration les résultats suivants :} \begin{itemize} \item la fonction \(\Gamma\) définie pour tout réel \(t>0\) par \(\Gamma(t)=\int_{0}^{+\infty} e^{-u} u^{t-1} d u\), est de classe \(C^{\infty}\) sur \(\mathbb{R}^{+*}\); on note \(\Gamma^{\prime}\) et \(\Gamma^{\prime \prime}\) les dérivées première et seconde de la fonction \(\Gamma\). Pour tout réel \(t>0\), les intégrales \(\int_{0}^{+\infty}(\ln u) e^{-u} u^{t-1} d u\) et \(\int_{0}^{+\infty}(\ln u)^{2} e^{-u} u^{t-1} d u\) sont convergentes et valent respectivement \(\Gamma^{\prime}(t)\) et \(\Gamma^{\prime \prime}(t)\); \item on a pour tout réel \(t>0: \Gamma(t+1)=t \Gamma(t)\); \item pour tout réel \(t>0\), une densité \(f_{X_{t}}\) de \(X_{t}\) est donnée par : \(f_{X_{t}}(x)=\left\{\begin{array}{ll}\frac{1}{\Gamma(t)} e^{-x} x^{t-1} & \text { si } x>0 \\ 0 & \text { si } x \leqslant 0\end{array}\right.\); \item \(\Gamma(1 / 2)=\sqrt{\pi}\). \end{itemize} L'objet du problème est de démontrer quelques propriétés de la fonction \(\Gamma\) en utilisant des méthodes essentiellement probabilistes. \section*{Partie I. Quelques résultats préliminaires} \begin{enumerate} \item On pose pour tout \(n\) de \(\mathbb{N}^{*}: h_{n}=\sum_{k=1}^{n} \frac{1}{k}\). On considère les deux suites \(\left(\gamma_{n}\right)_{n \geqslant 1}\) et \(\left(v_{n}\right)_{n \geqslant 1}\) définies par : pour tout \(n\) de \(\mathbb{N}^{*}, \gamma_{n}=h_{n}-\ln n\) et \(v_{n}=\gamma_{n+1}-\gamma_{n}\).\\ a) Montrer que la série de terme général \(v_{n}\) est convergente.\\ b) En déduire la convergence de la suite \(\left(\gamma_{n}\right)_{n \geqslant 1}\); on note \(\gamma\) sa limite.\\ c) On pose pour tout réel \(t>0: d_{n, t}=\gamma+\ln (t+n)-h_{n}\). Déterminer \(\lim _{n \rightarrow+\infty} d_{n, t}\). \item a) Rappeler sans démonstration les valeurs respectives de \(E\left(X_{t}\right)\) et \(V\left(X_{t}\right)\).\\ b) On note pour tout réel \(t>0, \psi(t)=\Gamma^{\prime}(t) / \Gamma(t)\), et \(\psi^{\prime}\) la dérivée de \(\psi\). Montrer que \(E\left(\ln \left(X_{t}\right)\right)=\psi(t)\) et \(V\left(\ln \left(X_{t}\right)\right)=\psi^{\prime}(t)\). \item a) Montrer que pour tout réel \(t>1, E\left(1 / X_{t}\right)\) existe et calculer sa valeur.\\ b) Établir pour tout réel \(x>0\), l'encadrement : \(1-\frac{1}{x} \leqslant \ln x \leqslant x-1\). \end{enumerate} En déduire que l'on a : \((\ln x)^{2} \leqslant\left(1-\frac{1}{x}\right)^{2}+(x-1)^{2}\).\\ c) À l'aide des questions précédentes, établir les inégalités suivantes : pour tout réel \(t>0, E\left(\ln \left(\frac{X_{t}}{t}\right)\right) \leqslant 0\); pour tout réel \(t>1, E\left(\ln \left(\frac{X_{t}}{t}\right)\right) \geqslant-\frac{1}{t-1}\); pour tout réel \(t>2, E\left(\ln ^{2}\left(\frac{X_{t}}{t}\right)\right) \leqslant \frac{2 t}{(t-2)^{2}}\).\\ d) Soit \(t\) un réel fixé strictement positif. Montrer que la suite de variables aléatoires \(\left(\ln \left(\frac{X_{t+n}}{t+n}\right)\right)_{n \geqslant 1}\) converge en probabilité vers 0\\ 4. Soit \(\left(A_{n}\right)_{n \geqslant 1},\left(B_{n}\right)_{n \geqslant 1}\) et \(\left(C_{n}\right)_{n \geqslant 1}\) trois suites de variables aléatoires à densité qui convergent en probabilité vers 0 . On pose pour tout \(n\) de \(\mathbb{N}^{*}: D_{n}=A_{n}+B_{n}+C_{n}\). Soit \(\left(u_{n}\right)_{n \geqslant 1}\) une suite réelle qui converge vers \(u\). On considère deux variables aléatoires réelles à densité \(M\) et \(N\) telles que pour tout \(n\) de \(\mathbb{N}^{*}, M\) est de même loi que \(N+D_{n}+u_{n}\).\\ a) Montrer pour tout réel \(\varepsilon>0\), l'inclusion : \(\left[\left|D_{n}\right|>\varepsilon\right] \subset\left[\left|A_{n}\right|>\varepsilon / 3\right] \cup\left[\left|B_{n}\right|>\varepsilon / 3\right] \cup\left[\left|C_{n}\right|>\varepsilon / 3\right]\). En déduire que la suite \(\left(D_{n}\right)_{n \geqslant 1}\) converge en probabilité vers 0 .\\ b) On pose pour tout \(n\) de \(\mathbb{N}^{*}: V_{n}=D_{n}+u_{n}-u\). Montrer que la suite de variables aléatoires \(\left(V_{n}\right)_{n \geqslant 1}\) converge en probabilité vers 0 . En déduire la limite en probabilité de la suite \(\left((N+u)+V_{n}\right)_{n \geqslant 1}\).\\ c) On admet sans démonstration que la convergence en probabilité entraîne la convergence en loi. Montrer que les variables aléatoires \(M\) et \(N+u\) sont de même loi.\\ 5. Soit ( \(\alpha, \beta\) ) un couple de réels strictement positifs, et \(X_{\alpha}\) et \(X_{\beta}\) deux variables aléatoires indépendantes de lois respectives \(\gamma(\alpha)\) et \(\gamma(\beta)\). On pose : \(T_{\alpha, \beta}=\frac{X_{\alpha}}{X_{\beta}}, Q_{\alpha, \beta}=\ln \left(T_{\alpha, \beta}\right)\) et \(B(\alpha, \beta)=\frac{\Gamma(\alpha) \Gamma(\beta)}{\Gamma(\alpha+\beta)}\).\\ a) Préciser \(Q_{\alpha, \beta}(\Omega)\). Déterminer une densité de \(\ln \left(X_{\alpha}\right)\) et de \(-\ln \left(X_{\beta}\right)\) respectivement.\\ b) En déduire qu'une densité \(f_{Q_{\alpha, \beta}}\) de \(Q_{\alpha, \beta}\) est donnée par : pour tout réel \(x\), \[ f_{Q_{\alpha, \beta}}(x)=\frac{e^{-\beta x}}{\Gamma(\alpha) \Gamma(\beta)} \int_{-\infty}^{+\infty} e^{(\alpha+\beta) y} \exp \left(-e^{y}\left(1+e^{-x}\right)\right) d y \] c) À l'aide du changement de variable \(u=e^{y}\left(1+e^{-x}\right)\), dont on justifiera la validité, établir la formule suivante : pour tout \(x\) réel, \(f_{Q_{\alpha, \beta}}(x)=\frac{1}{B(\alpha, \beta)} \times \frac{e^{\alpha x}}{\left(1+e^{x}\right)^{\alpha+\beta}}\).\\ d) En déduire une densité \(f_{T_{\alpha, \beta}}\) de \(T_{\alpha, \beta}\).\\ e) On pose : \(J_{\alpha, \beta}=\frac{X_{\alpha}}{X_{\alpha}+X_{\beta}}\). Montrer qu'une densité \(f_{J_{\alpha, \beta}}\) de \(J_{\alpha, \beta}\) est donnée par : \[ f_{J_{\alpha, \beta}}(z)= \begin{cases}0 & \text { si } z \notin] 0,1[ \\ \frac{1}{B(\alpha, \beta)} z^{\alpha-1}(1-z)^{\beta-1} & \text { si } z \in] 0,1[ \end{cases} \] \section*{Partie II. Étude de la variable aléatoire \(\ln \left(X_{t}\right)\)} Soit \(\left(Y_{k}\right)_{k \geqslant 1}\) une suite de variables aléatoires indépendantes de même loi exponentielle de paramètre 1. On suppose que pour tout réel \(\alpha>0, X_{\alpha}\) est indépendante de chacune des variables aléatoires de la suite \(\left(Y_{k}\right)_{k \geqslant 1}\). On pose : \(S_{0}=0\) et pour tout \(k\) de \(\mathbb{N}^{*}, S_{k}=\sum_{i=1}^{k} Y_{i}\).\\ 6. Rappeler sans démonstration la loi de \(S_{k}\) ainsi que les valeurs respectives de \(E\left(S_{k}\right)\) et \(V\left(S_{k}\right)\).\\ 7. a) Justifier pour tout \(n\) de \(\mathbb{N}^{*}\), l'égalité suivante : \(\ln \left(X_{t}\right)=\ln \left(\prod_{k=1}^{n} \frac{X_{t}+S_{k-1}}{X_{t}+S_{k}}\right)+\ln \left(X_{t}+S_{n}\right)\).\\ b) Montrer que pour tout entier \(m\) de \(\mathbb{N}^{*}\), la loi de \(X_{t}+S_{m}\) est celle de \(X_{t+m}\). On admet jusqu'à la fin du problème les résultats suivants : \begin{itemize} \item soit \(n\) un entier de \(\mathbb{N}^{*}\) et \(A_{1}, \ldots, A_{n}\) des variables aléatoires réelles mutuellement indépendantes. Alors, pour tout \(p\) de \(\llbracket 1, n-1 \rrbracket\), pour toutes fonctions réelles \(\varphi_{1}\) et \(\varphi_{2}\) continues, les variables aléatoires \(\varphi_{1}\left(A_{1}, \ldots, A_{p}\right)\) et \(\varphi_{2}\left(A_{p+1}, \ldots, A_{n}\right)\) sont indépendantes; \item si \(A\) et \(B\) sont deux variables aléatoires indépendantes admettant une espérance, alors \(A B\) admet une espérance et \(E(A B)=E(A) E(B)\); \item pour tout couple \((\alpha, \beta)\) de réels strictement positifs, si les variables aléatoires \(X_{\alpha}\) et \(X_{\beta}\) sont indépendantes, de lois respectives \(\gamma(\alpha)\) et \(\gamma(\beta)\), alors les variables aléatoires \(\frac{X_{\alpha}}{X_{\alpha}+X_{\beta}}\) et \(X_{\alpha}+X_{\beta}\) sont indépendantes. \end{itemize} \begin{enumerate} \setcounter{enumi}{7} \item On pose pour tout \(k\) de \(\mathbb{N}^{*}: R_{t, k}=\frac{X_{t}+S_{k-1}}{X_{t}+S_{k}}\).\\ a) Montrer que \(R_{t, 1}\) et \(R_{t, 2}\) sont indépendantes. On admet dans la suite que les variables aléatoires \(R_{t, k}(k \geqslant 1)\) sont indépendantes.\\ b) En déduire à l'aide des questions précédentes que pour tout \(n\) de \(\mathbb{N}^{*}\), les variables aléatoires \(\ln \left(X_{t}\right)\) et \(\sum_{k=1}^{n} \ln \left(R_{t, k}\right)+\ln \left(X_{t+n}\right)\) sont de même loi. \item a) Déterminer la loi de la variable aléatoire \(-\ln U\).\\ b) À l'aide de la question 5.e, calculer une densité \(f_{R_{t, k}}\) de la variable aléatoire \(R_{t, k}\).\\ c) Soit \(\left(U_{k}\right)_{k \geqslant 1}\) une suite de variables aléatoires indépendantes de même loi que \(U\). Montrer que pour tout \(k\) de \(\mathbb{N}^{*}\), les variables aléatoires \(R_{t, k}\) et \(U_{k}^{\frac{1}{t+k-1}}\) sont de même loi.\\ d) Déduire des questions précédentes que pour tout \(n\) de \(\mathbb{N}^{*}\), la variable aléatoire \(\ln \left(X_{t}\right)\) est de même loi que la variable aléatoire \(\sum_{k=0}^{n-1}\left(\frac{1}{k+1}-\frac{Y_{k+1}}{t+k}\right)+\ln \left(\frac{X_{t+n}}{t+n}\right)+d_{n, t}-\gamma\). \item En utilisant les résultats des questions 1.c,2.b,3.c et 9.d, montrer que pour tout réel \(t>0\), on a: \end{enumerate} \[ E\left(\ln \left(X_{t}\right)\right)=\psi(t)=-\gamma+\sum_{k=0}^{\infty}\left(\frac{1}{k+1}-\frac{1}{t+k}\right) \text { et } V\left(\ln \left(X_{t}\right)\right)=\psi^{\prime}(t)=\sum_{k=0}^{+\infty} \frac{1}{(t+k)^{2}} \] \begin{enumerate} \setcounter{enumi}{10} \item En utilisant la question 3.c, calculer \(\lim _{t \rightarrow+\infty}(\psi(t)-\ln t)\). \item On pose : \(W=U^{1 / \mu}\), où \(\mu\) désigne un paramètre réel strictement positif inconnu. Afin d'estimer \(\mu\), on considère pour \(p\) supérieur ou égal à 3 , un \(p\)-échantillon \(\left(W_{1}, W_{2}, \ldots, W_{p}\right)\) i.i.d. de la loi de \(W\).\\ On pose : \(G_{p}=-p\left(\sum_{i=1}^{p} \ln W_{i}\right)^{-1}\). Justifier que la variable aléatoire \(G_{p}\) est un estimateur du paramètre \(\mu\). Est-il sans biais? Est-il convergent? \item On rappelle que l'appel à la fonction Pascal random a pour résultat un nombre de type real pris au hasard dans l'intervalle \([0,1[\).\\ a) Soit \(X\) la fonction Pascal suivante : \end{enumerate} \begin{verbatim} function X(lambda : real) : real; begin X := -ln(1-random)/lambda end ; \end{verbatim} Cette fonction simule une variable aléatoire réelle. Donner sa loi. Justifier votre réponse.\\ b) Écrire une fonction Pascal d'en-tête g(n : integer) : real simulant une variable aléatoire de loi \(\gamma(n)\).\\ c) Soit m la fonction Pascal suivante : \begin{verbatim} function m(p : integer) : real; begin m := p/g(p) end ; \end{verbatim} On appelle la fonction m pour différentes valeurs de \(p\) de plus en plus grandes. Que devrait-on constater? \section*{Partie III. Quelques propriétés de la fonction \(\Gamma\)} Les notations sont celles des parties I et II.\\ 14. Première application : les formules de Wilks et Legendre.\\ a) Soit \(\left(a_{k}\right)_{k \in \mathbb{N}}\) une suite réelle. Pour tout \(n\) de \(\mathbb{N}^{*}\) et tout réel \(t>0\), établir l'égalité : \[ 2 \sum_{k=0}^{2 n-1}\left(\frac{1}{k+1}-\frac{a_{k+1}}{t+k}\right)=\sum_{k=0}^{n-1}\left(\frac{1}{k+1}-\frac{a_{2 k+1}}{\frac{t}{2}+k}\right)+\sum_{k=0}^{n-1}\left(\frac{1}{k+1}-\frac{a_{2 k+2}}{\frac{t+1}{2}+k}\right)+2 \sum_{k=0}^{n-1}\left(\frac{1}{2 k+1}-\frac{1}{2 k+2}\right) \] b) Exprimer \(w_{n}=\sum_{k=0}^{n-1}\left(\frac{1}{2 k+1}-\frac{1}{2 k+2}\right)\) en fonction de deux termes de la suite \(\left(h_{n}\right)_{n \geqslant 1}\). En déduire que \(\lim _{n \rightarrow+\infty} w_{n}=\ln 2\).\\ c) Pour \(t>0\), soit \(X_{t}\) et \(X_{t+\frac{1}{2}}\) deux variables aléatoires indépendantes de lois respectives \(\gamma(t)\) et \(\gamma\left(t+\frac{1}{2}\right)\). En utilisant les questions 4 et 9.d, montrer que la variable aléatoire \(2 \ln \left(X_{t}\right)\) est de même loi que la variable aléatoire \(\ln \left(X_{\frac{t}{2}}\right)+\ln \left(X_{\frac{t+1}{2}}\right)+2 \ln 2\).\\ d) On pose : \(t=2 s\). Déduire de la question précédente que pour tout réel \(r>0,\left(X_{2 s}\right)^{2 r}\) et \(2^{2 r}\left(X_{s}\right)^{r}\left(X_{s+\frac{1}{2}}\right)^{r}\) sont de même loi.\\ e) En choisissant une valeur particulière de \(s\), établir pour tout \(r>0\), la formule : \[ 2^{2 r-1} \Gamma(r) \Gamma\left(r+\frac{1}{2}\right)=\Gamma(2 r) \sqrt{\pi} \] \begin{enumerate} \setcounter{enumi}{14} \item Deuxième application : la formule de Stirling.\\ a) Déterminer quatre réels \(a, b, c, d\) tels que pour tout réel \(u>0\), on a : \(\frac{1}{u^{2}(u+1)^{2}}=\frac{a}{u^{2}}+\frac{b}{(u+1)^{2}}+\frac{c}{u}+\frac{d}{u+1}\). \end{enumerate} En déduire pour tout \(t>0\), la relation : \(\psi^{\prime}(t)=\frac{1}{t}+\frac{1}{2 t^{2}}+\frac{1}{2} \sum_{k=0}^{+\infty} \frac{1}{(t+k)^{2}(t+k+1)^{2}}\).\\ On admet sans démonstration que pour tout \(u>0\), on a : \[ \frac{1}{3}\left(\frac{1}{\left(u+\frac{1}{14}\right)^{3}}-\frac{1}{\left(u+\frac{15}{14}\right)^{3}}\right) \leqslant \frac{1}{u^{2}(u+1)^{2}} \leqslant \frac{1}{3}\left(\frac{1}{u^{3}}-\frac{1}{(u+1)^{3}}\right) \] b) Déduire des deux résultats précédents, pour tout \(t>0\), les deux encadrements : \[ \frac{1}{2 t^{2}}+\frac{1}{6\left(t+\frac{1}{14}\right)^{3}} \leqslant \psi^{\prime}(t)-\frac{1}{t} \leqslant \frac{1}{2 t^{2}}+\frac{1}{6 t^{3}} \text { et } \ln t-\frac{1}{2 t}-\frac{1}{12 t^{2}} \leqslant \psi(t) \leqslant \ln t-\frac{1}{2 t}-\frac{1}{12\left(t+\frac{1}{14}\right)^{2}} \] En déduire un équivalent de \(E\left(\ln \left(X_{t}\right)\right)\) et de \(V\left(\ln \left(X_{t}\right)\right)\) respectivement, lorsque \(t\) tend vers \(+\infty\).\\ c) Calculer pour tout \(y\) vérifiant \(y>t>0\), l'intégrale : \(\int_{t}^{y}\left(\psi(x)-\ln (x)+\frac{1}{2 x}\right) d x\). Montrer pour \(t\) fixé, l'existence de \(\lim _{y \rightarrow+\infty} \ln \left(\frac{\Gamma(y)}{y^{y-\frac{1}{2}} e^{-y}}\right)\); on note \(\theta\) cette limite.\\ d) En utilisant la question 14.e et l'identité : \(x^{x}=\left(x+\frac{1}{2}\right)^{x}\left(1+\frac{1}{2 x}\right)^{-x}\), valable pour \(x>0\), calculer \(e^{\theta}\). En déduire que \(\Gamma(x)\) est équivalent à \(\sqrt{2 \pi} x^{x-\frac{1}{2}} e^{-x}\), lorsque \(x\) tend vers \(+\infty\). \end{document}