\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \title{MATHÉMATIQUES APPLIQUÉES } \author{} \date{} \begin{document} \maketitle \section*{Code sujet : 288} BANQUE COMMUNE D'ÉPREUVES \section*{FILIÈRE ÉCONOMIQUE ET COMMERCIALE \\ VOIE GENERALE } Jeudi 27 avril 2023, de 14 h. à 18 h. \begin{abstract} La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies. Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs. Aucun document n'est autorisé. L'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée. Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre. \end{abstract} On s'intéresse dans ce sujet à la méthode de Stein, introduite par Charles Stein (1920/2016) en 1972, dont les développements et applications sont nombreux. Les parties 1 et 2 concernent la justification de la méthode, elles sont indépendantes.\\ Dans la partie 3, on s'intéresse à l'estimation en un point d'une densité d'une loi de probabilité. Cette partie peut être traitée indépendamment des deux premières parties. Dans la partie 4, on met en oeuvre la méthode de Stein, vue dans les parties 1 et 2, pour établir des convergences «uniformes » en loi et on démontre le résultat admis dans la partie 3. Cette partie est indépendante de la partie 3 à l'exception de sa dernière question. Dans tout le problème : \begin{itemize} \item les variables aléatoires considérées sont définies sur le même espace probabilisé ( \(\Omega, \mathcal{A}, \mathbb{P}\) ). \item si \(X\) est une variable aléatoire, \(\mathbb{E}(X)\) et \(\mathbb{V}(X)\) désignent respectivement, lorsqu'elles existent, l'espérance et la variance de \(X\). \item \(W\) désigne l'ensemble des fonctions \(h\) de classe \(C^{1}\) sur \(\mathbb{R}\) telles que : \end{itemize} \[ \forall x \in \mathbb{R},\left|h^{\prime}(x)\right| \leqslant 1 \] \begin{itemize} \item \(N\) est une variable aléatoire qui suit la loi normale \((0,1)\). \item on admet que si \(X\) est une variable aléatoire possédant une espérance et \(h \in W, \mathbb{E}(h(X))\) existe.\\ On note en particulier \(c_{h}\) l'espérance de \(h(N)\). \item on note \(\Phi\) la fonction de répartition de la loi normale \((0,1)\) définie par, pour tout \(x \in \mathbb{R}\), \(\Phi(x)=\int_{-\infty}^{x} \frac{1}{\sqrt{2 \pi}} \mathrm{e}^{-\frac{t^{2}}{2}} d t\). On rappelle que c'est la primitive sur \(\mathbb{R}\), qui vaut \(\frac{1}{2}\) en 0 , de la fonction \(\varphi: t \mapsto \frac{1}{\sqrt{2 \pi}} \mathrm{e}^{-\frac{t^{2}}{2}}\). \end{itemize} \section*{Partie 1 - Transformation de Stein} Soit \(h \in W\). On définit sur \(\mathbb{R}\), la fonction \(\theta: x \mapsto \frac{\Phi(x)}{\varphi(x)}\) et la fonction \(f_{h}\) par, \[ f_{h}: x \mapsto \theta(-x) \int_{-\infty}^{x} h^{\prime}(t) \Phi(t) d t+\theta(x) \int_{x}^{+\infty} h^{\prime}(t)(1-\Phi(t)) d t \] lorsque ces intégrales convergent.\\ L'objectif principal de cette partie est d'obtenir, pour \(X\) une variable aléatoire admettant une espérance, une expression de \(|\mathbb{E}(h(X))-\mathbb{E}(h(N))|\) qui ne fait pas intervenir \(N\) directement. \begin{enumerate} \item a) Montrer que pour tout \(x \geqslant 0\) et \(t \in[x,+\infty[, 0 \leqslant x \varphi(t) \leqslant t \varphi(t)\). En déduire que : \end{enumerate} \[ \forall x \geqslant 0,0 \leqslant x(1-\Phi(x)) \leqslant \varphi(x) \] (on remarquera que pour tout \(t \in \mathbb{R}, \varphi^{\prime}(t)=-t \varphi(t)\).)\\ b) Procéder de façon analogue pour montrer que : \(\forall x \leqslant 0,-\varphi(x) \leqslant x \Phi(x) \leqslant 0\).\\ c) En déduire à l'aide d'une intégration par parties, pour tout \(x\) réel, la convergence des intégrales qui suivent et montrer que: \[ \int_{-\infty}^{x} \Phi(t) d t=x \Phi(x)+\varphi(x) \text { et } \int_{x}^{+\infty}(1-\Phi(t)) d t=-x(1-\Phi(x))+\varphi(x) \] \begin{enumerate} \setcounter{enumi}{1} \item a) Montrer que pour tous réels \(x\) et \(y\), \end{enumerate} \[ |h(x)-h(y)| \leqslant|x-y|, \text { puis que }|h(x)| \leqslant|x|+|h(0)| \] b) Pour tout \(x\) réel, justifier la convergence de \(\int_{-\infty}^{x} h^{\prime}(t) \Phi(t) d t\) et montrer que: \[ \int_{-\infty}^{x} h^{\prime}(t) \Phi(t) d t=h(x) \Phi(x)-\int_{-\infty}^{x} h(t) \varphi(t) d t \] On admet de même que, \(\int_{x}^{+\infty} h^{\prime}(t)(1-\Phi(t)) d t\) converge et que, \[ \int_{x}^{+\infty} h^{\prime}(t)(1-\Phi(t)) d t=-h(x)(1-\Phi(x))+\int_{x}^{+\infty} h(t) \varphi(t) d t \] c) En déduire que, pour tout \(x\) réel : \[ -\int_{-\infty}^{x} h^{\prime}(t) \Phi(t) d t+\int_{x}^{+\infty} h^{\prime}(t)(1-\Phi(t)) d t=c_{h}-h(x) \] \begin{enumerate} \setcounter{enumi}{2} \item a) Établir que pour tout \(x \in \mathbb{R}\), \end{enumerate} \[ \begin{aligned} \theta^{\prime}(x) & =1+x \theta(x) \\ \theta^{\prime \prime}(x) & =x+\left(1+x^{2}\right) \theta(x) \\ \theta(-x) \Phi(x) & =\theta(x)(1-\Phi(x)) \end{aligned} \] b) En déduire que \(f_{h}\) est une fonction de classe \(C^{1}\) sur \(\mathbb{R}\) qui vérifie, pour tout \(x\) réel : \[ f_{h}^{\prime}(x)-x f_{h}(x)=c_{h}-h(x) \] Pourquoi peut-on alors affirmer que \(f_{h}\) est de classe \(C^{2}\) sur \(\mathbb{R}\) ?\\ c) En conclure que, si \(X\) est une variable aléatoire admettant une espérance, \[ |\mathbb{E}(h(X))-\mathbb{E}(h(N))|=\left|\mathbb{E}\left(f_{h}^{\prime}(X)-X f_{h}(X)\right)\right| \] \begin{enumerate} \setcounter{enumi}{3} \item Majoration de \(\left|f_{h}\right|\).\\ a) Montrer, en utilisant les égalités \(\left(R_{1}\right)\), que pour tout \(x\) réel: \end{enumerate} \[ \theta(-x) \int_{-\infty}^{x} \Phi(t) d t+\theta(x) \int_{x}^{+\infty}(1-\Phi(t)) d t=1 \] b) En déduire que pour tout \(x\) réel : \(\left|f_{h}(x)\right| \leqslant 1\).\\ 5. Majoration de \(\left|f_{h}^{\prime \prime}\right|\).\\ a) Montrer que pour tout \(x\) réel : \[ \theta^{\prime \prime}(-x) \int_{-\infty}^{x} \Phi(t) d t+\theta^{\prime \prime}(x) \int_{x}^{+\infty}(1-\Phi(t)) d t=1 \] b) Établir pour tout \(x\) réel l'égalité: \[ f_{h}^{\prime \prime}(x)=-h^{\prime}(x)+\theta^{\prime \prime}(-x) \int_{-\infty}^{x} h^{\prime}(t) \Phi(t) d t+\theta^{\prime \prime}(x) \int_{x}^{+\infty} h^{\prime}(t)(1-\Phi(t)) d t \] c) Étudier les variations sur \(\mathbb{R}\) de la fonction \(x \mapsto \Phi(x)+\frac{x}{1+x^{2}} \varphi(x)\). En déduire son signe et le signe de \(\theta^{\prime \prime}\).\\ En conclure que, pour tout \(x\) réel : \(\left|f_{h}^{\prime \prime}(x)\right| \leqslant 2\). \section*{Partie 2 - Majoration uniforme de la distance de Kolmogorov} Dans la suite du problème, si \(X\) est une variable aléatoire de fonction de répartition \(F_{X}\), on définit, pour tout \(x\) réel, \(d_{X}(x)\) la distance de Kolmogorov au point \(x\) entre la loi de \(X\) et la loi normale centrée réduite par : \[ d_{X}(x)=\left|F_{X}(x)-\Phi(x)\right| \] On définit, pour tout \(x\) réel, la fonction \(h_{x}\) sur \(\mathbb{R}\) par \(h_{x}(t)=\left\{\begin{array}{ll}1 & \text { si } t \leqslant x \\ 0 & \text { si } t>x\end{array}\right.\).\\ On définit aussi la fonction \(\gamma\) sur \(\mathbb{R}\) par : \[ \gamma(t)= \begin{cases}1 & \text { si } t<0 \\ 0 & \text { si } t>1 \\ 1-3 t^{2}+2 t^{3} & \text { si } t \in[0,1]\end{cases} \] Soit \(X\) une variable aléatoire.\\ 6. Pour tout \(x\) réel, quelle est la loi de la variable aléatoire \(h_{x}(X)\) ? En déduire que \(\mathbb{E}\left(h_{x}(X)\right)\) existe et vaut \(F_{X}(x)\).\\ 7. a) Écrire une fonction Python gamma \((t)\) qui calcule et renvoie la valeur de \(\gamma(t), t\) étant donné.\\ b) Utiliser la fonction précédente pour écrire un script qui affiche le graphe de \(\gamma\) sur le segment \([-1,2]\) dans un repère.\\ 8. a) Montrer que \(\gamma\) est continue sur \(\mathbb{R}\), de classe \(C^{1}\) sur \(\mathbb{R}\) privé de 0 et 1 .\\ b) Étudier les variations de \(\gamma\) sur \([0,1]\) et montrer que pour tout \(t \in \mathbb{R}, \gamma(t) \in[0,1]\).\\ c) Établir que \(\gamma\) est dérivable en 1 et que \(\gamma^{\prime}(1)=0\). On montrerait de même que \(\gamma\) est dérivable en 0 et que \(\gamma^{\prime}(0)=0\). On l'admet.\\ d) Justifier que \(\gamma\) est de classe \(C^{1}\) sur \(\mathbb{R}\) et que pour tout \(t\) réel \(\left|\gamma^{\prime}(t)\right| \leqslant \frac{3}{2}\). On suppose dans la suite de cette partie que \(X\) admet une espérance et on considère un réel \(M_{X}\) qui vérifie, pour tout \(h \in W,|\mathbb{E}(h(X))-\mathbb{E}(h(N))| \leqslant M_{X}\).\\ 9. Soit \(t>0\) et \(x\) un réel. Pour tout \(y \in \mathbb{R}\), on pose \(k_{x}(y)=\gamma\left(\frac{y-x}{t}\right)\).\\ a) Montrer que pour tout \(y\) réel, \(h_{x}(y) \leqslant k_{x}(y)\).\\ b) On admet l'existence de \(\mathbb{E}\left(k_{x}(X)\right)\) et de \(\mathbb{E}\left(k_{x}(N)\right)\). Justifier l'inégalité suivante : \[ \mathbb{E}\left(h_{x}(X)\right)-\mathbb{E}\left(h_{x}(N)\right) \leqslant \mathbb{E}\left(k_{x}(X)\right)-\mathbb{E}\left(k_{x}(N)\right)+\mathbb{E}\left(k_{x}(N)\right)-\mathbb{E}\left(h_{x}(N)\right) \] c) Montrer que \(\mathbb{E}\left(k_{x}(N)\right)-\mathbb{E}\left(h_{x}(N)\right)=\int_{x}^{x+t} k_{x}(u) \varphi(u) d u\).\\ d) Établir que la fonction \(g\), définie sur \(\mathbb{R}\) par \(g: u \mapsto \frac{2 t}{3} k_{x}(u)\), appartient à \(W\). En déduire que : \[ \mathbb{E}\left(h_{x}(X)\right)-\mathbb{E}\left(h_{x}(N)\right) \leqslant \frac{3}{2 t} M_{X}+\frac{t}{\sqrt{2 \pi}} \leqslant \frac{3}{2 t} M_{X}+\frac{t}{2} \] On admet de même, qu'en utilisant la fonction \(k_{x-t}\), on a: \[ \mathbb{E}\left(h_{x}(N)\right)-\mathbb{E}\left(h_{x}(X)\right) \leqslant \frac{3}{2 t} M_{X}+\frac{t}{2} \] \begin{enumerate} \setcounter{enumi}{9} \item En étudiant la fonction \(t \mapsto \frac{3}{2 t} M_{X}+\frac{t}{2}\) sur \(] 0,+\infty[\), en déduire que, pour tout \(x\) réel, \end{enumerate} \[ \left|\mathbb{E}\left(h_{x}(X)\right)-\mathbb{E}\left(h_{x}(N)\right)\right| \leqslant \sqrt{3 M_{X}}, \text { puis que } d_{X}(x) \leqslant \sqrt{3 M_{X}}\left(R_{2}\right) \] \section*{Partie 3 - Estimation d'une densité} On considère \(X\) une variable aléatoire à densité de fonction de répartition \(F\) et de densité de probabilité \(f\) qui dépendent d'un paramètre inconnu \(\theta\), où \(\theta \in \Theta, \Theta\) un intervalle de \(\mathbb{R}\). Soit \(a\) un point de continuité de \(f\), fixé. On souhaite estimer \(f(a)\).\\ Par exemple, si \(X\) suit la loi exponentielle de paramètre \(\theta\) et \(a>0\), on souhaite estimer \(\theta \mathrm{e}^{-\theta a}\).\\ On dispose pour tout \(\theta \in \Theta\), d'une suite de variables aléatoires \(\left(X_{i}\right)_{i \geqslant 1}\) indépendantes de même loi que \(X\). On choisit une suite \(\left(h_{n}\right)_{n \geqslant 1}\) de réels strictement positifs tels que : \[ \lim _{n \rightarrow+\infty} h_{n}=0 \text { et } \lim _{n \rightarrow+\infty} n h_{n}=+\infty \] Pour tout \(n \in \mathbb{N}^{*}\) et \(\omega \in \Omega\), on définit :\\ \(C_{n}(\omega)\) comme le nombre d'indices \(i \in \llbracket 1, n \rrbracket\) tels que \(\left.X_{i}(\omega) \in\right] a-h_{n}, a+h_{n} \rrbracket\)\\ et \(f_{n}(\omega)=\frac{1}{2 n h_{n}} C_{n}(\omega)\).\\ 11. On suppose que l'on dispose d'un fichier stats.csv qui comporte une colonne nommée salaire. On considère que les valeurs de cette colonne constituent la réalisation d'un échantillon de la loi de \(X\) dont la taille dépasse 10000 .\\ a) Après avoir exécuté import pandas as pd, quelle(s) instruction(s) permet(tent) de lire dans le fichier stats.csv les valeurs de la colonne salaire et d'affecter cette série pandas obtenue à une variable échantillon?\\ On supposera que le fichier stats. csv se trouve dans le répertoire de travail.\\ b) On souhaite calculer et afficher \(f_{n}(\omega)\) pour a donné, lorsque la réalisation d'un échantillon \(\left(X_{1}(\omega), \ldots, X_{n}(\omega)\right)\) de la loi de \(X\) est représentée en Python par échantillon et, pour tout \(n \in \mathbb{N}^{*}, h_{n}=\frac{1}{\sqrt{n}}\).\\ Compléter le script suivant pour qu'il réalise cette tâche. \begin{verbatim} a = float(input('a=')) n = échantillon.count() h = 1 / np.sqrt(n) c = 0 for i in range(n): if ... and ...: ... += 1 print(C / ...) \end{verbatim} \begin{enumerate} \setcounter{enumi}{11} \item Montrer que \(C_{n}\) suit une loi binomiale de paramètres \(\left(n, p_{n}\right)\) en précisant l'expression de \(p_{n}\) en fonction de \(a\) et \(h_{n}\).\\ En déduire que \(\mathbb{E}\left(f_{n}\right)\) existe et vaut : \(\frac{F\left(a+h_{n}\right)-F\left(a-h_{n}\right)}{2 h_{n}}\). \item a) En utilisant la dérivabilité de \(F\) en \(a\), montrer que \(\lim _{n \rightarrow+\infty} \mathbb{E}\left(f_{n}\right)=f(a)\).\\ b) Montrer que \(\mathbb{V}\left(f_{n}\right)\) existe et que \(\lim _{n \rightarrow+\infty} \mathbb{V}\left(f_{n}\right)=0\) \end{enumerate} On suppose désormais, que \(f(a)>0\), que pour tout \(\left.n \in \mathbb{N}^{*}, p_{n} \in\right] 0,1[\), que \(F\) est de classe \(C^{2}\) au voisinage de a et que \(\lim _{n \rightarrow+\infty} n h_{n}^{3}=0\).\\ On note pour tout \(n \geqslant 1, \sigma_{n}=\sqrt{n p_{n}\left(1-p_{n}\right)}\) et \(\theta_{n}=\sqrt{2 h_{n} f(a)}\).\\ On définit les variables aléatoires : \(D_{n}=\frac{C_{n}-n p_{n}}{\sigma_{n}}\) et \(\hat{f}_{n}=\frac{\theta_{n} \sqrt{n}}{f(a)}\left(f_{n}-f(a)\right)\).\\ 14. a) En utilisant le développement limité de \(F\) à l'ordre 2 au point \(a\), montrer que : \[ p_{n} \underset{n \rightarrow+\infty}{=} 2 h_{n} f(a)+o\left(h_{n}^{2}\right) \underset{n \rightarrow+\infty}{=} \theta_{n}^{2}+o\left(h_{n}^{2}\right) \] b) En déduire que : \(p_{n} \underset{+\infty}{\sim} 2 h_{n} f(a)\), puis que \(\lim _{n \rightarrow+\infty} n p_{n}=+\infty\).\\ c) Montrer que \(\hat{f}_{n}=\frac{\sigma_{n}}{\theta_{n} \sqrt{n}} D_{n}+\sqrt{n}\left(\frac{p_{n}}{\theta_{n}}-\theta_{n}\right)\) et que l'on a: \[ \lim _{n \rightarrow+\infty} \frac{\sigma_{n}}{\theta_{n} \sqrt{n}}=1 \quad ; \quad \lim _{n \rightarrow+\infty} \sqrt{n}\left(\frac{p_{n}}{\theta_{n}}-\theta_{n}\right)=0 \] On admet, dans la suite de cette partie, que \(\left(\hat{f}_{n}\right)_{n \geqslant 1}\) converge en loi vers \(N\) ce qui implique que pour tout \((x, y) \in \mathbb{R}^{2}\), avec \(x \leqslant y\), on \(a\) : \[ \lim _{n \rightarrow+\infty} \mathbb{P}\left(x \leqslant \hat{f}_{n} \leqslant y\right)=\Phi(y)-\Phi(x) \] \begin{enumerate} \setcounter{enumi}{14} \item Soit \(\alpha \in] 0,1\left[\right.\). On pose \(\eta_{\alpha}=t_{\alpha}^{2}\) où \(t_{\alpha}\) est le quantile d'ordre \(1-\frac{\alpha}{2}\) de la loi normale \((0,1)\).\\ a) Montrer que \(\lim _{n \rightarrow+\infty} \mathbb{P}\left((f(a))^{2}-\left(2 f_{n}+\frac{\eta_{\alpha}}{2 n h_{n}}\right) f(a)+f_{n}^{2} \leqslant 0\right)=1-\alpha\).\\ b) On note, pour \(n \geqslant 1, \Delta_{n}=\sqrt{\left(f_{n}+\frac{\eta_{\alpha}}{4 n h_{n}}\right)^{2}-f_{n}^{2}}\). \end{enumerate} Montrer que : \[ \lim _{n \rightarrow+\infty} \mathbb{P}\left(f(a) \in\left[f_{n}+\frac{\eta_{\alpha}}{4 n h_{n}}-\Delta_{n}, f_{n}+\frac{\eta_{\alpha}}{4 n h_{n}}+\Delta_{n}\right]\right)=1-\alpha \] \section*{Partie 4 - Convergence « uniforme » en loi vers la loi normale} Soit \(n \in \mathbb{N}^{*}\). On considère \(n\) variables aléatoires \(X_{1}, \ldots, X_{n}\) indépendantes centrées qui possèdent un moment d'ordre 3. On admet alors que ces variables aléatoires possèdent une variance. On pose, pour tout \(k \in \llbracket 1, n \rrbracket, \mathbb{E}\left(X_{k}^{2}\right)=v_{k}, S_{n}=\sum_{k=1}^{n} X_{k}, Y_{k}=S_{n}-X_{k}\) et on suppose que \(\sum_{k=1}^{n} v_{k}=1\). Soit \(f\) une fonction de classe \(C^{2}\) sur \(\mathbb{R}\) telle que pour tout \(x\) réel, \(|f(x)| \leqslant 1\) et \(\left|f^{\prime \prime}(x)\right| \leqslant 2\).\\ On admet que si \(X\) et \(Y\) sont des variables aléatoires possédant une espérance alors \(\mathbb{E}(Y f(X))\) et \(\mathbb{E}\left(f^{\prime}(X)\right)\) existent.\\ 16. a) Montrer que \(\sum_{k=1}^{n} v_{k} \mathbb{E}\left(f^{\prime}\left(S_{n}\right)-f^{\prime}\left(Y_{k}\right)\right)+\sum_{k=1}^{n} \mathbb{E}\left(X_{k}^{2} f^{\prime}\left(Y_{k}\right)\right)=\mathbb{E}\left(f^{\prime}\left(S_{n}\right)\right)\).\\ b) Montrer que \(\sum_{k=1}^{n} \mathbb{E}\left(X_{k}\left[f\left(S_{n}\right)-f\left(Y_{k}\right)\right]\right)=\sum_{k=1}^{n} \mathbb{E}\left(X_{k} f\left(S_{n}\right)\right)=\mathbb{E}\left(S_{n} f\left(S_{n}\right)\right)\)\\ c) En déduire que : \[ \mathbb{E}\left(f^{\prime}\left(S_{n}\right)-S_{n} f\left(S_{n}\right)\right)=\sum_{k=1}^{n} v_{k} \mathbb{E}\left(f^{\prime}\left(S_{n}\right)-f^{\prime}\left(Y_{k}\right)\right)+\sum_{k=1}^{n} \mathbb{E}\left(X_{k}\left[X_{k} f^{\prime}\left(Y_{k}\right)-\left(f\left(S_{n}\right)-f\left(Y_{k}\right)\right)\right]\right) \] \begin{enumerate} \setcounter{enumi}{16} \item Soit \(a\) et \(b\) deux réels.\\ a) Montrer que : \end{enumerate} \[ b f^{\prime}(a)-(f(a+b)-f(a))=\int_{0}^{1} b\left(f^{\prime}(a)-f^{\prime}(a+t b)\right) d t \] b) En déduire que : \[ \left|b f^{\prime}(a)-(f(a+b)-f(a))\right| \leqslant b^{2} \] c) En conclure que : \[ \left|\mathbb{E}\left(f^{\prime}\left(S_{n}\right)-S_{n} f\left(S_{n}\right)\right)\right| \leqslant 2 \sum_{k=1}^{n} v_{k} \mathbb{E}\left(\left|X_{k}\right|\right)+\sum_{k=1}^{n} \mathbb{E}\left(\left|X_{k}\right|^{3}\right) \] puis, grâce à l'inégalité ( \(R_{2}\) ), que, pour tout \(x\) réel: \[ d_{S_{n}}(x) \leqslant \sqrt{3\left(2 \sum_{k=1}^{n} v_{k} \mathbb{E}\left(\left|X_{k}\right|\right)+\sum_{k=1}^{n} \mathbb{E}\left(\left|X_{k}\right|^{3}\right)\right)} \] Une définition - Dans la suite du sujet, si \(\left(X_{n}\right)_{n \geqslant 1}\) est une suite de variables aléatoires réelles et \(\left(\delta_{n}\right)_{n \geqslant 1}\) une suite réelle de limite nulle qui vérifient, \[ \forall n \in \mathbb{N}^{*}, \forall x \in \mathbb{R}, d_{X_{n}}(x) \leqslant \delta_{n} \] on dira alors que \(\left(X_{n}\right)_{n \geqslant 1}\) converge uniformément en loi vers \(N\).\\ On remarque, et on l'admet pour la suite, que si \(\left(X_{n}\right)_{n \geqslant 1}\) converge uniformément en loi vers \(N\) alors \(\left(X_{n}\right)_{n \geqslant 1}\) converge en loi vers \(N\).\\ 18. Une première application. On suppose dans cette question que \(\left(Z_{k}\right)_{k \geqslant 1}\) est une suite de variables aléatoires indépendantes, suivant la même loi et admettant des moments d'ordre 1 à 3 .\\ On note pour \(i \in \llbracket 1,3 \rrbracket, s_{i}=\mathbb{E}\left(\left|Z_{k}-\mathbb{E}\left(Z_{k}\right)\right|^{i}\right), \sigma=\sqrt{s_{2}}\) et, \(X_{k}=\frac{Z_{k}-\mathbb{E}\left(Z_{k}\right)}{\sigma \sqrt{n}}\) pour tout \(k \in \mathbb{N}^{*}\). On suppose que \(\sigma \neq 0\).\\ On utilise les notations de la question précédente.\\ a) Montrer que l'on peut appliquer l'inégalité ( \(R_{3}\) ) qui donne ici : \[ d_{S_{n}}(x) \leqslant \sqrt{3 \frac{2 \sigma^{2} s_{1}+s_{3}}{\sigma^{3} \sqrt{n}}} \] b) En déduire que \(\left(S_{n}\right)_{n \geqslant 1}\) converge uniformément en loi vers \(N\), donc converge en loi vers \(N\). Quel résultat du cours nous aurait permis d'obtenir cette dernière convergence directement?\\ 19. Une deuxième application. On suppose dans cette question que \(Z_{1}, \ldots, Z_{n}\) sont des variables aléatoires indépendantes suivant la même loi de Bernoulli de paramètre \(\left.p_{n} \in\right] 0,1[\).\\ On pose \(\sigma_{n}=\sqrt{n p_{n}\left(1-p_{n}\right)}\) et \(X_{k}=\frac{Z_{k}-p_{n}}{\sigma_{n}}\) pour tout \(k \in \llbracket 1, n \rrbracket\).\\ a) Montrer que \(\mathbb{E}\left(\left|X_{k}\right|\right)=\frac{2 \sigma_{n}}{n}\) et \(\mathbb{E}\left(\left|X_{k}\right|^{3}\right) \leqslant \frac{2}{n \sigma_{n}}\).\\ b) En déduire que, pour tout \(x\) réel : \[ d_{S_{n}}(x) \leqslant 2 \sqrt{3\left(\frac{\sigma_{n}}{n}+\frac{1}{2 \sigma_{n}}\right)} \] c) Justifier le résultat suivant :\\ si pour tout \(n \in \mathbb{N}^{*}, T_{n}\) est une variable aléatoire qui suit la loi binomiale \(\left(n, p_{n}\right)\) avec \(\lim _{n \rightarrow+\infty} p_{n}=0\) et \(\lim _{n \rightarrow+\infty} n p_{n}=+\infty\) alors, \(\left(\frac{T_{n}-n p_{n}}{\sqrt{n p_{n}\left(1-p_{n}\right)}}\right)_{n \geqslant 1}\) converge uniformément en loi vers \(N\).\\ 20. Un petit lemme. Soit \(\left(V_{n}\right)_{n \geqslant 1}\) une suite de variables aléatoires réelles qui converge uniformément en loi vers \(N\). Soit \(\left(a_{n}\right)_{n \geqslant 1}\) une suite de réels strictement positifs qui converge vers \(a\), tel que \(a>0\), et \(\left(b_{n}\right)_{n \geqslant 1}\) une suite de réels qui converge vers \(b\).\\ a) Soit \(X\) une variable aléatoire et ( \(\alpha, \beta\) ) un couple de réels avec \(\alpha>0\). On note \(F_{\alpha X+\beta}\) et \(F_{\alpha N+\beta}\) les fonctions de répartition respectives de \(\alpha X+\beta\) et \(\alpha N+\beta\).\\ Montrer que, pour tout \(x\) réel, \[ \left|F_{\alpha X+\beta}(x)-F_{\alpha N+\beta}(x)\right|=d_{X}\left(\frac{x-\beta}{\alpha}\right) \] b) Montrer que pour tout \(x\) réel, \[ \lim _{n \rightarrow+\infty}\left(\mathbb{P}\left(a_{n} V_{n}+b_{n} \leqslant x\right)-\mathbb{P}\left(a_{n} N+b_{n} \leqslant x\right)\right)=0 \] c) Établir que \(\lim _{n \rightarrow+\infty} \mathbb{P}\left(a_{n} N+b_{n} \leqslant x\right)=\mathbb{P}(a N+b \leqslant x)\) puis en déduire que \(\left(a_{n} V_{n}+b_{n}\right)_{n \geqslant 1}\) converge en loi vers \(a N+b\). Quelle est la loi de la variable aléatoire \(a N+b\) ?\\ 21. On reprend les notations de la partie 3.\\ a) Justifier que \(\left(D_{n}\right)_{n \geqslant 1}\) converge uniformément en loi vers \(N\).\\ b) En utilisant les résultats des questions 14 et 20 , en déduire que la la suite \(\left(\hat{f}_{n}\right)_{n \geqslant 1}\) converge en loi vers \(N\). \end{document}