\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \title{Conception : ESSEC } \author{OPTION ÉCONOMIQUE} \date{} \begin{document} \maketitle \section*{MATHÉMATIQUES II} Vendredi 30 avril 2021, de 8 h. à 12 h. \begin{abstract} La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies. Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs. Aucun document n'est autorisé. L'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée. Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre. \end{abstract} Une des situations les plus fréquentes dans l'entretien d'un site concerne la gestion des équipements et, notamment, le fait de prévoir le remplacement d'éléments défaillants. Imaginons par exemple qu'un local soit éclairé par une ampoule. Celle-ci a une durée de vie aléatoire; quand elle tombe en panne, elle est immédiatement remplacée par une nouvelle ampoule et ainsi de suite... Une bonne gestion nécessite donc d'avoir connaissance du comportement des pannes successives, et notamment de ce comportement en moyenne, pour pouvoir prévoir un stock d'ampoules de rechange. Une telle situation s'appelle un processus de renouvellement et le but du problème est l'étude d'un modèle probabiliste la décrivant. Dans la première partie, on examine le comportement asymptotique des temps de panne. Dans la deuxième, on regarde quelques propriétés de base du processus. Enfin la troisième est consacrée à la détermination du comportement asymptotique du nombre de pannes moyen.\\ Toutes les variables aléatoires intervenant dans le problème sont définies sur un espace probabilisé ( \(\Omega, \mathcal{A}, P\) ).\\ Pour toute variable aléatoire \(Y\), on notera \(E(Y)\) son espérance et \(\operatorname{Var}(Y)\) sa variance quand elles existent. On admettra en outre la propriété suivante : si \(Y\) et \(Z\) sont deux variables aléatoires positives telles que \(Y \leq Z\) et \(E(Z)\) existe, alors \(Y\) admet une espérance et \(E(Y) \leq E(Z)\).\\ Pour tout le problème, on se donne une suite de variables aléatoires réelles \(\left(X_{n}\right)_{n \geq 1}\) positives, indépendantes et de même loi. On notera, pour tout réel \(t, F(t)=P\left(X_{1} \leq t\right)\) la fonction de répartition de la variable aléatoire \(\overline{X_{1}}\). On suppose \(F(0)=P\left(X_{1}=0\right)<1\). De plus, on suppose que \(X_{1}\) admet un moment d'ordre 4, \(E\left(X_{1}^{4}\right)\). On pose \(S_{0}=0\) et, pour tout entier \(n \geq 1, S_{n}=\sum_{i=1}^{n} X_{i}\). \section*{Première partie : Comportement asymptotique des temps de panne} 1. (a)\\ i) Soit \(r\) un entier naturel tel que \(1 \leq r \leq 4\). Montrer que \(X_{1}^{r} \leq 1+X_{1}^{4}\).\\ ii) Montrer que pour tout \(r \in\{1,2,3,4\}, X_{1}^{r}\) admet une espérance. On notera tout au long du problème \(\mu=E\left(X_{1}\right)\).\\ iii) Montrer que \(\mu>0\).\\ iv) Montrer que la variable aléatoire \(X_{1}-\mu\) admet un moment d'ordre 4.\\ 2) Soit \(\left(A_{n}\right)_{n \geq 1}\) une suite d'événements telle que la série de terme général \(P\left(A_{n}\right)\) converge. On pose pour tout entier \(n \geq 1, B_{n}=\bigcup_{k=n}^{+\infty} A_{k}\).\\ (a) Montrer que \(\forall n \geq 1, B_{n} \supset B_{n+1}\). On pose \(B=\bigcap_{n=1}^{+\infty} B_{n}\).\\ (b) Montrer l'équivalence entre les deux assertions suivantes :\\ (*) \(\omega \in B\);\\ \((* *) \omega\) appartient à \(A_{k}\) pour une infinité de valeurs de \(k\).\\ (c) Montrer que \(P(B)=\lim _{n \rightarrow+\infty} P\left(B_{n}\right)\).\\ (d) Montrer que si \(C\) et \(D\) sont deux événements, on a \(P(C \cup D) \leq P(C)+P(D)\).\\ (e) Montrer que \(P\left(B_{n}\right) \leq \sum_{k=n}^{+\infty} P\left(A_{k}\right)\).\\ (f) Déduire que \(P(B)=0\).\\ 3) Soit \(\left(Y_{k}\right)_{k \geq 1}\) une suite de variables aléatoires réelles positives indépendantes, centrées et de même loi. On suppose que \(Y_{1}\) admet un moment d' ordre 4 et on note \(\operatorname{Var}\left(Y_{1}\right)=E\left(Y_{1}^{2}\right)=\sigma^{2}\) et \(E\left(Y_{1}^{4}\right)=\rho^{4}\). On pose enfin, pour tout entier \(n \geq 1, \Sigma_{n}=\sum_{k=1}^{n} Y_{k}\).\\ (a) Montrer que pour tout réel \(\varepsilon>0\) donné, on a \(\lim _{n \rightarrow+\infty} P\left(\left|\frac{\Sigma_{n}}{n}\right|>\varepsilon\right)=0\).\\ (b) Soit \(\varepsilon \in \mathbb{R}_{+}^{*}\).\\ i) Montrer que \(P\left(\left|\frac{\Sigma_{n}}{n}\right|>\varepsilon\right)=P\left(\left(\frac{\Sigma_{n}}{n}\right)^{4}>\varepsilon^{4}\right)\).\\ ii) Montrer que \(P\left(\left|\frac{\Sigma_{n}}{n}\right|>\varepsilon\right) \leq \frac{1}{\varepsilon^{4}} E\left(\left(\frac{\Sigma_{n}}{n}\right)^{4}\right)\).\\ iii) Montrer que \[ \left(\Sigma_{n}\right)^{4}=\sum_{k=1}^{n} Y_{k}^{4}+3 \sum_{k=1}^{n} \sum_{j=1, j \neq k}^{n} Y_{k}^{2} Y_{j}^{2}+\sum_{k=1}^{n} Y_{k} W_{k} \] où \(W_{k}\) désigne une variable aléatoire fonction de \(Y_{1}, \ldots, Y_{k-1}, Y_{k+1}, \ldots, Y_{n}\) (on ne cherchera pas à expliciter cette variable aléatoire).\\ iv) Montrer que \(E\left(\left(\Sigma_{n}\right)^{4}\right)=n \rho^{4}+3 n(n-1) \sigma^{4}\).\\ v) Montrer qu'il existe une constante \(C>0\) telle que pour tout entier \(n\) strictement positif \[ E\left(\left(\frac{\Sigma_{n}}{n}\right)^{4}\right) \leq \frac{C}{n^{2}} \] vi) Montrer que \(P\left(\left|\frac{\Sigma_{n}}{n}\right|>\frac{1}{n^{1 / 8}}\right) \leq \frac{C}{n^{3 / 2}}\).\\ 4) On définit, pour tout entier \(n \geq 1\), l'événement \(A_{n}=\left\lceil\left|\frac{\Sigma_{n}}{n}\right|>\frac{1}{n^{1 / 8}}\right\rceil\).\\ (a) Montrer que la série de terme général \(P\left(A_{n}\right)\) est convergente.\\ (b) En déduire que la probabilité pour que \(A_{n}\) se produise pour une infinité de valeurs de \(n\) est nulle.\\ (c) Montrer que l'événement \(\left[\lim _{n \rightarrow+\infty} \frac{\Sigma_{n}}{n}=0\right]\) a pour probabilité 1 .\\ (d) Montrer que l'événement \(\left[\lim _{n \rightarrow \infty} \frac{S_{n}}{n}=\mu\right]\) a pour probabilité 1 .\\ 5)\\ (a) Montrer que pour tout \(\omega \in \Omega\), la suite de réels \(\left(S_{n}(\omega)\right)_{n \geq 0}\) est croissante. On considère la fonction \(S_{\infty}\) définie sur \(\Omega\) par \(S_{\infty}(\omega)=\lim _{n \rightarrow+\infty} S_{n}(\omega)\) avec \(S_{\infty}(\omega)=+\infty\) si \(\left(S_{n}(\omega)\right)_{n \geq 1}\) diverge.\\ (b) Montrer que si \(S_{\infty}(\omega) \in \mathbb{R}_{+}\), alors \(\lim _{n \rightarrow+\infty} \frac{S_{n}(\omega)}{n}=0\).\\ (c) En déduire que \(P\left(S_{\infty}=+\infty\right)=1\). \section*{Deuxième partie : Le processus de renouvellement} On a montré dans la partie précédente qu'avec probabilité 1 , la suite \(\left(S_{n}(\omega)\right)_{n \geq 1}\) tend vers l'infini. On peut donc définir, pour tout réel \(t \geq 0\), la variable aléatoire \[ N_{t}=\max \left\{k \in \mathbb{N}, S_{k} \leq t\right\} . \] C'est le processus de renouvellement associé à la suite \(\left(X_{n}\right)_{n \geq 1}\).\\ 6)\\ (a) Soient deux réels \(s\) et \(t\) tels que \(0 \leq s \leq t\). Montrer que \(N_{s} \leq N_{t}\).\\ (b) Soient \(n \in \mathbb{N}\) et \(t \in \mathbb{R}_{+}\). Montrer l'égalité des événements \(\left[N_{t} \geq n\right]\) et \(\left[S_{n} \leq t\right]\).\\ (c) Pour \(\omega \in \Omega\) donné, montrer que la limite \(\lim _{t \rightarrow+\infty} N_{t}(\omega)\) existe (elle est éventuellement infinie). On note \(N_{\infty}(\omega)\) cette limite.\\ (d) Soient \(\omega \in \Omega\) et \(K \in \mathbb{N}\). On suppose \(N_{\infty}(\omega)=K\).\\ i) Montrer qu'il existe \(T_{\omega}>0\) tel que \(\forall t \geq T_{\omega}, N_{t}(\omega)=K\).\\ ii) Montrer qu'alors \(S_{K}(\omega) \leq T_{\omega}\), et \(S_{K+1}(\omega)>t\) pour tout \(t \geq T_{\omega}\).\\ iii) En déduire que si \(N_{\infty}(\omega)=K\) alors nécessairement \(X_{K+1}(\omega)>t\) pour tout \(t\) réel positif, ce qui est absurde.\\ iv) Conclure que \(P\left(N_{\infty}=+\infty\right)=1\).\\ 7) On souhaite écrire une fonction en Scilab qui simule informatiquement la variable \(N_{t}\). On suppose que la fonction x renvoie une réalisation de la variable aléatoire \(X\). Compléter la fonction suivante, qui prend en argument un nombre réel \(t\), et renvoie une réalisation de \(N_{t}\) : \begin{verbatim} function N = Renouvellement (t) N=O; S=0; while ... ... endfunction \end{verbatim} 8. (a) Montrer que pour tout \(n \in \mathbb{N}\) et pour tout \(t \in \mathbb{R}_{+}\) \[ P\left(N_{t}=n\right)=P\left(N_{t} \geq n\right)-P\left(N_{t} \geq n+1\right) \] (b) Pour tout réel \(t \geq 0\), pour tout entier naturel \(n\), on note \(F_{n}(t)=P\left(S_{n} \leq t\right)\).\\ i) Déterminer \(F_{0}\) et \(F_{1}\).\\ ii) Montrer que \(P\left(N_{t}=n\right)=F_{n}(t)-F_{n+1}(t)\).\\ 9) Soient \(U, V, U^{\prime}, V^{\prime}\) quatre variables aléatoires à valeurs dans \(\mathbb{I} N\). On suppose que \(U\) et \(U^{\prime}\) suivent la même loi et que pour tous entiers naturels \(k\) et \(j\) tels que \(P(U=k) \neq 0\), on a \[ P_{[U=k]}(V=j)=P_{\left[U^{\prime}=k\right]}\left(V^{\prime}=j\right) \] Montrer que \(V\) et \(V^{\prime}\) suivent la même loi.\\ 10) Soit \(\left(Z_{n}\right)_{n \geq 1}\) une suite de variables de Bernoulli indépendantes et de même paramètre \(p\). On note \(W=\min \left\{k \geq 1, Z_{k}=1\right\}\).\\ (a) Montrer que pour tout \(i \geq 1, P(W=i)=p(1-p)^{i-1}\).\\ (b) Pour tout entier \(n \geq 1\), on pose \(W_{n}=\min \left\{k \geq 1, \sum_{l=1}^{k} Z_{l}=n\right\}\).\\ i) Montrer que pour tout \(k \geq n\), on a \[ P\left(W_{n}=k\right)=\binom{k-1}{n-1} p^{n}(1-p)^{k-n} \] ii) Montrer que pour tout \(k \geq n\) et \(j \geq k+1\), on a \[ P_{\left[W_{n}=k\right]}\left(W_{n+1}=j\right)=p(1-p)^{j-k-1} \] (c) On suppose que pour tout entier \(i \geq 1, P\left(X_{1}=i\right)=p(1-p)^{i-1}\).\\ i) Montrer que pour tous entiers \(j\) et \(k\) tels que \(j \geq k+1\), on a \[ P_{\left[S_{n}=k\right]}\left(S_{n+1}=j\right)=p(1-p)^{j-k-1} \] ii) En déduire que pour tout entier \(n \geq 1, S_{n}\) a même loi que \(W_{n}\).\\ (d) Montrer que pour tout réel \(t \geq 0\) et tout entier naturel \(n\) non nul, on a \[ P\left(N_{t}=n\right)=\sum_{k=n}^{\lfloor t\rfloor}\binom{k-1}{n-1} p^{n}(1-p)^{k-n}-\sum_{k=n+1}^{\lfloor t\rfloor}\binom{k-1}{n} p^{n+1}(1-p)^{k-n-1} \] où \(\lfloor t\rfloor\) désigne le plus grand entier naturel inférieur ou égal à \(t\) (par convention \(\sum_{k=r}^{s}=0\) si \(r>s\) ). \section*{Troisième partie : Théorème du renouvellement} Le but de cette partie est d'obtenir des propriétés asymptotiques, en moyenne, du processus de renouvellement.\\ 11)\\ (a) Montrer que pour tout réel \(t \geq 0, S_{N_{t}} \leq t0\) tel que pour tout réel \(t \geq T_{\omega}\), \[ \frac{S_{N_{t}}(\omega)}{N_{t}(\omega)} \leq \frac{t}{N_{t}(\omega)}<\frac{S_{N_{t}+1}(\omega)}{N_{t}(\omega)} \] (c) Montrer que l'événement \(\left[\lim _{t \rightarrow+\infty} \frac{S_{N_{t}}}{N_{t}}=\mu\right]\) a pour probabilité 1.\\ (d) Montrer que l'événement \(\left[\lim _{t \rightarrow+\infty} \frac{S_{N_{t}+1}}{N_{t}}=\mu\right]\) a pour probabilité 1 .\\ (e) En déduire que l'événement \(\left[\lim _{t \rightarrow+\infty} \frac{N_{t}}{t}=\frac{1}{\mu}\right]\) a pour probabilité 1 . On va maintenant chercher à montrer que le résultat précédent s'étend en moyenne, c'est-à-dire que \[ \lim _{t \rightarrow+\infty} E\left(\frac{N_{t}}{t}\right)=\frac{1}{\mu} \] \begin{enumerate} \setcounter{enumi}{11} \item On commence par examiner un contre-exemple qui montre que le résultat ne se déduit pas automatiquement de la question précédente. Soit \(U\) une variable aléatoire de loi uniforme sur \([0,1]\). Pour tout entier \(n \geq 1\), on pose \end{enumerate} \[ Y_{n}=\left\{\begin{array}{ccc} 0 & \text { si } & U>1 / n \\ n & \text { si } & U \leq 1 / n \end{array}\right. \] avec la convention \(Y_{n}(\omega)=0\) pour tout \(\omega \in \Omega\) tel que \(U(\omega)=0\).\\ (a) Soit \(\omega \in \Omega\). Montrer qu'il existe \(N_{\omega} \in \mathbb{N}\) tel que pour tout entier \(n \geq N_{\omega}\), on a \(Y_{n}(\omega)=0\).\\ (b) En déduire que l'événement \(\left[\lim _{n \rightarrow+\infty} Y_{n}=0\right]\) a pour probabilité 1 .\\ (c) Montrer que pour tout entier \(n \geq 1, E\left(Y_{n}\right)=1\). On n'a donc pas \(\lim _{n \rightarrow+\infty} E\left(Y_{n}\right)=E\left(\lim _{n \rightarrow+\infty} Y_{n}\right)\).\\ 13) Soit \(J\) une variable aléatoire à valeurs dans \(\mathbb{N}\). On note \(S_{J}=\sum_{k=1}^{J} X_{k}\).\\ (a) Montrer que \(S_{J}=\sum_{k=1}^{+\infty} X_{k} \mathbb{I}_{[J \geq k]}\) où \(\mathbb{I}_{A}(\omega)= \begin{cases}0 & \text { si } \omega \notin A, \\ 1 & \text { si } \omega \in A .\end{cases}\) On suppose désormais que \(J\) vérifie la propriété suivante : pour tout entier \(n \geq 1\), la variable \(\mathbb{I}_{[J \leq n]}\) est indépendante des variables \(X_{n+1}, X_{n+2}, \ldots\). On admettra que si \(\left(W_{n}\right)_{n \geq 1}\) est une suite de variables aléatoires positives, l'écriture formelle \(\sum_{n=1}^{+\infty} E\left(W_{n}\right)=E\left(\sum_{n=1}^{+\infty} W_{n}\right)\) est toujours valide sous réserve d'existence.\\ (b) Montrer que les variables aléatoires \(X_{k}\) et \(\mathbb{I}_{[J \geq k]}\) sont indépendantes.\\ (c) Soit \(U\) une variable aléatoire à valeurs dans \(\mathbb{I} N\).\\ i) Montrer que \(U=\sum_{n=1}^{+\infty} \mathbb{I}_{[U \geq n]}\).\\ ii) Montrer que \(E(U)=\sum_{n=1}^{+\infty} P(U \geq n)\).\\ (d) Montrer que \(E\left(S_{J}\right)=E\left(X_{1}\right) E(J)=\mu E(J)\).\\ 14)\\ (a) Soient un réel \(t>0\) et un entier \(n \in \mathbb{N}^{*}\). On pose \(J=N_{t}+1\). Montrer que la variable aléatoire \(\mathbb{I}_{[J \leq n]}\) est indépendante de \(X_{n+1}, X_{n+2}, \ldots\).\\ (b) En déduire que \(E\left(S_{N_{t}+1}\right)=\mu\left(E\left(N_{t}\right)+1\right)\) puis que \(E\left(N_{t}\right)=\frac{E\left(S_{N_{t}+1}\right)}{\mu}-1\).\\ 15) Montrer que pour tout \(t>0, \frac{E\left(N_{t}\right)}{t} \geq \frac{1}{\mu}-\frac{1}{t}\).\\ 16) Soit \(b>0\). On pose \(\tilde{X}_{i}=\min \left(b, X_{i}\right)\).\\ (a) Montrer que les variables \(\tilde{X}_{i}\) forment une suite de variables aléatoires indépendantes, positives et de même loi.\\ (b) On pose \(\tilde{S}_{n}=\sum_{i=1}^{n} \tilde{X}_{i}\) et \(\tilde{\mu}_{b}=E\left(\tilde{X}_{1}\right)\). On considère le processus de renouvellement \(\tilde{N}_{t}\) associé \(\operatorname{aux} \tilde{X}_{i}\).\\ i) Montrer que \(\forall n \geq 1, \tilde{S}_{n} \leq S_{n}\).\\ ii) Montrer que \(\forall t \geq 0, \tilde{N}_{t} \geq N_{t}\).\\ iii) Montrer que \(\forall t \geq 0, \tilde{S}_{\tilde{N}_{t}+1} \leq t+b\).\\ (c)\\ i) Montrer que pour tout réel \(t \in \mathbb{R}_{+}^{*}, \frac{E\left(\tilde{N}_{t}\right)}{t}=\frac{E\left(\tilde{S}_{\tilde{N}_{t}+1}\right)}{t \tilde{\mu}_{b}}-\frac{1}{t}\).\\ ii) En déduire que pour tout réel \(b>0\), \[ \frac{E\left(N_{t}\right)}{t} \leq \frac{E\left(\tilde{N}_{t}\right)}{t} \leq \frac{t+b}{t \tilde{\mu}_{b}} \] (d) On choisit \(b=\sqrt{t}\).\\ i) Montrer que \[ \frac{E\left(N_{t}\right)}{t} \leq \frac{t+\sqrt{t}}{t E\left(\min \left(\sqrt{t}, X_{1}\right)\right)} \] ii) Montrer que \(0 \leq X_{1}-\min \left(\sqrt{t}, X_{1}\right) \leq X_{1} \mathbb{I}_{\left[X_{1}>\sqrt{t}\right]}\).\\ iii) En déduire que \(\lim _{t \rightarrow+\infty} E\left(\min \left(\sqrt{t}, X_{1}\right)\right)=\mu\).\\ iv) Conclure que \(\lim _{t \rightarrow+\infty} \frac{E\left(N_{t}\right)}{t}=\frac{1}{\mu}\). \end{document}