\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \title{MATHÉMATIQUES II } \author{} \date{} \begin{document} \maketitle \section*{Conception : HEC Paris - ESCP Europe} \section*{OPTION SCIENTIFIQUE} Jeudi 2 mai 2019, de 8 h. à 12 h. La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies.\\ Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs.\\ Aucun document n'est autorisé. L'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée.\\ Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre. La régression logistique permet de modéliser l'influence qu'exercent des facteurs exogènes sur une variable binaire, c'est-à-dire une variable ne pouvant prendre que deux valeurs.\\ Outre son domaine d'application privilégié qui est l'apprentissage automatique (machine learning), la régression logistique est couramment utilisée aussi bien en médecine qu'en actuariat et en économétrie. \section*{Partie I. Fonction logistique et lois logistiques} On appelle fonction logistique la fonction \(\Lambda\) définie sur \(\mathbf{R}\) par: \(\forall x \in \mathbf{R}, \Lambda(x)=\frac{1}{1+\mathrm{e}^{-x}}\).\\ 1.a) Montrer que \(\Lambda\) est une bijection de \(\mathbf{R}\) sur \(] 0,1[\), dont la bijection réciproque est la fonction \(L\) définie par : \[ \forall x \in] 0,1\left[, L(x)=\ln \left(\frac{x}{1-x}\right) .\right. \] b) Calculer la dérivée de la fonction \(\Lambda\).\\ c) Justifier l'existence d'un unique réel \(x_{0}\) tel que : \(\Lambda\left(x_{0}\right)=x_{0}\).\\ d) Établir pour tout \(x \in \mathbf{R}\), l'inégalité : \(|\Lambda(x)-x| \leqslant\left|x-x_{0}\right|\).\\ 2. Le script Scilab suivant, dont la ligne (1) définit la fonction \(\Lambda\), permet de calculer une valeur approchée de \(x_{0}\) par la méthode de dichotomie.\\ (1) deff(' \(y=\operatorname{Lambda}(x) ', ' y=1 /(1+\exp (-x)) ')\);\\ (2) \(a=0\);\\ (3) \(b=1\);\\ (4) eps= ........;\\ (5) while b-a>eps ;\\ (6) \(\mathrm{c}=(\mathrm{a}+\mathrm{b}) / 2\);\\ (7) if Lambda \((c)>c\) then ........; else \(b=\ldots \ldots \ldots\); end;\\ (8) end;\\ (9) \(\mathrm{xO}=(\mathrm{a}+\mathrm{b}) / 2\)\\ a) Compléter la ligne (7) et justifier le choix des valeurs affectées en lignes (2) et (3) aux variables a et b.\\ b) Quelle valeur maximale peut-on affecter en ligne (4) à la variable eps pour être assuré que l'erreur d'approximation commise ne dépasse pas \(10^{-4}\) ?\\ c) Que peut-on dire de la valeur numérique obtenue par l'instruction (10) suivante ?\\ (10) Lambda ( x 0 ) -x 0\\ 3. On note \(\lambda\) la dérivée de la fonction \(\Lambda\).\\ a) Vérifier que \(\lambda\) est une densité de probabilité.\\ b) Préciser la parité de la fonction \(\lambda\); donner l'allure de sa courbe représentative dans le plan rapporté à un repère orthogonal et en déterminer les points d'inflexion. On dit qu'une variable aléatoire \(Z\) suit la loi logistique standard si elle admet la fonction \(\lambda\) pour densité. Pour tout couple \((r, s) \in \mathbf{R} \times \mathbf{R}_{+}^{*}\), on dit qu'une variable aléatoire \(Y\) suit la loi logistique \(\mathcal{L}(r, s)\) si la variable aléatoire \(Z\) définie par \(Z=\frac{Y-r}{s}\) suit la loi logistique standard.\\ 4.a) Justifier qu'une variable aléatoire qui suit une loi logistique \(\mathcal{L}(r, s)\) admet des moments de n'importe quel ordre et en indiquer l'espérance.\\ b) En utilisant la méthode d'inversion, écrire le script d'une fonction Scilab, function \(S=g r a n d l o g i s(n, p, r, s)\), fournissant pour tout couple ( \(n, p\) ) d'entiers strictement positifs, une matrice \(S\) à \(n\) lignes et \(p\) colonnes dont les coefficients sont des simulations de variables aléatoires indépendantes suivant la loi logistique \(\mathcal{L}(r, s)\).\\ c) Décrire un procédé permettant de calculer une valeur approchée de la variance de la loi logistique standard à l'aide de la fonction grandlogis.\\ 5. Soit \(U_{1}\) et \(U_{2}\) deux variables aléatoires indépendantes suivant chacune la loi exponentielle de paramètre 1 .\\ a) Montrer que la variable aléatoire \(Z=\ln \left(\frac{U_{1}}{U_{2}}\right)\) suit la loi logistique standard (on pourra utiliser un changement de variable exponentiel, c'est-à-dire de la forme \(t=\mathbf{e}^{x}\) ).\\ b) En déduire un nouveau script Scilab permettant de simuler une variable aléatoire suivant la loi logistique standard à l'aide de la fonction grand. \section*{Partie II. Variance de la loi logistique standard} \begin{itemize} \item Pour tout couple \((a, b) \in \mathbf{R}^{2}\), on note \(\mathcal{I} m(z)\) la partie imaginaire \(b\) du nombre complexe \(z=a+i b\). \item Pour tout polynôme \(P=\sum_{k=0}^{d} a_{k} X^{k} \in \mathbf{R}[X]\) de degré \(d \in \mathbf{N}\), les termes non nuls \(a_{k} X^{k}\) sont appelés les monômes de \(P\) et les \(a_{k}\) leurs coefficients. \item Dans la factorisation \(P=a_{d} \prod_{k=1}^{d}\left(X-z_{k}\right)\) de \(P\) dans \(\mathbf{C}[X]\) (lorsque \(d \neq 0\) ), la somme \(\sum_{k=1}^{d} z_{k}\) est appelée la somme des racines complexes de \(P\), que les nombres complexes \(z_{1}, z_{2}, \ldots, z_{d}\) soient distincts ou non. \end{itemize} Pour tout \(n \in \mathbf{N}\), on pose : \(P_{n}=\sum_{k=0}^{n}(-1)^{k}\binom{2 n+1}{2 k+1}(X-1)^{n-k}\).\\ 6.a) Expliciter les polynômes \(P_{0}\) et \(P_{1}\).\\ b) Pour tout \(n \in \mathbf{N}^{*}\), préciser le degré du polynôme \(P_{n}\) et donner les coefficients de ses deux monômes de plus hauts degrés.\\ c) Utiliser le résultat précédent pour montrer que pour tout \(n \in \mathbf{N}^{*}\), la somme des racines complexes de \(P_{n}\) est égale à \(\frac{2 n(n+1)}{3}\).\\ 7. Soit \(x \in \mathbf{R}\) et \(n \in \mathbf{N}\).\\ a) Justifier les égalités suivantes : \[ \sin ((2 n+1) x)=\mathcal{I} m\left((\cos (x)+i \sin (x))^{2 n+1}\right)=\sum_{k=0}^{n}(-1)^{k}\binom{2 n+1}{2 k+1} \cos ^{2(n-k)}(x) \times \sin ^{2 k+1}(x) \] b) En déduire, pour tout \(x \in] 0, \pi\left[\right.\), la relation : \(\frac{\sin ((2 n+1) x)}{\sin ^{2 n+1}(x)}=P_{n}\left(\frac{1}{\sin ^{2}(x)}\right)\).\\ c) À l'aide du résultat de la question 6.c), montrer que pour tout \(n \in \mathbf{N}^{*}\), on a : \[ \sum_{k=1}^{n} \frac{1}{\sin ^{2}\left(\frac{k \pi}{2 n+1}\right)}=\frac{2 n(n+1)}{3} \] \begin{enumerate} \setcounter{enumi}{7} \item Soit \(x \in] 0, \frac{\pi}{2}[\).\\ a) Justifier les inégalités suivantes: \(\quad \sin (x) \leqslant x \leqslant \tan (x) \quad\) et \(\quad \frac{1}{\sin ^{2}(x)}-1 \leqslant \frac{1}{x^{2}} \leqslant \frac{1}{\sin ^{2}(x)}\).\\ b) En utilisant le résultat de la question 7.c), en déduire, pour tout \(n \in \mathbf{N}^{*}\), l'encadrement : \end{enumerate} \[ \frac{n(2 n-1)}{3} \leqslant \frac{(2 n+1)^{2}}{\pi^{2}} \sum_{k=1}^{n} \frac{1}{k^{2}} \leqslant \frac{2 n(n+1)}{3} . \] c) Établir l'égalité : \(\sum_{k=1}^{+\infty} \frac{1}{k^{2}}=\frac{\pi^{2}}{6}\).\\ 9. Soit \(Z\) une variable aléatoire suivant la loi logistique standard.\\ a) À l'aide d'une intégration par parties, justifier que la variance de \(Z\), notée \(V(Z)\), vérifie l'égalité : \[ V(Z)=4 \int_{0}^{+\infty} \frac{x \mathrm{e}^{-x}}{1+\mathrm{e}^{-x}} \mathrm{~d} x \] b) Établir pour tout \(n \in \mathbf{N}\), l'égalité : \[ \int_{0}^{+\infty} \frac{x \mathrm{e}^{-x}}{1+\mathrm{e}^{-x}} \mathrm{~d} x=\sum_{k=0}^{n}(-1)^{k} \int_{0}^{+\infty} x \mathrm{e}^{-(k+1) x} \mathrm{~d} x+I_{n}, \quad \text { où } \quad I_{n}=(-1)^{n+1} \int_{0}^{+\infty} \frac{x \mathrm{e}^{-(n+2) x}}{1+\mathrm{e}^{-x}} \mathrm{~d} x \] c) Montrer que l'intégrale \(I_{n}\) tend vers 0 lorsque \(n\) tend vers \(+\infty\) et en déduire l'égalité : \[ \int_{0}^{+\infty} \frac{x \mathrm{e}^{-x}}{1+\mathrm{e}^{-x}} \mathrm{~d} x=\sum_{k=0}^{+\infty} \frac{(-1)^{k}}{(k+1)^{2}} \] d) En utilisant la formule établie en 8.c), déduire de l'égalité précédente que la variance de \(Z\) est égale à \(\frac{\pi^{2}}{3}\).\\ 10.a) Établir la convergence des deux intégrales \(\int_{0}^{+\infty} \ln (x) \mathrm{e}^{-x} \mathrm{~d} x\) et \(\int_{0}^{+\infty}(\ln (x))^{2} \mathrm{e}^{-x} \mathrm{~d} x\).\\ b) On pose \(I=\int_{0}^{+\infty} \ln (x) \mathrm{e}^{-x} \mathrm{~d} x\) et \(J=\int_{0}^{+\infty}(\ln (x))^{2} \mathrm{e}^{-x} \mathrm{~d} x\). En utilisant le résultat de la question 5.a), calculer \(J-I^{2}\). \section*{Partie III. Estimation à partir de données binaires} Dans cette partie, \(\theta\) est un paramètre réel inconnu et \(F\) désigne la fonction de répartition d'une variable aléatoire à densité dont une densité \(f\) est continue et strictement positive sur \(\mathbf{R}\).\\ Soit \(\left(Y_{n}\right)_{n \in \mathrm{~N}^{*}}\) une suite de variables aléatoires indépendantes définies sur un espace probabilisé \(\left(\Omega, \mathcal{A}, \mathbf{P}_{\theta}\right)\) suivant chacune la loi de Bernoulli de paramètre \(F(\theta)\).\\ 11. Justifier que \(F\) est une bijection de \(\mathbf{R}\) sur \(] 0,1\left[\right.\). On note \(F^{-1}\) sa bijection réciproque.\\ 12. Pour tout \(n \in \mathbf{N}^{*}\), on pose : \(\bar{Y}_{n}=\frac{1}{n} \sum_{j=1}^{n} Y_{j}\). Montrer que la suite \(\left(\sqrt{n}\left(\bar{Y}_{n}-F(\theta)\right)\right)_{n \in \mathbf{N}^{*}}\) converge en loi vers une variable aléatoire suivant une loi normale centrée dont on précisera la variance.\\ 13. Pour tout \(n \in \mathbf{N}^{*}\) et tout \(\omega \in \Omega\), on pose : \(T_{n}(\omega)=\left\{\begin{array}{cl}F^{-1}\left(\bar{Y}_{n}(\omega)\right) & \text { si } 0<\bar{Y}_{n}(\omega)<1 \\ 0 & \text { sinon }\end{array}\right.\). De plus, pour tout \(n \in \mathbf{N}^{*}\), on note \(E_{n}\) l'événement \(\left[0<\bar{Y}_{n}<1\right]\).\\ a) Calculer \(\mathbf{P}_{\theta}\left(E_{n}\right)\) et trouver la limite de cette probabilité lorsque \(n\) tend vers \(+\infty\).\\ b) Soit \(x \in \mathbf{R}\) et \(n \in \mathbf{N}^{*}\).\\ (i) Établir l'égalité ensembliste \(\left\{\omega \in E_{n} / T_{n}(\omega) \leqslant x\right\}=\left[\bar{Y}_{n} \leqslant F(x)\right] \cap E_{n}\) et montrer que \(\left[T_{n} \leqslant x\right]\) est un élément de la tribu \(\mathcal{A}\).\\ (ii) Justifier l'encadrement : \[ \mathbf{P}_{\theta}\left(\left[\bar{Y}_{n} \leqslant F(x)\right] \cap E_{n}\right) \leqslant \mathbf{P}_{\theta}\left(\left[T_{n} \leqslant x\right]\right) \leqslant \mathbf{P}_{\theta}\left(\left[\bar{Y}_{n} \leqslant F(x)\right] \cap E_{n}\right)+1-\mathbf{P}_{\theta}\left(E_{n}\right) \] c) Montrer que pour tout \(x \neq \theta\), on a : \(\lim _{n \rightarrow+\infty} \mathbf{P}_{\theta}\left(\left[T_{n} \leqslant x\right]\right)=\left\{\begin{array}{ll}0 & \text { si } x<\theta \\ 1 & \text { si } x>\theta\end{array}\right.\).\\ d) En déduire que \(\left(T_{n}\right)_{n \in \mathbf{N}^{*}}\) est une suite convergente d'estimateurs du paramètre \(\theta\).\\ 14. Pour tout \(n \in \mathbf{N}^{*}\) et tout \(\omega \in \Omega\), on pose : \(U_{n}(\omega)=\left\{\begin{array}{cl}\frac{T_{n}(\omega)-\theta}{\bar{Y}_{n}(\omega)-F(\theta)} & \text { si } \bar{Y}_{n}(\omega) \neq F(\theta) \\ \frac{1}{f(\theta)} & \text { si } \bar{Y}_{n}(\omega)=F(\theta)\end{array}\right.\). On admet sans démonstration que pour tout \(n \in \mathbf{N}^{*}, U_{n}\) est une variable aléatoire sur ( \(\Omega, \mathcal{A}, \mathbf{P}_{\theta}\) ).\\ a) Soit \(\varepsilon>0\). Pour tout \(n \in \mathbf{N}^{*}\), on note \(B_{n}(\varepsilon)\) l'événement \(\left[\left|U_{n}-\frac{1}{f(\theta)}\right| \leqslant \varepsilon\right]\).\\ (i) Établir l'existence d'un réel \(\alpha>0\) tel que : \(\forall x \in[\theta-\alpha, \theta+\alpha],\left|\frac{1}{f(x)}-\frac{1}{f(\theta)}\right| \leqslant \varepsilon\).\\ (ii) Pour un tel \(\alpha\), justifier l'inclusion : \(\left[\left|T_{n}-\theta\right| \leqslant \alpha\right] \cap E_{n} \subset B_{n}(\varepsilon)\), où \(E_{n}\) a été défini dans la question 13.\\ b) Montrer que la suite \(\left(U_{n}\right)_{n \in \mathbf{N}^{*}}\) converge en probabilité vers \(\frac{1}{f(\theta)}\).\\ c) En déduire que la suite \(\left(\sqrt{n}\left(T_{n}-\theta\right)\right)_{n \in \mathbf{N}^{*}}\) converge en loi vers une variable aléatoire suivant une loi normale centrée dont on précisera la variance. \section*{Partie IV. Régression logistique} \begin{itemize} \item Dans toute cette partie, \(p\) désigne un entier supérieur ou égal à 2 . \item Pour tout couple \((n, m) \in\left(\mathbf{N}^{*}\right)^{2}\), on note \(\mathcal{M}_{n, m}(\mathbf{R})\) l'ensemble des matrices à \(n\) lignes et \(m\) colonnes à coefficients réels et \({ }^{t} M\) la transposée de toute matrice \(M \in \mathcal{M}_{n, m}(\mathbf{R})\). \item Pour tout \(m \in \mathbf{N}^{*}\), le produit scalaire usuel de deux vecteurs \(u\) et \(v\) de \(\mathbf{R}^{m}\) est noté \(\langle u, v\rangle\). Si \(U\) et \(V\) sont les matrices colonnes représentant \(u\) et \(v\) dans la base canonique, le produit scalaire \(\langle u, v\rangle\) est donc l'unique coefficient de la matrice \({ }^{t} U V\). \item On rappelle que les fonctions \(\Lambda\) et \(L\) ont été définies dans la partie I. \end{itemize} Dans cette partie, on note \(Y\) une variable aléatoire de Bernoulli, dite variable endogène, dont la loi dépend du niveau de \(p\) facteurs exogènes.\\ L'influence de ces facteurs sur la loi de \(Y\) est résumée par la fonction \(b\) qui associe à un vecteur \(x \in \mathbf{R}^{p}\), la probabilité \(b(x)\) que \(Y\) soit égale à 1 lorsque les niveaux des facteurs sont donnés par les composantes du vecteur \(x\). Dans le modèle de régression logistique envisagé dans cette partie, la fonction \(b\) est supposée de la forme: \[ b: x \longmapsto \Lambda(\langle\alpha, x\rangle) \] où \(\alpha=\left(\alpha_{1}, \alpha_{2}, \ldots, \alpha_{p}\right)\) est un vecteur de \(\mathbf{R}^{p}\) dont les composantes \(\alpha_{1}, \alpha_{2}, \ldots, \alpha_{p}\) sont des paramètres inconnus qui représentent les degrés d'influence des divers facteurs exogènes sur la variable endogène \(Y\).\\ Pour estimer les paramètres du modèle, on dispose de \(k\) vecteurs \(x^{(1)}, x^{(2)}, \ldots, x^{(k)}\) de \(\mathbf{R}^{p}\left(k \in \mathbf{N}^{*}\right)\) et pour tout \(i \in \llbracket 1, k \rrbracket\), d'une suite \(\left(Y_{i, n}\right)_{n \in \mathbf{N}^{*}}\) de variables aléatoires indépendantes suivant chacune la loi de Bernoulli de paramètre \(b\left(x^{(i)}\right)=\Lambda\left(\left\langle\alpha, x^{(i)}\right\rangle\right)\).\\ Pour chaque indice fixé \(i\) et pour tout \(n \in \mathbf{N}^{*}\), les variables aléatoires \(Y_{i, 1}, Y_{i, 2}, \ldots, Y_{i, n}\) définissent donc un \(n\)-échantillon associé à la loi de la variable endogène lorsque les niveaux des facteurs exogènes sont les composantes \(x_{1}^{(i)}, x_{2}^{(i)}, \ldots, x_{p}^{(i)}\) du vecteur \(x^{(i)}\) dans la base canonique de \(\mathbf{R}^{p}\).\\ 15. On note respectivement \(A\) et \(M\) la matrice du vecteur \(\alpha\) et la matrice de la famille ( \(x^{(1)}, x^{(2)}, \ldots, x^{(k)}\) ) dans la base canonique de \(\mathbf{R}^{p}\) : \[ A=\left(\begin{array}{c} \alpha_{1} \\ \alpha_{2} \\ \vdots \\ \alpha_{p} \end{array}\right) \in \mathcal{M}_{p, 1}(\mathbf{R}) \quad \text { et } \quad M=\left(\begin{array}{ccc} x_{1}^{(1)} & \ldots & x_{1}^{(k)} \\ \vdots & & \vdots \\ x_{p}^{(1)} & \ldots & x_{p}^{(k)} \end{array}\right) \in \mathcal{M}_{p, k}(\mathbf{R}) \] On suppose que le rang de la matrice \(M\) est égal à \(p\).\\ a) Montrer que la matrice \(M^{t} M\) est inversible.\\ b) Montrer que pour toute matrice \(H \in \mathcal{M}_{k, 1}(\mathbf{R})\), la matrice \(U \in \mathcal{M}_{p, 1}(\mathbf{R})\) pour laquelle l'unique coefficient de la matrice \({ }^{t}\left({ }^{t} M U-H\right)\left({ }^{t} M U-H\right)\) est le plus petit possible, est la matrice \(\left(M^{t} M\right)^{-1} M H\).\\ c) Expliquer pourquoi les lois des variables aléatoires \(Y_{i, n}\) ne suffiraient pas à définir le vecteur \(\alpha\) si le rang de \(M\) n'était pas égal à \(p\).\\ 16. Pour tout \(n \in \mathbf{N}^{*}\) et tout \(i \in \llbracket 1, k \rrbracket\), on pose \(\bar{Y}_{i, n}=\frac{1}{n} \sum_{j=1}^{n} Y_{i, j}\) et pour tout \(\omega \in \Omega\) : \[ T_{i, n}= \begin{cases}L\left(\bar{Y}_{i, n}(\omega)\right) & \text { si } 0<\bar{Y}_{i, n}(\omega)<1 \\ 0 & \text { sinon }\end{cases} \] a) Soit \(\left(c_{1}, c_{2}, \ldots, c_{k}\right) \in \mathbf{R}^{k}\). En utilisant les résultats de la partie III, montrer que \(\left(\sum_{i=1}^{k} c_{i} T_{i, n}\right)_{n \in \mathbf{N}^{*}}\) est une suite convergente d'estimateurs du paramètre \(\sum_{i=1}^{k} c_{i}\left\langle\alpha, x^{(i)}\right\rangle\).\\ b) Pour tout \(n \in \mathbf{N}^{*}\) et tout \(\omega \in \Omega\), on pose, \(H_{n}(\omega)=\left(\begin{array}{c}T_{1, n}(\omega) \\ T_{2, n}(\omega) \\ \vdots \\ T_{k, n}(\omega)\end{array}\right)\) et \(\left(\begin{array}{c}A_{1, n}(\omega) \\ A_{2, n}(\omega) \\ \vdots \\ A_{p, n}(\omega)\end{array}\right)=\left(M^{t} M\right)^{-1} M H_{n}(\omega)\). Montrer que pour tout \(j \in \llbracket 1, p \rrbracket\), la suite \(\left(A_{j, n}\right)_{n \in \mathbf{N}^{*}}\) est une suite convergente d'estimateurs de \(\alpha_{j}\). FIN \end{document}