\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \begin{document} \section*{BANQUE COMMUNE D'EPREUVES} CODE EPREUVE :\\ 280\\ HEC\_M1\_S \section*{Concepteur : H.E.C.} \section*{OPTION SCIENTIFIQUE} \section*{MATHEMATIQUES I} Mercredi 30 avril 2008, de 8 h. à 12 h. La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies.\\ Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs.\\ Ils ne doivent faire usage d'aucun document : l'utilisation de toute calculatrice et de tout matériel électronique est interdite.\\ Seule l'utilisation d'une règle graduée est autorisée. Dans tout le problème, \(n\) et \(p\) désignent deux entiers vérifiant \(1 \leqslant p \leqslant n\). On note \(\mathcal{M}_{n, p}(\mathbb{R})\) l'espace vectoriel des matrices à \(n\) lignes et \(p\) colonnes, à coefficients réels. La transposée d'une matrice \(A\) de \(\mathcal{M}_{n, p}(\mathbb{R})\) est notée \({ }^{t} A\). Lorsqu'une matrice \(A\) est inversible, on note \(A^{-1}\) son inverse.\\ Dans tout le problème, on identifie les deux espaces vectoriels \(\mathcal{M}_{n, 1}(\mathbb{R})\) (respectivement \(\mathcal{M}_{p, 1}(\mathbb{R})\) ) et \(\mathbb{R}^{n}\) (resp. \(\mathbb{R}^{p}\) ), c'est-à-dire qu'on identifie un vecteur (point) de \(\mathbb{R}^{n}\) (resp. \(\mathbb{R}^{p}\) ) avec le vecteur-colonne de ses coordonnées dans la base canonique de \(\mathbb{R}^{n}\) (resp. \(\mathbb{R}^{p}\) ).\\ On munit \(\mathbb{R}^{n}\) (resp. \(\mathbb{R}^{p}\) ) de sa structure euclidienne canonique, et pour tous vecteurs \(u\) et \(v\) de \(\mathbb{R}^{n}\) (resp. \(\mathbb{R}^{p}\) ), on note \(\langle u, v\rangle={ }^{t} u v\) leur produit scalaire, et \(\|u\|\) la norme de \(u\) associée. Pour tout \(i\) de \(\llbracket 1, n \rrbracket\), on note \(f_{i}\) une fonction définie sur \(\mathbb{R}^{p}\) à valeurs réelles, et de classe \(C^{2}\) sur \(\mathbb{R}^{p}\). Soit \(F\) la fonction définie sur \(\mathbb{R}^{p}\), à valeurs réelles, par : \(F\left(x_{1}, x_{2}, \ldots, x_{p}\right)=\frac{1}{2} \sum_{i=1}^{n}\left[f_{i}\left(x_{1}, x_{2}, \ldots, x_{p}\right)\right]^{2}\).\\ Autrement dit, si \(X=\left(x_{1}, \ldots, x_{p}\right)\) est un point de \(\mathbb{R}^{p}\), on a : \(F(X)=\frac{1}{2} \sum_{i=1}^{n} f_{i}^{2}(X)=\frac{1}{2}\|f(X)\|^{2}\), en notant \(f(X)\) le vecteur \(\left(f_{1}(X), \ldots, f_{n}(X)\right)\). Le problème a pour objet l'étude de quelques aspects mathématiques liés à la recherche du minimum de la fonction \(F\). \section*{Partie I. Gradient et hessienne} Pour tout point \(X=\left(x_{1}, x_{2}, \ldots, x_{p}\right)\) de \(\mathbb{R}^{p}\), on rappelle que: \begin{itemize} \item le gradient de \(F\) au point \(X\), noté \(\nabla F(X)\), est le vecteur de \(\mathbb{R}^{p}\) suivant : \end{itemize} \[ \nabla F(X)=\left(\frac{\partial F}{\partial x_{1}}(X), \ldots, \frac{\partial F}{\partial x_{p}}(X)\right) \] \begin{itemize} \item la matrice hessienne de \(F\) au point \(X\), notée \(\nabla^{2} F(X)\), est la matrice symétrique de \(\mathcal{M}_{p}(\mathbb{R})\) suivante : \end{itemize} \[ \nabla^{2} F(X)=\left(\frac{\partial^{2} F}{\partial x_{k} \partial x_{j}}(X)\right)_{1 \leqslant k, j \leqslant p} \] Pour tout point \(X=\left(x_{1}, \ldots, x_{p}\right)\) de \(\mathbb{R}^{p}\), on note \(J(X)\) la matrice de \(\mathcal{M}_{n, p}(\mathbb{R})\) définie par : \[ J(X)=\left(\frac{\partial f_{i}}{\partial x_{j}}(X)\right)_{\substack{1 \leqslant i \leqslant n \\ 1 \leqslant j \leqslant \nu}} \] dans laquelle \(i\) désigne l'indice de ligne et \(j\) l'indice de colonne. On pose : \(G(X)={ }^{t} J(X) J(X)\).\\ Si \(X\) est un point de \(\mathbb{R}^{p}\) vérifiant \(\nabla F(X) \neq 0\), on dit qu'un vecteur \(h\) de \(\mathbb{R}^{p}\) est une direction de décroissance de \(F\) en \(X\), si on a : \(\langle\nabla F(X), h\rangle<0\).\\ Dans les trois exemples suivants, on suppose que \(p\) est égal à 2 . \begin{enumerate} \item Un premier exemple. \end{enumerate} On considère les deux fonctions \(f_{1}\) et \(f_{2}\) définies sur \(\mathbb{R}^{2}\) par: \(f_{1}\left(x_{1}, x_{2}\right)=x_{1}^{2}+x_{2}+1\), et \(f_{2}\left(x_{1}, x_{2}\right)=x_{1}+x_{2}^{2}+1\).\\ a) Justifier que \(F\) est de classe \(C^{2}\) sur \(\mathbb{R}^{2}\). Calculer, en tout point \(\left(x_{1}, x_{2}\right)\) de \(\mathbb{R}^{2}\), le gradient \(\nabla F\left(x_{1}, x_{2}\right)\).\\ b) Montrer que le système d'équations qui permet de déterminer les éventuels points critiques de \(F\), peut se mettre sous la forme suivante: \[ \left\{\begin{array}{l} 2 x_{1}^{3}+2 x_{1} x_{2}+3 x_{1}+x_{2}^{2}+1=0 \\ \left(x_{1}-x_{2}\right)\left(2 x_{1}^{2}+2 x_{1} x_{2}+2 x_{2}^{2}-x_{1}-x_{2}+3\right)=0 \end{array}\right. \] c) Établir, pour tout \(\left(x_{1}, x_{2}\right)\) de \(\mathbb{R}^{2}\), l'inégalité : \(2 x_{1}^{2}+2 x_{1} x_{2}+2 x_{2}^{2}-x_{1}-x_{2}+3>0\). En déduire que l'unique point critique de \(F\) est ( \(-1 / 2,-1 / 2\) ).\\ d) Déterminer, en tout point ( \(x_{1}, x_{2}\) ) de \(\mathbb{R}^{2}\), la matrice hessienne \(\nabla^{2} F\left(x_{1}, x_{2}\right)\). En déduire que \(F\) admet un minimum local en \((-1 / 2,-1 / 2)\).\\ e) On note pour tout point \(X\) de \(\mathbb{R}^{2}, \nabla^{2} f_{1}(X)\) et \(\nabla^{2} f_{2}(X)\) respectivement, les matrices hessiennes de \(f_{1}\) et \(f_{2}\) au point \(X\). Préciser la matrice \(J(X)\). Exprimer \({ }^{t} J(X) f(X)\) et \(G(X)+\sum_{i=1}^{2} f_{i}(X) \nabla^{2} f_{i}(X)\) en fonction de \(\nabla F(X)\) et \(\nabla^{2} F(X)\) respectivement.\\ 2. Un deuxième exemple. Soit \(a=\left(a_{1}, \ldots, a_{n}\right), b=\left(b_{1}, \ldots, b_{n}\right)\) et \(c=\left(c_{1}, \ldots, c_{n}\right)\) trois vecteurs non nuls donnés de \(\mathbb{R}^{n}\), tels que la famille ( \(a, b\) ) soit libre.\\ Pour tout \(i\) de \(\llbracket 1, n \rrbracket\), la fonction \(f_{i}\) est définie sur \(\mathbb{R}^{2}\) par: \(f_{i}\left(x_{1}, x_{2}\right)=a_{i} x_{1}+b_{i} x_{2}-c_{i}\).\\ a) Exprimer, pour tout point ( \(x_{1}, x_{2}\) ) de \(\mathbb{R}^{2}\), le gradient \(\nabla F\left(x_{1}, x_{2}\right)\) à l'aide de \(x_{1}, x_{2},\|a\|,\|b\|,\langle a, b\rangle,(a, c\rangle\) et \(\langle b, c\rangle\).\\ b) Justifier l'inégalité : \(\|a\|^{2} \times\|b\|^{2}-\langle a, b\rangle^{2}>0\). En déduire que la fonction \(F\) possède un unique point critique \(\left(\widehat{x_{1}}, \widehat{x_{2}}\right)\).\\ Exprimer \(\widehat{x_{1}}\) et \(\widehat{x_{2}}\) en fonction de \(\|a\|,\|b\|,\langle a, b\rangle,\langle a, c\rangle\) et \(\langle b, c\rangle\).\\ c) Calculer, en tout point \(\left(x_{1}, x_{2}\right)\) de \(\mathbb{R}^{2}\), la matrice hessienne \(\nabla^{2} F\left(x_{1}, x_{2}\right)\); en déduire que \(F\) admet un minimum local en \(\left(\widehat{x_{1}}, \widehat{x_{2}}\right)\).\\ d) En utilisant la structure euclidienne de \(\mathbb{R}^{n}\), montrer que \(F\) admet un minimum global en ( \(\widehat{x_{1}}, \widehat{x_{2}}\) ).\\ 3. Un troisième exemple. On suppose que \(c_{1}, c_{2}, \ldots, c_{n}\) sont \(n\) réels donnés non tous égaux. On note \(\bar{c}\) et \(s^{2}\) respectivement, la moyenne arithmétique et la variance de la série statistique \(\left(c_{i}\right)_{1 \leqslant i \leqslant n}\).\\ Pour tout \(i\) de \(\llbracket 1, n \rrbracket\), la fonction \(f_{i}\) est définie sur \(\mathbb{R}^{2}\) par : \(f_{i}\left(x_{1}, x_{2}\right)=x_{1}+x_{2}-c_{i}\).\\ a) Déterminer les points critiques de \(F\).\\ b) Soit ( \(\widehat{x_{1}}, \widehat{x_{2}}\) ) un point critique de \(F\). Exprimer \(F\left(\widehat{x_{1}}, \widehat{x_{2}}\right)\) en fonction de \(s^{2}\). Montrer, pour tout ( \(x_{1}, x_{2}\) ) de \(\mathbb{R}^{2}\), l'égalité : \(F\left(x_{1}, x_{2}\right)-F\left(\widehat{x_{1}}, \widehat{x_{2}}\right)=\frac{n}{2}\left(x_{1}+x_{2}-\bar{c}\right)^{2}\).\\ c) En déduire la nature des points critiques de \(F\). Ce résultat était-il prévisible?\\ 4. Retour au cas général. Soit \(X=\left(x_{1}, \ldots, x_{p}\right)\) un point de \(\mathbb{R}^{p}\).\\ a) Exprimer \(\nabla F(X)\) en fonction de \({ }^{t} J(X)\) et de \(f(X)\).\\ b) Pour tout \(i\) de \(\llbracket 1, n \rrbracket\), on note \(\nabla^{2} f_{i}(X)\) la matrice hessienne de \(f_{i}\) au point \(X\). Établir la formule : \(\nabla^{2} F(X)=G(X)+\sum_{i=1}^{n} f_{i}(X) \nabla^{2} f_{i}(X)\). \section*{Partie II. Une approximation de \(F\)} Dans cette partie, on conserve les définitions et les notations de la partie I , et on suppose que \(X\) est un vecteur fixé de \(\mathbb{R}^{p}\) vérifiant : \(\nabla F(X) \neq 0\).\\ Pour tout vecteur \(h=\left(h_{1}, h_{2}, \ldots, h_{p}\right)\) de \(\mathbb{R}^{p}\), on pose: \(\ell(h)=f(X)+J(X) h\) et \(L(h)=\frac{1}{2}\|\ell(h)\|^{2}\). \begin{enumerate} \item Établir, pour tout \(h\) de \(\mathbb{R}^{p}\), l'égalité : \(L(h)=F(X)+{ }^{t} h \nabla F(X)+\frac{1}{2} t h G(X) h\). \item Soit \(P\) une matrice symétrique de \(\mathcal{M}_{p}(\mathbb{R})\).\\ a) Justifier que \(P\) est diagonalisable.\\ b) On note \(\theta_{1}, \ldots, \theta_{p}\) les valeurs propres de \(P\), et on pose : \(\theta=\max _{1 \leqslant j \leqslant p}\left|\theta_{j}\right|\). Montrer, pour tout vecteur \(h\) de \(\mathbb{R}^{p}\), l'inégalité suivante : \(\left|{ }^{t} h P h\right| \leqslant \theta\|h\|^{2}\). \item a) Écrire un développement limité à l'ordre 2 de la fonction \(F\) au point \(X\).\\ b) En déduire, à l'aide de la question 2.b, que l'on a : \(\lim _{\|h\| \rightarrow 0} \frac{F(X+h)-L(h)}{\|h\|}=0\). \end{enumerate} Pour \(X\) fixé de \(\mathbb{R}^{p}\), on dit que \(L(h)\) est une approximation à l'ordre 2 de \(F(X+h)\) lorsque \(\|h\|\) tend vers 0 .\\ 4. On note : \(G(X)=\left(g_{i, j}(X)\right)_{1 \leqslant i, j \leqslant p}\). Soit \(\varphi_{1}\) et \(\varphi_{2}\) deux fonctions définies sur \(\mathbb{R}^{p}\) par : \(\varphi_{1}(h)={ }^{t} h \nabla F(X)\) et \(\varphi_{2}(h)={ }^{t} h G(X) h\).\\ a) Montrer que pour tout \(j\) de \(\llbracket 1, p \rrbracket\), on a : \(\frac{\partial \varphi_{1}}{\partial h_{j}}(h)=\frac{\partial F}{\partial x_{j}}(X)\) et \(\frac{\partial \varphi_{2}}{\partial h_{j}}(h)=2 \sum_{i=1}^{p} g_{i, j}(X) h_{i}\).\\ b) En déduire que le gradient \(\nabla L(h)\) de \(L\) en \(h\), est donné par : \(\nabla L(h)=\nabla F(X)+G(X) h\).\\ c) Soit \(\nabla^{2} L(h)\) la matrice hessienne de \(L\) en \(h\). Établir la formule : \(\nabla^{2} L(h)=G(X)\).\\ 5. Soit \(J\) une matrice de \(\mathcal{M}_{n, p}(\mathbb{R})\).\\ a) Montrer que la matrice \({ }^{t} J J\) est diagonalisable et que ses valeurs propres sont positives ou nulles.\\ b) Montrer que lorsque la matrice \({ }^{t} J J\) est inversible, le rang de la matrice \(J\) est égal à \(p\).\\ 6. Montrer que si la fonction \(L\) admet des points critiques \(\widehat{h}\), alors ceux-ci vérifient l'inéquation : \(\langle\widehat{h}, \nabla F(X)\rangle \leqslant 0\).\\ 7. On suppose que la matrice \(G(X)\) est inversible.\\ a) Montrer que \(L\) admet un unique point critique \(\widehat{h}\) donné par : \(\widehat{h}=-(G(X))^{-1} \times{ }^{t} J(X) f(X)\).\\ b) Établir que \(\widehat{h}\) est une direction de décroissance de \(F\) en \(X\). En déduire que \(L\) admet un minimum local en \(\widehat{h}\). \section*{Partie III. Une décomposition d'une matrice rectangulaire} Afin de réduire les inconvénients liés à l'inversion de la matrice \(G(X)\), on remplace celle-ci par la matrice \(G(X)+\mu I\), où \(\mu\) désigne un paramètre réel strictement positif, et \(I\) la matrice identité d'ordre \(p\). Certains résultats d'algèbre linéaire permettent alors de substituer à l'inversion d'une matrice, le calcul plus simple d'une somme de matrices. Soit \(J\) une matrice non nulle de \(\mathcal{M}_{n, p}(\mathbb{R})\). \begin{enumerate} \item Montrer qu'il existe une matrice \(V\) orthogonale de \(\mathcal{M}_{p}(\mathbb{R})\), un entier \(q\) tel que \(1 \leqslant q \leqslant p\), et des réels \(\lambda_{1}, \lambda_{2}, \ldots, \lambda_{q}\) tels que \(\lambda_{1} \geqslant \lambda_{2} \geqslant \cdots \geqslant \lambda_{q}>0\), qui vérifient l'égalité : \({ }^{t} V^{t} J J V=D\), où \(D=\left(d_{i, j}\right)_{1 \leqslant i, j \leqslant p}\) est définie par : \(d_{i, i}=\lambda_{i}\) si \(1 \leqslant i \leqslant q\), et \(d_{i, j}=0\) sinon. Si \(q