\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \title{Conceptions : HEC Paris - ESCP Europe } \author{OPTION SCIENTIFIQUE} \date{} \begin{document} \maketitle \section*{MATHEMATIQUES II } \section*{Mercredi 7 mai 2014, de 8 h. à 12 h.} La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies. Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs. Ils ne doivent faire usage d'aucun document : l'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée. Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre Dans tout le problème, \(k\) désigne un entier supérieur ou égal à 2 . \section*{Notations algébriques} \begin{itemize} \item Pour tout \(n \in \mathbb{N}^{*}\), on note \(\mathcal{M}_{n, 1}(\mathbb{R})\) l'ensemble des matrices-colonnes à \(n\) lignes à coefficients réels et \(\mathcal{M}_{n}(\mathbb{R})\) l'ensemble des matrices carrées à \(n\) lignes et \(n\) colonnes à coefficients réels. On identifie les ensembles \(\mathcal{M}_{1}(\mathbb{R})\) et \(\mathbb{R}\) en assimilant une matrice de \(\mathcal{M}_{1}(\mathbb{R})\) à son unique coefficient. \item La base canonique de \(\mathcal{M}_{k, 1}(\mathbb{R})\) est notée \(\mathcal{C}_{k}=\left(e_{1}, e_{2}, \ldots, e_{k}\right)\) et l'espace vectoriel \(\mathcal{M}_{k, 1}(\mathbb{R})\) est muni de sa structure euclidienne usuelle pour laquelle la base \(\mathcal{C}_{k}\) est orthonormale. On note \(\langle u, v\rangle\) le produit scalaire de deux vecteurs \(u\) et \(v\) de \(\mathcal{M}_{k, 1}(\mathbb{R})\) et \(\|u\|=\sqrt{\langle u, u\rangle}\) la norme du vecteur \(u\). \item Pour toute matrice-colonne \(d\) de \(\mathcal{M}_{n, 1}(\mathbb{R})\) de composantes \(d_{1}, d_{2}, \ldots, d_{n}\), on note Diag( \(d\) ) la matrice diagonale de \(\mathcal{M}_{n}(\mathbb{R})\) définie par : \end{itemize} \[ \operatorname{Diag}(d)=\left(\begin{array}{cccc} d_{1} & 0 & \cdots & 0 \\ 0 & d_{2} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & d_{n} \end{array}\right) . \] \begin{itemize} \item La transposée d'une matrice \(M\) est notée \({ }^{t} M\) et \(I_{k}\) désigne la matrice identité de \(\mathcal{M}_{k}(\mathbb{R})\). \end{itemize} \section*{Notations probabilistes} \begin{itemize} \item Toutes les variables aléatoires et tous les vecteurs aléatoires qui interviennent dans ce problème sont définis sur un même espace probabilisé ( \(\Omega, \mathcal{A}, P\) ). \item On dit qu'un vecteur aléatoire discret \(\left(Y_{1}, Y_{2}, \ldots, Y_{k}\right)\), à valeurs dans \(\mathbb{R}^{k}\), admet une espérance lorsque chacune de ses composantes en admet une.\\ On note \(Y\) la matrice-colonne de \(\mathcal{M}_{k, 1}(\mathbb{R})\) de composantes \(Y_{1}, Y_{2}, \ldots, Y_{k}\) et \(\mathcal{E}(Y)\) la matrice-colonne de \(\mathcal{M}_{k, 1}(\mathbb{R})\) dont les composantes sont les espérances \(E\left(Y_{1}\right), E\left(Y_{2}\right), \ldots, E\left(Y_{k}\right)\). \end{itemize} Lorsque chacune des composantes \(Y_{i}(i \in \llbracket 1, k \rrbracket)\) admet une variance, on appelle matrice de variance-covariance de \(Y\), notée \(\mathcal{V}(Y)\), la matrice symétrique de \(\mathcal{M}_{k}(\mathbb{R})\) dont les coefficients diagonaux sont les variances \(V\left(Y_{i}\right)\) et les coefficients non diagonaux les covariances \(\operatorname{Cov}\left(Y_{i}, Y_{j}\right)\) pour tout \((i, j) \in \llbracket 1, k \rrbracket^{2}\) avec \(i \neq j\).\\ En résumé, on pose sous réserve d'existence : \[ \mathcal{E}(Y)=\left(\begin{array}{c} E\left(Y_{1}\right) \\ E\left(Y_{2}\right) \\ \vdots \\ E\left(Y_{k}\right) \end{array}\right) \quad \text { et } \quad \mathcal{V}(Y)=\left(\begin{array}{cccc} V\left(Y_{1}\right) & \operatorname{Cov}\left(Y_{1}, Y_{2}\right) & \cdots & \operatorname{Cov}\left(Y_{1}, Y_{k}\right) \\ \operatorname{Cov}\left(Y_{2}, Y_{1}\right) & V\left(Y_{2}\right) & \cdots & \operatorname{Cov}\left(Y_{2}, Y_{k}\right) \\ \vdots & \vdots & \ddots & \vdots \\ \operatorname{Cov}\left(Y_{k}, Y_{1}\right) & \operatorname{Cov}\left(Y_{k}, Y_{2}\right) & \cdots & V\left(Y_{k}\right) \end{array}\right) \] \begin{itemize} \item Dans tout le problème, on note \(p=\left(\begin{array}{c}p_{1} \\ p_{2} \\ \vdots \\ p_{k}\end{array}\right)\) une matrice-colonne de \(\mathcal{M}_{k, 1}(\mathbb{R})\) vérifiant \(\sum_{i=1}^{k} p_{i}=1\) et pour tout \(i \in \llbracket 1, k \rrbracket, p_{i} \geqslant 0\).\\ L'objet du problème est l'étude des propriétés des matrices de variance-covariance en liaison avec la loi des vecteurs aléatoires correspondants. \end{itemize} \section*{Partie I. Lois généralisées de Bernoulli} Dans cette partie, on note \(u\) la matrice-colonne de \(\mathcal{M}_{k, 1}(\mathbb{R})\) dont tous les coefficients valent 1 . \begin{enumerate} \item Soit \(a=\left(\begin{array}{c}a_{1} \\ a_{2} \\ \vdots \\ a_{k}\end{array}\right)\) une matrice-colonne non nulle de \(\mathcal{M}_{k, 1}(\mathbb{R})\) et \(\alpha=\sum_{i=1}^{k} a_{i}\). On pose : \(M=a^{i} u\).\\ a) Calculer la matrice \(M\) et préciser son rang.\\ b) Calculer la matrice \(M a\) et en déduire une valeur propre de \(M\).\\ c) Montrer que \(M^{2}=\alpha M\). Que peut-on en déduire sur les valeurs propres de \(M\) ?\\ d) Montrer que \(M\) est diagonalisable si et seulement si \(\alpha \neq 0\).\\ e) Pour quelles valeurs de \(\alpha\) la matrice \(I_{k}-M\) est-elle inversible?\\ f) On suppose que \(\alpha=1\). Montrer que \(M\) est la matrice dans la base canonique de \(\mathbb{R}^{k}\) d'un projecteur dont on précisera l'image et le noyau. Dans quel cas ce projecteur est-il orthogonal ?\\ On dit qu'un vecteur aléatoire \(\left(X_{1}, X_{2}, \ldots, X_{k}\right)\) suit la loi généralisée de Bernoulli de paramètre \(p\), notée \(\mathcal{B}_{k}(p)\). si on a : \end{enumerate} \[ \forall i \in \llbracket 1, k \rrbracket, P\left(\left[X=e_{i}\right]\right)=p_{i}, \text { avec } X=\left(\begin{array}{c} X_{1} \\ X_{2} \\ \vdots \\ X_{k} \end{array}\right) \text {. } \] \begin{enumerate} \setcounter{enumi}{1} \item Soit \(\left(X_{1}, X_{2}, \ldots, X_{k}\right)\) un vecteur aléatoire suivant la loi \(\mathcal{B}_{k}(p)\).\\ a) Pour \(i \in \llbracket 1, k \rrbracket\), comparer les événements \(\left[X=e_{i}\right]\) et \(\left[X_{i}=1\right]\); en déduire que chaque variable aléatoire \(X_{i}\) suit une loi de Bernoulli de paramètre \(p_{i}\) et écrire la matrice \(\mathcal{E}(X)\).\\ b) Quelle est la loi de la variable aléatoire \(X_{1}+X_{2}\) ?\\ c) Montrer que \(\operatorname{Cov}\left(X_{1}, X_{2}\right)=-p_{1} p_{2}\).\\ d) Écrire la matrice \(\mathcal{V}(X)\). \item Soit \(M(p)\) la matrice de \(\mathcal{M}_{k}(\mathbb{R})\) définie par : \(M(p)=p^{t} u\).\\ a) Vérifier l'égalité : \(\mathcal{V}(X)=\left(I_{k}-M(p)\right) \operatorname{Diag}(p)\).\\ b) Montrer que si \(p_{1}, p_{2}, \ldots, p_{k}\) sont différents de 0 , le rang de \(\mathcal{V}(X)\) est égal à \(k-1\).\\ c) Soit \(\sigma\) une permutation de \(\llbracket 1, k \rrbracket\) et \(p_{\sigma}\) la matrice-colonne de \(\mathcal{M}_{k, 1}(\mathbb{R})\) de composantes \(p_{\sigma(1)}, p_{\sigma(2)}, \ldots, p_{\sigma(k)}\). Montrer que \(\mathcal{V}(X)\) est semblable à \(\left(I_{k}-p_{\sigma}{ }^{t} u\right) \operatorname{Diag}\left(p_{\sigma}\right)\).\\ d) Exprimer le rang de \(\mathcal{V}(X)\) en fonction du nombre d'éléments \(i\) de \(\llbracket 1, k \rrbracket\) pour lesquels on a \(p_{i} \neq 0\). \end{enumerate} \section*{Partie II. Tirages avec remise dans une population stratifiée} Dans cette partie, on suppose que pour tout \(i \in \llbracket 1, k \rrbracket\), on a \(p_{i}>0\) et que \(p_{1}, p_{2}, \ldots, p_{k}\) sont les proportions d'individus appartenant aux diverses catégories d'une population statistique scindée en \(k\) catégories distinctes. Pour modéliser une suite illimitée de tirages équiprobables avec remise effectués dans cette population, on utilise des variables aléatoires \(X_{i}^{(n)}\) définies par: \[ \forall n \in \mathbb{N}^{*}, \forall i \in \llbracket 1, k \rrbracket, X_{i}^{(n)}=\left\{\begin{array}{ll} 1 & \text { si l'individu extrait au } n \text {-ième tirage appartient à la } i \text {-ème catégorie } \\ 0 & \text { sinon } \end{array}\right. \text {. } \] On suppose que les vecteurs aléatoires \(\left(X_{1}^{(n)}, X_{2}^{(n)}, \ldots, X_{k}^{(n)}\right)\left(n \in \mathbb{N}^{*}\right)\) suivent chacun la loi \(\mathcal{B}_{k}(p)\) (partie I) et sont mutuellement indépendants. Cette indépendance mutuelle signifie que pour tout entier \(n \geqslant 2\) et pour toutes fonctions \(\varphi_{1}, \varphi_{2}, \ldots, \varphi_{n}\) définies sur \(\mathbb{R}^{k}\) à valeurs réelles, les variables aléatoires \(\varphi_{1}\left(X_{1}^{(1)}, X_{2}^{(1)}, \ldots, X_{k}^{(1)}\right)\), \(\varphi_{2}\left(X_{1}^{(2)}, X_{2}^{(2)}, \ldots, X_{k}^{(2)}\right), \ldots, \varphi_{n}\left(X_{1}^{(n)}, X_{2}^{(n)}, \ldots, X_{k}^{(n)}\right)\) sont indépendantes.\\ Pour tout \(n \in \mathbb{N}^{*}\), on note \(X^{(n)}\) la matrice-colonne de \(\mathcal{M}_{k, 1}(\mathbb{R})\) de composantes \(X_{1}^{(n)}, X_{2}^{(n)}, \ldots, X_{k}^{(n)}\) et \(S^{(n)}\) la matrice-colonne de \(\mathcal{M}_{k, 1}(\mathbb{R})\) de composantes \(S_{1}^{(n)}, S_{2}^{(n)}, \ldots, S_{k}^{(n)}\), où pour tout \(i \in \llbracket 1, k \rrbracket\), on a \(S_{1}^{(n)}=\sum_{j=1}^{n} X_{i}^{(j)}\).\\ 4.a) Préciser l'ensemble \(N_{n}\) des matrices-colonnes \(s\) de \(\mathcal{M}_{k, 1}(\mathbb{R})\) pour lesquelles on a \(P\left(\left[S^{(n)}=s\right]\right)>0\).\\ b) Déterminer les lois respectives des deux variables aléatoires \(S_{1}^{(n)}\) et \(S_{1}^{(n)}+S_{2}^{(n)}\). Sont-elles indépendantes?\\ c) Montrer que \(\mathcal{V}\left(S^{(n)}\right)=n \mathcal{V}\left(X^{(1)}\right)\).\\ 5. Soit \(H\) un élément de \(\mathcal{A}\) vérifiant \(00\) et en déduire que \(E\left(Q_{F}\right) \neq 0\).\\ d) Montrer que le rang stochastique \(R_{s}(Y)\) de \(Y\) est égal à \(r\).\\ 12. Dans cette question, on reprend les définitions et notations de la question 6.\\ a) À l'aide de la question 6.d), montrer que le rang stochastique \(R_{s}(T)\) de \(T\) est égal à \(k\).\\ b) Montrer que pour tout \(i \in \mathbb{N}^{*}\), on a : \(E\left(T_{1} T_{2} \mid\left[T_{1}=i\right] \cap\left[T_{2}>i\right]\right)=i\left(i+\frac{1}{p_{2}}\right)\).\\ c) Établir la relation : \(E\left(T_{1} T_{2}\right)=\frac{1}{p_{1} p_{2}}-\frac{1}{p_{1}+p_{2}}\).\\ d) On note \(\Pi=\left(\pi_{i, j}\right)_{1 \leqslant i, j \leqslant k}\) la matrice de \(\mathcal{M}_{k}(\mathbb{R})\) définie par ; \(\pi_{i, j}=\left\{\begin{array}{cl}\frac{1-p_{i}}{p_{i}^{2}} & \text { si } i=j \\ -\frac{1}{p_{i}+p_{j}} & \text { si } i \neq j\end{array}\right.\). Montrer que la matrice \(\Pi\) est inversible. \end{document}