\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \title{Conception : HEC Paris } \author{OPTION SCIENTIFIQUE\\ MATHÉMATIQUES} \date{} \DeclareUnicodeCharacter{27F9}{\ifmmode\Longrightarrow\else{$\Longrightarrow$}\fi} \begin{document} \maketitle Mercredi 27 avril 2016, de 8 h. à 12 h. \begin{abstract} La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies. Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs. Ils ne doivent faire usage d'aucun document. L'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée. Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre. \end{abstract} \section*{Dans tout le problème:} \begin{itemize} \item On note \(n\) et \(k\) deux entiers vérifiant \(2 \leqslant k \leqslant n\) et \(E\) un \(\mathbf{R}\)-espace vectoriel de dimension \(n\) muni d'un produit scalaire \(\langle,\rangle_{E}\) qui en fait un espace euclidien. \item On note \(0_{E}\) et \(0_{\mathcal{L}(E)}\) respectivement, le vecteur nul et l'endomorphisme nul de \(E\) et \(\mathcal{B}=\left(c_{1}, c_{2}, \ldots, c_{n}\right)\) une base orthonormale de \(E\). L'endomorphisme identité de \(E\) est noté id \({ }_{E}\), \item Pour tout sous-espace vectoriel \(F\) de \(E\), on note \(F^{\perp}\) l'orthogonal de \(F\) et \(p_{F}\) le projecteur orthogonal d'image \(F\), c'est-à-dire l'unique endomorphisme de \(E\) vérifiant : \(\forall x \in F, p_{F}(x)=x\) et \(\forall x \in F^{\perp}, p_{F}(x)=0_{E}\). \item On note \(\mathcal{M}_{n, m}(\mathbf{R})\) l'ensemble des matrices à \(n\) lignes et \(m\) colonnes ( \(m \geqslant 1\) ) à cœfficients réels. La transposée d'une matrice \(A \in \mathcal{M}_{n, m}(\mathbf{R})\) est notée \({ }^{t} A\). \item Pour tout \(\left(\rho_{1}, \rho_{2}, \ldots, \rho_{k}\right) \in \mathbf{R}^{k}\), on note \(\operatorname{Diag}\left(\rho_{1}, \rho_{2}, \ldots, \rho_{k}\right)\) la matrice diagonale de \(\mathcal{M}_{k}(\mathbf{R})\) dont les cœfficients diagonaux sont, dans cet ordre, \(\rho_{1}, \rho_{2}, \ldots, \rho_{k}\). \item On note \(I_{n}\) la matrice identité de \(\mathcal{M}_{n}(\mathbf{R})\). \end{itemize} On rappelle que la somme de \(k\) sous-espaces vectoriels \(F_{1}, F_{2}, \ldots, F_{k}\) de \(E\) est le sous-espace vectoriel de \(E\), noté \(\sum_{i=1}^{k} F_{i}\), défini par: \(\sum_{i=1}^{k} F_{i}=\left\{\sum_{i=1}^{k} x_{i} ;\left(x_{1}, x_{2}, \ldots, x_{k}\right) \in F_{1} \times F_{2} \times \cdots \times F_{k}\right\}\).\\ On rappelle aussi que les sous-espaces vectoriels \(F_{1}, F_{2}, \ldots, F_{k}\) sont en somme directe si chaque vecteur de \(\sum_{i=1}^{k} F_{i}\) n'admet qu'une seule décomposition de la forme précédente. Dans ce cas, et seulement dans ce cas, la somme des sous-espaces vectoriels \(F_{1}, F_{2}, \ldots, F_{k}\) est notée \(\bigoplus_{i=1}^{k} F_{i}\).\\ L'objet de ce problème est la mise en évidence de quelques propriétés algébriques dont les conséquences probabilistes fondent les tests statistiques qui permettent de mesurer l'influence effective d'une ou plusieurs variables explicatives sur une variable endogène.\\ La partie II est indépendante de la partie I. \section*{Partie I. Partitions de l'identité.} Soit \(k\) endomorphismes \(u_{1}, u_{2}, \ldots, u_{k}\) de \(E\). On dit que \(u_{1}, u_{2}, \ldots, u_{k}\) constituent une partition de l'identité de \(E\) si : \(u_{1}+u_{2}+\cdots+u_{k}=\operatorname{id}_{E}\). \begin{enumerate} \item Exemple 1. Dans cette question, \(n=3\) et \(E=\mathbf{R}^{3}\). Soit \(A=\left(\begin{array}{rrr}0 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & -1\end{array}\right)\) et \(f\) l'endomorphisme de \(\mathbf{R}^{3}\) de matrice \(A\) dans la base canonique de \(\mathbf{R}^{3}\).\\ a) Préciser le spectre de la matrice \(A\) et montrer que \(A\) n'est pas diagonalisable.\\ b) Montrer que le polynôme \(Q \in \mathbf{R}[X]\) tel que \(Q(X)=X^{3}+X^{2}\) est un polynôme annulateur de \(A\).\\ c) Existe-t-il un polynôme de degré 2 annulateur de \(A\) ?\\ d) Trouver deux polynômes \(Q_{1}\) et \(Q_{2}\) de \(\mathbf{R}[X]\) pour lesquels les deux endomorphismes \(Q_{1}(f)\) et \(Q_{2}(f)\) sont des projecteurs et constituent une partition de l'identité de \(\mathbf{R}^{3}\). \item Exemple 2. On considère dans cette question un endomorphisme \(f\) de \(E\) diagonalisable et possédant \(k\) valeurs propres distinctes \(\lambda_{1}, \lambda_{2}, \ldots, \lambda_{k}\).\\ Pour tout \(i \in \llbracket 1, k \rrbracket\), on note : \end{enumerate} \begin{itemize} \item \(L_{i}(X)\) le polynôme de \(\mathbf{R}[X]\) défini par \(L_{i}(X)=\prod_{\substack{j \in[1, k] \\ j \neq i}}\left(\frac{X-\lambda_{j}}{\lambda_{i}-\lambda_{j}}\right)\); \item \(E_{\lambda_{i}}(f)\) le sous-espace propre de \(f\) associé à la valeur propre \(\lambda_{i}\); \item \(v_{i}\) l'endomorphisme de \(E\) défini par \(v_{i}=L_{i}(f)\).\\ a) Justifier l'égalité : \(E=\bigoplus_{i=1}^{k} E_{\lambda_{i}}(f)\). En déduire que \(\prod_{j=1}^{k}\left(X-\lambda_{j}\right)\) est un polynôme annulateur de \(f\).\\ b) Établir pour tout \(i \in \llbracket 1, k \rrbracket\), l'inclusion : \(\operatorname{Im}\left(v_{i}\right) \subset E_{\lambda_{i}}(f)\).\\ c) Pour tout \(j \in \llbracket 1, k \rrbracket\), calculer la somme : \(\sum_{i=1}^{k} L_{i}\left(\lambda_{j}\right)\). En déduire que les endomorphismes \(v_{1}, v_{2}, \ldots, v_{k}\) constituent une partition de l'identité de \(E\).\\ d) Établir pour tout \(i \in \llbracket 1, k \rrbracket\), l'égalité: \(\operatorname{Im}\left(v_{i}\right)=E_{\lambda_{i}}(f)\). Identifier l'endomorphisme \(v_{1}\). \end{itemize} \begin{enumerate} \setcounter{enumi}{2} \item Soit \(k\) endomorphismes \(u_{1}, u_{2}, \ldots, u_{k}\) de \(E\) qui constituent une partition de l'identité de \(E\). \end{enumerate} Pour tout \(i \in \llbracket 1, k \rrbracket\), on note \(r_{i}\) le rang de \(u_{i}\).\\ a) Établir les relations : \(E=\sum_{i=1}^{k} \operatorname{Im}\left(u_{i}\right)\) et \(n \leqslant \sum_{i=1}^{k} r_{i}\).\\ b) Montrer que les sous-espaces vectoriels \(\operatorname{Im}\left(u_{1}\right), \operatorname{Im}\left(u_{2}\right), \ldots, \operatorname{Im}\left(u_{k}\right)\) sont en somme directe si et seulement si on a \(: n=\sum_{i=1}^{k} r_{i}\),\\ c) Dans cette question, on cherche à montrer l'équivalence des propriétés (1), (2) et (3) suivantes :\\ (1) \(n=\sum_{i=1}^{k} r_{i}\).\\ (2) Les endomorphismes \(u_{1}, u_{2}, \ldots, u_{k}\) sont des projecteurs.\\ (3) Pour tout \((i, j) \in \llbracket 1, k \rrbracket^{2}\), avec \(i \neq j\), on a : \(u_{i} \circ u_{j}=0_{\mathcal{L}(E)}\).\\ (i) En utilisant la trace des matrices de projecteurs, justifier l'implication (2) ⟹ (1).\\ (ii) À l'aide de la question 3.b) et en écrivant, pour \(x \in E\), les vecteurs \(u_{1}(x), u_{2}(x), \ldots, u_{k}(x)\) comme des sommes de \(k\) vecteurs, établir l'implication (1) ⟹ (3).\\ (iii) Conclure en établissant une troisième implication. \section*{Partie II. Représentation matricielle d'un projecteur orthogonal.} 4.a) Soit \(p\) un endomorphisme de \(E\) et \(P\) la matrice de \(p\) dans la base \(\mathcal{B}\). Montrer que \(p\) est un projecteur orthogonal si et seulement si on a : \(P^{2}=P\) et \({ }^{t} P=P\).\\ b) Soit \(f\) un endomorphisme de \(E\) et \(M\) la matrice de \(f\) dans la base \(\mathcal{B}\). Établir l'existence d'un réel \(\alpha\) et d'un projecteur orthogonal \(p\) tels que \(f=\alpha p\), si et seulement si on a : \(\operatorname{tr}(M) M^{2}=\operatorname{tr}\left(M^{2}\right) M\) et \({ }^{t} M=M\), où \(\operatorname{tr}(M)\) et \(\operatorname{tr}\left(M^{2}\right)\) sont les traces respectives de \(M\) et \(M^{2}\).\\ 5.a) Écrire en Scilab une fonction "function \(\mathrm{t}=\operatorname{tr}(\mathrm{A})\) " qui calcule la trace d'une matrice carrée \(A\).\\ b) La fonction "issym" suivante permet de tester si une matrice carrée \(A\) de taille \(n\) donnée est symétrique. \begin{verbatim} function b=issym(n,A) b=%T; // affectation de la valeur booléenne True à la variable b, for i=1:n=1 for j=i+1:n b=b & A(i,j)==A(j,i) end ; end ; endfunction \end{verbatim} Préciser la signification de la ligne (5) du code et donner un exemple d'utilisation de la fonction "issym" en indiquant les valeurs d'entrée ainsi que la valeur de sortie obtenue.\\ c) La fonction "orthoproj" suivante, dont une ligne de code est incomplète, permet de tester si, pour une matrice carrée \(M\) de taille \(n\) donnée, il existe un réel \(\alpha\) et un projecteur orthogonal \(p\) pour lesquels \(M\) est la matrice de l'endomorphisme \(\alpha p\) dans une base orthonormale. Cette fonction utilise les deux fonctions précédentes (questions 5.a) et 5.b)) et s'appuie sur la condition nécessaire et suffisante de la question 4.b), \begin{verbatim} function b=orthoproj(n,M) A=tr(M)*Mn2; B=tr(M*2)*M; b=issym(n,M); if b then for i=1:n for jwiln b=...... end ; ; end ; endfunction \end{verbatim} Compléter la ligne (8) du code et donner les valeurs de sortie obtenues par application de cette fonction aux deux matrices \(\left(\begin{array}{ll}1 & 1 \\ 1 & 0\end{array}\right)\) et \(\left(\begin{array}{ll}1 & 1 \\ 1 & 1\end{array}\right)\). Les définitions et notations suivantes concernent les questions 6 à 9 .\\ Pour tout vecteur \(x \in E\), on note \(X\) la matrice colonne de ses coordonnées dans la base \(\mathcal{B}\).\\ Soit \(\mathcal{F}=\left(s_{1}, s_{2}, \ldots, s_{k}\right)\) une famille de \(k\) vecteurs de \(E\) et \(F\) le sous-espace vectoriel de \(E\) engendré par \(\mathcal{F}\).\\ On note \(S\) la matrice de \(\mathcal{M}_{n, k}(\mathbf{R})\) dont les colonnes sont, dans cet ordre, \(S_{1}, S_{2}, \ldots, S_{k}\).\\ On rappelle que \(p_{F}\) est le projecteur orthogonal d'image \(F\).\\ 6.a) Montrer que les deux matrices \(S\) et \({ }^{t} S S\) ont le même rang.\\ b) Soit \(y \in E\). Montrer que \(y \in F\) si et seulement si il existe une matrice \(Z \in \mathcal{M}_{k, 1}(\mathbf{R})\) telle que \(Y=S Z\).\\ c) Soit \(y \in E\). Montrer que \(y \in F^{\perp}\) si et seulement si la matrice colonne \({ }^{t} S Y\) est nulle.\\ d) Soit \(x \in E\) et \(y=p_{F}(x)\). Établir l'existence d'une matrice \(Z \in \mathcal{M}_{k, 1}(\mathbf{R})\) telle que \(Y=S Z\) et \({ }^{t} S X={ }^{t} S S Z\).\\ e) En déduire l'expression de la matrice de \(p_{F}\) dans la base \(\mathcal{B}\) en fonction de \(S\) lorsque la famille \(\mathcal{F}\) est libre.\\ 7. Soit \(M\) une matrice symétrique de \(\mathcal{M}_{k}(\mathbf{R})\). On appelle inverse de Penrose-Moore de \(M\) toute matrice \(N\) de \(\mathcal{M}_{k}(\mathbf{R})\) qui vérífie les quatre propriétés suivantes: \[ M N M=M ; \quad N M N=N ; \quad{ }^{t}(M N)=M N ; \quad{ }^{t}(N M)=N M \] a) Établir l'existence d'une matrice \(Q \in \mathcal{M}_{k}(\mathbf{R})\) et de réels \(\rho_{1}, \rho_{2}, \ldots, \rho_{k}\) qui vérifient la relation suivante: \[ M=Q \operatorname{Diag}\left(\rho_{1}, \rho_{2}, \ldots, \rho_{k}\right)^{t} Q \] b) On note \(h\) l'application de \(\mathbf{R}\) dans \(\mathbf{R}\) telle que : \(\forall t \in \mathbf{R}, h(t)=\left\{\begin{array}{cl}1 / t & \text { si } t \neq 0 \\ 0 & \text { si } t=0\end{array}\right.\). On note \(M^{(-)}\)la matrice définie par : \(M^{(-)}=Q \operatorname{Diag}\left(h\left(\rho_{1}\right), h\left(\rho_{2}\right), \ldots, h\left(\rho_{k}\right)\right)^{\prime} Q\).\\ Montrer que \(M^{(-)}\)est une inverse de Penrose-Moore de \(M\).\\ c) Soit \(N\) une inverse de Penrose-Moore de \(M\).\\ (i) Justifier les égalités : \(N=M^{t} N N\) et \(M^{2} N=M\).\\ (ii) Soit \(U\) une matrice de \(\mathcal{M}_{k}(\mathbf{R})\). On suppose que \(M^{2} U\) est nulle. Montrer que \(M U\) est nulle.\\ (iii) On pose: \(U=N-M^{(-)}\). Justifier que \(M^{(-)}\)est l'unique inverse de Penrose-Moore de \(M\).\\ 8. On note \(\left({ }^{t} S S\right)^{(-)}\)l'unique inverse de Penrose-Moore de la matrice \({ }^{t} S S\) et on pose : \(P=S\left({ }^{t} S S\right)^{(-)}{ }^{t} S\).\\ a) Montrer que les matrices \(P\) et \(S\) ont le même rang.\\ b) Justifier que \(P\) est la matrice de \(p_{F}\) dans la base \(B\) et que son expression généralise la formule trouvée dans la question 6.e) lorsque la famille \(\mathcal{F}\) est libre.\\ 9. Exemple. On suppose que : \(k=2, s_{1}=\left(\alpha_{1}, \alpha_{2}, \ldots, \alpha_{n}\right), s_{2}=\left(\beta_{1}, \beta_{2}, \ldots, \beta_{n}\right), s_{1} \neq 0_{E}\) et \({ }^{t} S S\) non inversible.\\ a) Établir l'existence d'un réel \(\theta\) tel que pour tout \(i \in \llbracket 1, n \rrbracket\), on a : \(\beta_{i}=\theta \alpha_{i}\).\\ b) Déterminer une matrice carrée \(Q\) pour laquelle la matrice ' \(Q\) ' \(S S Q\) est diagonale.\\ c) En déduire l'inverse de Penrose-Moore de la matrice \({ }^{t} S S\).\\ d) Soit \(x=x_{1} e_{1}+x_{2} e_{2}+\cdots+x_{n} e_{n}\) un vecteur de \(E\), Calculer \(p_{F}(x)\). \section*{Partie III. Application probabiliste.} Dans cette partie, \(E=\mathbf{R}^{n}\) et on suppose que toutes les variables aléatoires et tous les vecteurs aléatoires considérés sont définis sur le même espace probabilisé ( \(\Omega, \mathcal{A}, \mathbf{P}\) ).\\ Pour tout entier \(d \geqslant 1\), on dit qu'une variable aléatoire \(C\) suit la loi du khi-deux de paramètre \(d\), notée \(\chi^{2}(d)\), si la variable aléatoire \(\frac{C}{2}\) suit la loi \(\gamma\left(\frac{d}{2}\right)\).\\ On appelle variable gaussienne toute variable aléatoire \(X\) qui suit une loi normale ou qui est certaine, et on note sa loi \(\mathcal{G}\left(\mu, \sigma^{2}\right)\), où \(\mu\) est l'espérance de \(X\) et \(\sigma\) l'écart-type de \(X\).\\ Autrement dit, pour tout couple \((\mu, \sigma) \in \mathbf{R} \times \mathbf{R}_{+}\), une variable aléatoire \(X\) suit la loi \(\mathcal{G}\left(\mu, \sigma^{2}\right)\), soit lorsque \(\sigma>0\) et \(X\) suit la loi normale \(\mathcal{N}\left(\mu, \sigma^{2}\right)\), soit lorsque \(\sigma=0\) et \(\mathbf{P}([X=\mu])=1\).\\ 10. Soit \((\mu, \sigma) \in \mathbf{R} \times \mathbf{R}_{+}^{*}\) et soit \(X_{1}, X_{2}, \ldots, X_{n}\) des variables aléatoíres mutuellement indépendantes et de même loi normale \(\mathcal{N}\left(\mu, \sigma^{2}\right)\). Montrer que la variable aléatoíre \(\sum_{i=1}^{n}\left(\frac{X_{i}-\mu}{\sigma}\right)^{2}\) suit la loi \(\chi^{2}(n)\).\\ Si \(G_{1}, G_{2}, \ldots, G_{n}\) sont des variables aléatoires réelles telles que pour tout \(a=\left(a_{1}, a_{2}, \ldots, a_{n}\right) \in \mathbf{R}^{n}\), la variable aléatoire \(\sum_{i=1}^{n} a_{i} G_{i}\) est une variable gaussienne centrée, alors on dit que le vecteur aléatoire \(\left(G_{1}, G_{2}, \ldots, G_{n}\right)\) est un vecteur gaussien et on note \(G\) la matrice colonne de composantes \(G_{1}, G_{2}, \ldots, G_{n}\).\\ 11. Soit \(\left(G_{1}, G_{2}, \ldots, G_{n}\right)\) un vecteur gaussien, \(M\) une matrice de \(\mathcal{M}_{n}(\mathbf{R})\) et \(\left(H_{1}, H_{2}, \ldots, H_{n}\right)\) un vecteur aléatoire tel que la matrice colonne \(H\) de composantes \(H_{1}, H_{2}, \ldots, H_{n}\) vérifie : \(H=M G\).\\ a) Montrer que \(\left(H_{1}, H_{2}, \ldots, H_{n}\right)\) est un vecteur gaussien.\\ b) Justifier que pour tout \((i, j) \in \llbracket 1, n \rrbracket^{2}\), la variable aléatoire \(G_{i} G_{j}\) admet une cspérance, notée \(\mathbf{E}\left(G_{i} G_{j}\right)\). On note alors \(\Lambda(G)\) la matrice de \(\mathcal{M}_{n}(\mathbf{R})\) définie par : \(\Lambda(G)=\left(\mathbf{E}\left(G_{i} G_{j}\right)\right)_{1 \leq i, j \leq n}\) et on admet dans la suite que la loi d'un vecteur gaussien \(\left(G_{1}, G_{2}, \ldots, G_{n}\right)\) est caractérisée par la matrice \(\Lambda(G)\).\\ Autrement dit, si \(\left(G_{1}, G_{2}, \ldots, G_{n}\right)\) et \(\left(R_{1}, R_{2}, \ldots, R_{n}\right)\) sont deux vecteurs gaussiens vérifiant \(\Lambda(G)=\Lambda(R)\), alors ils ont la même loí, c'est-à-dire : \(\forall\left(x_{1}, x_{2}, \ldots, x_{n}\right) \in \mathbf{R}^{n}, \mathbf{P}\left(\bigcap_{i=1}^{n}\left[G_{i} \leqslant x_{i}\right]\right)=\mathbf{P}\left(\bigcap_{i=1}^{n}\left[R_{i} \leqslant x_{i}\right]\right)\).\\ 12. On suppose que \(G_{1}, G_{2}, \ldots, G_{n}\) sont des variables aléatoires mutuellement indépendantes et de même loi normale \(\mathcal{N}(0,1)\).\\ a) Montrer que \(\left(G_{1}, G_{2}, \ldots, G_{n}\right)\) est un vecteur gaussien. Déterminer \(\Lambda(G)\).\\ b) Soit \(Q\) une matrice orthogonale de \(\mathcal{M}_{n}(\mathbf{R})\) et \(\left(H_{1}, H_{2}, \ldots, H_{n}\right)\) un vecteur alćatoire tel que la matrice colonne \(H\) de composantes \(H_{1}, H_{2}, \ldots, H_{n}\) vérifie : \(H=Q G\).\\ Montrer que les variables aléatoires \(H_{1}, H_{2}, \ldots, H_{n}\) sont mutuellement indépendantes et de même loi normale \(\mathcal{N}(0,1)\).\\ 13. Soit \(\left(G_{1}, G_{2}, \ldots, G_{n}\right)\) un vecteur gaussien dont les composantes \(G_{1}, G_{2}, \ldots, G_{n}\) sont mutuellement indépendantes et de variance égale à 1 .\\ Soít \(P_{1}, P_{2}, \ldots, P_{k}\) des matríces symétriques de \(\mathcal{M}_{n}(\mathbf{R})\) de rangs respectifs \(r_{1}, r_{2}, \ldots, r_{k}\).\\ On suppose que \(\sum_{i=1}^{k} P_{i}=I_{n}\) et \(\sum_{i=1}^{k} r_{i}=n\).\\ a) Justifier que \(P_{1}, P_{2}, \ldots, P_{k}\) sont des matrices de projecteurs orthogonaux de \(\mathbf{R}^{n}\) dans la base canonique de \(\mathbf{R}^{n}\) dont les images sont deux à deux orthogonales.\\ b) En déduire l'existence d'une matrice orthogonale \(Q\) de \(\mathcal{M}_{n}(\mathbf{R})\) pour laquelle chacune des matrices \(Q P_{1}{ }^{\prime} Q, Q P_{2}{ }^{\prime} Q, \ldots, Q P_{k}{ }^{\prime} Q\) est diagonale.\\ c) On suppose que \(r_{1} \neq 0\). Montrer que la variable aléatoire \({ }^{t} G P_{1} G\) suit la loi \(\chi^{2}\left(r_{1}\right)\).\\ d) Montrer que les variables aléatoires \({ }^{t} G P_{1} G,{ }^{t} G P_{2} G, \ldots,{ }^{t} G P_{k} G\) sont mutuellement indépendantes.\\ 14. Soit \(q\) et \(m\) deux entiers supérieurs ou égaux à 2 et \(\left(X_{i, j}\right)_{\substack{1 \leqslant i \leqslant q \\ 1 \leqslant j \leqslant m}}\) une famille de \(q \times m\) variables aléatoires mutuellement indépendantes et de même loi normale \(\mathcal{N}(0,1)\).\\ On pose : \(\bar{X}=\frac{1}{q \times m} \sum_{i=1}^{q} \sum_{j=1}^{m} X_{i, j}\) et pour tout \(j \in \llbracket 1, m \rrbracket, Z_{j}=\frac{1}{q} \sum_{i=1}^{q} X_{i, j}\).\\ a) Déterminer les lois respectives des variables aléatoires \(\bar{X}\) et \(\sum_{i=1}^{q} \sum_{j=1}^{m}\left(X_{i, j}-\bar{X}\right)^{2}\) et établir l'indépendance de ces deux variables aléatoires.\\ b) Déterminer les lois respectives des variables aléatoires \(\sum_{i=1}^{q} \sum_{j=1}^{m}\left(X_{i, j}-Z_{j}\right)^{2}\) et \(q \sum_{j=1}^{m}\left(Z_{j}-\bar{X}\right)^{2}\) et établir l'indépendance de ces deux variables aléatoíres. \end{document}