\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \title{Conception : ESSEC BS } \author{OPTION ÉCONOMIQUE} \date{} \begin{document} \maketitle \section*{MATHÉMATIQUES II} Lundi 6 mai 2019, de 8 h. à 12 h. La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies.\\ Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs.\\ Aucun document n'est autorisé. L'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée.\\ Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre. Un modèle probabiliste d'une expérience aléatoire représente dans un certain sens le désordre qui intervient dans l'expérience et il est donc naturel que des outils soient introduits qui permettent de mesurer l'intensité de ce désordre. C'est le cas de la notion d'entropie qui fait l' objet du présent problème. On considèrera différentes situations et notamment la façon dont on mesure l'information que deux variables aléatoires s'apportent mutuellement.\\ Dans la première partie on étudie le cas plus simple techniquement de variables dont la loi admet une densité. Les deuxièmes et troisièmes parties sont consacrées au cas discret. Dans la deuxième partie, on introduit les différentes notions d'entropie pour le cas de variables discrètes et dans la troisième partie, on examine comment on peut mesurer l'information apportée mutuellement par deux variables aléatoires.\\ Toutes les variables aléatoires intervenant dans le problème sont définies sur un espace probabilisé ( \(\Omega, \mathcal{A}, \mathbf{P}\) ). Pour toute variable aléatoire \(Y\), on notera \(E(Y)\) son espérance lorsqu'elle existe. \section*{Première partie : Entropie différentielle d'une variable à densité} \begin{enumerate} \item La fonction logarithme de base 2 , notée \(\log _{2}\), est définie sur \(\mathbb{R}_{+}^{*}\) par \(\log _{2}(x)=\frac{\ln x}{\ln 2}\).\\ (a) Montrer que pour tout \((x, y)\) élément de \(\mathbb{R}_{+}^{*} \times \mathbb{R}_{+}^{*}\), on a \(\log _{2}(x y)=\log _{2} x+\log _{2} y\).\\ (b) Vérifier que pour tout réel \(\alpha, \log _{2}\left(2^{\alpha}\right)=\alpha\).\\ (c) Montrer que la fonction \(\log _{2}\) est concave sur \(\mathbb{R}_{+}^{*}\). \item Soit \(X\) une variable aléatoire réelle à densité, et soit \(f\) une densité de \(X\). On appelle support de \(f\) l'ensemble \(I=\{x \in \mathbb{R}, f(x)>0\}\), et on suppose que \(I\) est un intervalle de \(\mathbb{R}\) d'extrémités \(a\) et \(b\) ( \(a0\). On considère \(X\) une variable aléatoire de loi uniforme sur \([0, a]\).\\ i) Donner une densité de \(X\).\\ ii) Justifier l'existence de l'entropie différentielle \(h(X)\), et la déterminer.\\ iii) Déterminer une condition nécessaire et suffisante sur a pour que \(h(X)>0\).\\ (b) On considère \(Y\) une variable aléatoire de loi normale centrée réduite. Montrer que \(Y\) admet une entropie différentielle et que \(h(Y)=\frac{1}{2} \log _{2}(2 \pi \mathbf{e})\).\\ (c) On considère \(Z\) une variable aléatoire de loi exponentielle de paramètre \(\lambda(\lambda>0)\). Justifier l'existence de l'entropie différentielle \(h(Z)\) et la déterminer.\\ (d) Soit \(f\) la fonction définie sur \(\mathbb{R}\) par \(f(x)=\frac{1}{2} \lambda \mathrm{e}^{-\lambda|x|}(\lambda>0)\).\\ i) Montrer que \(f\) est une densité de probabilité sur \(\mathbb{R}\).\\ ii) Soit \(W\) une variable aléatoire de densité \(f\). Justifier l'existence de l'entropie différentielle \(h(W)\) et la déterminer.\\ 5) On dit qu'un couple \((X, Y)\) de variables aléatoires est un couple gaussien centré si, pour tout \((\alpha, \beta) \in \mathbb{R}^{2}\), \(\alpha X+\beta Y\) est une variable de loi normale centrée, c'est-à-dire qu'il existe \(\gamma \in \mathbb{R}\) et une variable aléatoire \(Z\) de loi normale centrée réduite tels que \(\alpha X+\beta Y\) a même loi que \(\gamma Z\). On considère un tel couple ( \(X, Y\) ) et on note \(\sigma^{2}\) la variance de \(X\). On suppose que \(\sigma^{2}>0\).\\ (a) Montrer que \(X\) suit une loi normale centrée.\\ (b) Calculer \(h(X)\).\\ (c) On suppose désormais que \(X\) et \(Y\) suivent la même loi normale centrée de variance \(\sigma^{2}\) et on admet que les propriétés de l'espérance des variables discrètes se généralisent aux variables aléatoires quelconques.\\ i) Montrer que \(E(X Y)\) existe.\\ ii) Montrer de plus que pour tout réel \(\lambda, \lambda^{2} E\left(Y^{2}\right)+2 \lambda E(X Y)+E\left(X^{2}\right) \geq 0\).\\ iii) En déduire que \(E(X Y)^{2} \leq E\left(X^{2}\right) E\left(Y^{2}\right)\).\\ iv) On pose \(\rho=E(X Y) / \sigma^{2}\). Montrer que \(\rho \in[-1,1]\).\\ v) Que vaut \(\rho\) si \(X\) et \(Y\) sont indépendantes?\\ (d) On suppose \(|\rho|<1\). On appelle entropie jointe du couple ( \(X, Y\) ) le réel \[ h(X, Y)=\log _{2}\left(2 \pi \mathbf{e} \sigma^{2} \sqrt{1-\rho^{2}}\right) \] i) A quelle condition \(h(X, Y)\) est-elle nulle?\\ ii) L' information mutuelle de \(X\) et \(Y\) est définie par \[ I(X, Y)=h(X)+h(Y)-h(X, Y) \] Calculer \(I(X, Y)\).\\ iii) Montrer que \(I(X, Y) \geq 0\).\\ iv) Quelle est la limite de \(I(X, Y)\) quand \(\rho\) tend vers 1 ? \section*{Deuxième partie : Généralités sur l'entropie des variables discrètes} Soit \(A\) un ensemble fini non vide. On dit que \(X\) est une variable aléatoire dont la loi est à support \(A\), si \(X\) est à valeurs dans \(A\) et si pour tout \(x \in A, P(X=x)>0\).\\ 6) Soit \(X\) une variable aléatoire de loi à support \(\{0,1,2, \ldots, n\}\) où \(n\) est un entier naturel. On appelle entropie de \(X\) le réel \[ H(X)=-\sum_{k=0}^{n} P(X=k) \log _{2} P(X=k) . \] (a) On définit la fonction \(g:\{0, \ldots, n\} \rightarrow \mathbb{R}\) en posant \(g(k)=\log _{2} P(X=k)\) pour \(k\) élément de \(\{0,1, \ldots, n\}\). Montrer que \(H(X)=-E(g(X))\).\\ (b) Montrer que \(H(X) \geq 0\).\\ (c) Soit \(p\) un réel tel que \(00\) pour tout \(0 \leq j \leq n\) et on pose \(x_{j}=\frac{P(X=k) P(Y=j)}{P([X=k] \cap[Y=j])}\).\\ (a) Montrer que \(\sum_{j=0}^{n} p_{j}=1\).\\ (b) Soit \(Z_{k}\) une variable aléatoire de loi à support \(\left\{x_{0}, \ldots, x_{n}\right\}\) dont la loi est donnée par \(P\left(Z_{k}=x_{j}\right)=p_{j}\) pour \(0 \leq j \leq n\). Montrer que \[ E\left(\log _{2} Z_{k}\right) \leq 0 \] (c) En déduire que \(I(X, Y) \geq 0\). \end{document}