\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \title{Conception : ESSEC BS } \author{OPTION ÉCONOMIQUE} \date{} \begin{document} \maketitle \section*{MATHÉMATIQUES II} Jeudi 30 avril 2020, de 8 h. à 12 h. La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies.\\ Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs.\\ Aucun document n'est autorisé. L'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée.\\ Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre. Lorsque l'on effectue des sondages, de nombreux biais statistiques peuvent apparaître : on peut par exemple avoir considéré un échantillon non-représentatif de la population, il peut y avoir un biais dans les réponses des personnes sondées... On va s'intéresser dans ce problème à ce que l'on appelle le biais par la taille : il provient du fait que si l'on choisit une personne au hasard dans la population, celle-ci a plus de chances de faire partie d'une catégorie nombreuse de la population.\\ Le biais par la taille est la source de nombreux "paradoxes" probabilistes, comme le fait que les gagnants du loto vivent en moyenne plus longtemps (parce que les gagnants sont ceux qui ont pu jouer au loto plus longtemps) ou le fait que vos amis ont en moyenne plus d'amis que vous (car les gens qui ont un très grand nombre d'amis font sûrement partie de vos amis). On verra ici comment formaliser le biais par la taille, et l'utiliser dans différents contextes. Toutes les variables aléatoires intervenant dans le problème sont définies sur un espace probabilisé ( \(\Omega, \mathcal{A}, \mathbf{P}\) ). Pour toute variable aléatoire \(X\), on notera \(E(X)\) son espérance (resp. \(\operatorname{Var}(X)\) sa variance) lorsqu'elles existent. \section*{Première partie : Biais par la taille, exemples discrets} \begin{enumerate} \item On suppose que le nombre d'enfants dans une famille française est une variable aléatoire \(X\). Pour connaître la loi de \(X\), une idée serait d'interroger les élèves d'une école pour connaître le nombre d'enfants dans leur famille.\\ On va voir que cette approche introduit un biais, en considérant une situation particulière. Supposons que \(X\) suive la loi binomiale de paramètres \(n=10\) et \(p=1 / 5\). On note \(p_{k}=P(X=k)\) pour \(k \in\{0,1, \ldots, 10\}\).\\ (a)\\ i) Rappeler l'expression de \(p_{k}\) pour \(k \in\{0,1, \ldots, 10\}\).\\ ii) Que vaut \(E(X)\) ?\\ iii) Donner \(\operatorname{Var}(X)\), et en déduire \(E\left(X^{2}\right)\).\\ (b) Soit \(M_{k}\) le nombre de familles à \(k\) enfants, \(M=\sum_{k=0}^{10} M_{k}\) le nombre total de familles (donc \(p_{k}= M_{k} / M\) ). Soit \(N_{k}\) le nombre total d'enfants (c'est-à-dire dans toute la population) qui font partie d'une famille à \(k\) enfants, et \(N=\sum_{k=0}^{10} N_{k}\) le nombre total d'enfants de la population.\\ i) Montrer que \(N_{k}=k p_{k} M\).\\ ii) Montrer que \(N / M=2\).\\ iii) Montrer que la proportion des enfants provenant d'une famille à \(k\) enfants est \(p_{k}^{*}=k p_{k} / 2\).\\ (c) On choisit une personne au hasard dans la rue, à qui l'on demande combien d'enfants ses parents ont eu (lui ou elle inclus). On note \(Y\) ce nombre d'enfants.\\ i) Pour tout entier \(k\) élément de \(\{1,2, \ldots, 10\}\), montrer que \(P(Y=k)=k p_{k} / 2\).\\ ii) Montrer que \(E(Y)=E\left(X^{2}\right) / E(X)\).\\ iii) En déduire \(E(Y)\) et le comparer à \(E(X)\). \item Soit \(X\) une variable aléatoire à valeurs dans \(\mathbb{N}\), non identiquement nulle et admettant une espérance. Pour tout entier \(i>0\), on pose \(q_{i}=\frac{i}{E(X)} P(X=i)\).\\ (a) Calculer \(\sum_{i=1}^{\infty} q_{i}\). \end{enumerate} La suite \(\left(q_{i}\right)_{i>0}\) définie ci-dessus définit donc bien une loi de probabilité. On considère la variable aléatoire \(X^{*}\) dont la loi est donnée par les \(q_{i}\), c'est-à-dire, pour tout \(i\) entier naturel non nul \[ P\left(X^{*}=i\right)=\frac{i}{E(X)} P(X=i) \] On dit que \(X^{*}\) suit la loi de \(X\) biaisée par la taille.\\ (b) On suppose que \(X\) admet un moment d'ordre 2 . Montrer que \(E\left(X^{*}\right)=E\left(X^{2}\right) / E(X)\).\\ (c) En déduire que si \(E\left(X^{2}\right)\) existe, on a \(\operatorname{Var}(X)=E(X)\left(E\left(X^{*}\right)-E(X)\right)\).\\ (d) Conclure que \(E\left(X^{*}\right) \geq E(X)\).\\ 3)\\ (a) Soit \(\lambda\) un réel strictement positif. On suppose que \(X\) est une variable aléatoire qui suit la loi de Poisson de paramètre \(\lambda\). Soit \(X^{*}\) une variable aléatoire suivant la loi de \(X\) biaisée par la taille.\\ i) Donner la loi de \(X^{*}\).\\ ii) Vérifier que \(X^{*}\) suit la même loi que \(X+1\).\\ (b) Réciproquement, on suppose que \(X\) est une variable aléatoire à valeurs dans \(\mathbb{N}\) admettant une espérance non nulle, telle que \(X^{*}\) et \(X+1\) suivent la même loi.\\ i) Montrer que pour tout \(k \geq 1, P(X=k)=\frac{E(X)}{k} P(X=k-1)\).\\ ii) Montrer que pour tout \(k\) entier naturel, \(P(X=k)=\frac{E(X)^{k}}{k!} P(X=0)\).\\ iii) En déduire la loi de \(X\).\\ 4) Le paradoxe du temps d'attente du bus. Soit \(n \geq 1\) un entier naturel, et soit \(X\) une variable aléatoire à valeurs dans \(\{1, \ldots, n\}\) telle que pour tout \(1 \leq k \leq n, P(X=k)>0\). On suppose qu'à un arrêt de bus donné, les intervalles de temps entre deux bus consécutifs, exprimés en minutes, sont des variables aléatoires\\ indépendantes, de même loi que \(X\). Une personne arrive à cet arrêt à un instant aléatoire, et se demande combien de temps elle va attendre.\\ (a) Une première idée est que la personne arrive à un instant uniforme entre deux arrivées de bus, séparées par un intervalle de \(X\) minutes. On note \(T\) la variable aléatoire qui représente le temps d'attente (à valeurs dans \(\{1, \ldots, n\}\) ) et on suppose donc que pour tout entier \(k\) élément de \(\{1, \ldots, n\}, P_{[X=k]}(T=j)=1 / k\) si \(j \in\{1, \ldots, k\}\) et \(P_{[X=k]}(T=j)=0\) si \(j>k\).\\ i) Montrer que pour tout entier \(k \in\{1, \ldots, n\}\) on a \(\sum_{j=1}^{n} j P_{[X=k]}(T=j)=(k+1) / 2\).\\ ii) En déduire que \(\sum_{k=1}^{n} \sum_{j=1}^{n} j P(X=k) P_{[X=k]}(T=j)=\frac{E(X+1)}{2}\).\\ iii) Montrer que \(E(T)=\sum_{j=1}^{n} \sum_{k=1}^{n} j P(X=k) P_{[X=k]}(T=j)\).\\ iv) Montrer que \(E(T)=\frac{E(X+1)}{2}\).\\ (b) En réalité, en arrivant à l'arrêt de bus, on "tombe" dans un intervalle entre deux bus de manière proportionnelle à sa taille (plus l'intervalle est long, plus on a de chances de "tomber" dedans) : l'intervalle de temps est \(X^{*}\), suivant la loi de \(X\) biaisée par la taille. Le temps d'attente \(T^{*}\) vérifie donc en fait, pour tout \(k \in\{1, \ldots, n\}, P_{\left[X^{*}=k\right]}\left(T^{*}=j\right)=1 / k\) si \(j \in\{1, \ldots, k\}\) et \(P_{\left[X^{*}=k\right]}\left(T^{*}=j\right)=0\) si \(j>k\).\\ i) Montrer que pour tout entier \(k \in\{1, \ldots, n\}\) on a \(\sum_{j=1}^{n} j P_{\left[X^{*}=k\right]}\left(T^{*}=j\right)=(k+1) / 2\).\\ ii) Montrer que \(E\left(T^{*}\right)=\sum_{j=1}^{n} \sum_{k=1}^{n} j P\left(X^{*}=k\right) P_{\left[X^{*}=k\right]}\left(T^{*}=j\right)\).\\ iii) Montrer que \(E\left(T^{*}\right)=\frac{E\left(X^{*}+1\right)}{2}\).\\ iv) En déduire qu'on a \(E\left(T^{*}\right) \geq E(T)\). \section*{Deuxième partie : Biais par la taille, propriétés} Dans cette partie, on démontre de nombreuses propriétés des variables aléatoires biaisées par la taille.\\ 5) Biais par la taille : le cas de variables à densité. Soit \(X\) une variable aléatoire positive de densité \(f\) et admettant une espérance \(E(X)\) strictement positive (donc \(f(x)=0\) pour tout \(x\) strictement négatif).\\ On définit la fonction \(g\) par \(g(x)=\frac{x}{E(X)} f(x)\) pour tout \(x\) réel.\\ (a) Montrer que \(g\) définit une densité d'une variable aléatoire positive. Soit une variable aléatoire \(X^{*}\) dont la densité est \(g\). On dit que \(X^{*}\) suit la loi de \(X\) biaisée par la taille.\\ (b) Soit \(a\) un réel strictement positif.\\ i) Montrer que la variable aléatoire \(a X\) possède pour densité \(x \mapsto \frac{1}{a} f\left(\frac{x}{a}\right)\).\\ ii) En déduire que \((a X)^{*}\) et \(a \times X^{*}\) possèdent la même loi.\\ (c) Une propriété importante. Soit \(h:[0, \infty[\rightarrow \mathbb{R}\) une fonction bornée et continue sauf éventuellement en un nombre fini de points. Montrer que \(E(X h(X))\) est bien défini et que \[ E\left(h\left(X^{*}\right)\right)=\frac{1}{E(X)} E(X h(X)) \] On pose alors la définition suivante (que la variable \(X\) soit à densité ou non) : si \(X\) est une variable aléatoire réelle positive d'espérance \(E(X)\) strictement positive, on dit que la variable aléatoire positive \(Y\) suit la loi de \(X\) biaisée par la taille si on a \[ E(h(Y))=\frac{1}{E(X)} E(X h(X)) \] pour toute fonction \(h:[0, \infty[\rightarrow \mathbb{R}\) bornée et continue sauf éventuellement en un nombre fini de points.\\ 6) Dans cette question, on se fixe \(f: \mathbb{R} \rightarrow \mathbb{R}\) et \(g: \mathbb{R} \rightarrow \mathbb{R}\) deux fonctions croissantes. Soit \(X\) une variable aléatoire telle que les espérances \(E(f(X)), E(g(X))\) et \(E(f(X) g(X))\) sont bien définies.\\ (a) Montrer que quels que soient les réels \(x_{1}\) et \(x_{2}\), on a \(\left(f\left(x_{1}\right)-f\left(x_{2}\right)\right)\left(g\left(x_{1}\right)-g\left(x_{2}\right)\right) \geq 0\).\\ (b) Soient \(X_{1}, X_{2}\) deux variables aléatoires indépendantes, de même loi que \(X\). Montrer que \[ E\left(\left(f\left(X_{1}\right)-f\left(X_{2}\right)\right)\left(g\left(X_{1}\right)-g\left(X_{2}\right)\right)\right)=2 E(f(X) g(X))-2 E(f(X)) E(g(X)) \] (c) En déduire que \(E[f(X) g(X)] \geq E(f(X)) E(g(X))\).\\ 7) Dans cette question, on suppose que \(X\) est une variable aléatoire positive d'espérance strictement positive, et telle que \(E\left(X^{m+1}\right)\) existe pour un entier \(m \geq 1\) donné.\\ (a) Soit \(p\) un entier naturel tel que \(1 \leq p \leq m\).\\ i) Montrer que pour tout réel \(x \geq 0\), on a \(0 \leq x^{p} \leq 1+x^{m+1}\).\\ ii) Montrer que \(E\left(X^{p}\right)\) existe.\\ (b) Montrer que \(E\left(X^{m+1}\right) \geq E(X) E\left(X^{m}\right)\).\\ (c) En déduire que \(E\left(\left(X^{*}\right)^{m}\right) \geq E\left(X^{m}\right)\).\\ 8) Pour \(A\) un événement, on note \(\mathbb{I}_{A}\) la variable aléatoire définie par \(\mathbb{I}_{A}(\omega)=1\) si \(\omega \in A\) et \(\mathbb{I}_{A}(\omega)=0\) sinon. Pour tout \(t\) réel, on définit la fonction \(g_{t}(x)=\mathbb{I}_{] t,+\infty}[x)\)\\ (a) Montrer que la fonction \(x \mapsto g_{t}(x)\) est croissante sur \(\mathbb{R}\).\\ (b) Soit \(X\) une variable aléatoire positive, admettant une espérance. Montrer que pour tout \(t\) réel, \(E\left(X g_{t}(X)\right)\) est bien défini et que \(E\left(X g_{t}(X)\right) \geq E(X) P(X>t)\).\\ (c) Montrer que pour tout \(t\) réel, \(P\left(X^{*}>t\right) \geq P(X>t)\). On dit que \(X^{*}\) domine stochastiquement \(X\).\\ 9) Soit \(X_{1}, \ldots, X_{n}\) des variables aléatoires positives, indépendantes, non nécessairement de même loi. On suppose qu'elles admettent toutes une espérance strictement positive, et on note \(\mu_{i}=E\left(X_{i}\right)\). De plus, on pose \(\mu=\sum_{i=1}^{n} \mu_{i}\), et \(S_{n}=\sum_{i=1}^{n} X_{i}\).\\ (a) Donner \(E\left(S_{n}\right)\).\\ (b) Soit \(J\) une variable aléatoire à valeur dans \(\{1, \ldots, n\}\), de loi \(P(J=k)=\mu_{k} / \mu\). Quelle est la loi de \(J\) si les variables aléatoires \(X_{i}\) sont de même loi?\\ On considère \(X_{1}^{*}, \ldots, X_{n}^{*}\) des variables aléatoires indépendantes, indépendantes de \(X_{1}, \ldots, X_{n}\), telles que, pour tout entier \(i\) tel que \(1 \leq i \leq n, X_{i}^{*}\) suive la loi de \(X_{i}\) biaisée par la taille.\\ Soit aussi \(J\) une variable aléatoire de loi \(P(J=k)=\mu_{k} / \mu\), indépendante de \(X_{1}, X_{1}^{*}, \ldots, X_{n}, X_{n}^{*}\). On considère la variable aléatoire \(X_{J}=\sum_{j=1}^{n} X_{j} \mathbb{I}_{[J=j]}\) et on définit \(T_{n}=S_{n}-X_{J}+X_{J}^{*}\). Autrement dit, on choisit un indice aléatoire \(J\) et, dans la somme \(\sum_{i=1}^{n} X_{i}\), on remplace \(X_{J}\) par \(X_{J}^{*}\).\\ (c) Soit \(h:[0, \infty[\rightarrow \mathbb{R}\) une fonction bornée et continue sauf éventuellement en un nombre fini de points.\\ i) Montrer que \(h\left(T_{n}\right)=\sum_{i=1}^{n} h\left(T_{n}\right) \mathbb{I}_{[J=i]}=\sum_{i=1}^{n} h\left(S_{n}-X_{i}-X_{i}^{*}\right) \mathbb{I}_{[J=i]}\).\\ ii) En déduire que \(E\left(h\left(T_{n}\right)\right)=\sum_{i=1}^{n} P(J=i) E\left(h\left(S_{n}-X_{i}+X_{i}^{*}\right)\right)\).\\ (d) Pour \(i \in\{1, \ldots, n\}\), montrer que pour tout réel \(s, E\left(h\left(s+X_{i}^{*}\right)\right)=\frac{1}{\mu_{i}} E\left(X_{i} h\left(s+X_{i}\right)\right)\). On admettra qu'on en déduit l'égalité \(E\left(h\left(S_{n}-X_{i}+X_{i}^{*}\right)\right)=\frac{1}{\mu_{i}} E\left(X_{i} h\left(S_{n}\right)\right)\).\\ (e) En déduire que \(E\left(h\left(T_{n}\right)\right)=E\left(S_{n} h\left(S_{n}\right)\right) / E\left(S_{n}\right)\).\\ (f) Conclure que \(T_{n}\) suit la loi de \(S_{n}\) biaisée par la taille. \section*{Troisième partie : Applications en Statistique} On s'intéresse maintenant au cas où le biais par la taille peut être utilisé en statistique, pour construire des estimateurs non biaisés. Une compagnie d'électricité possède \(n\) clients où \(n\) est un entier naturel non nul donné. Lors de l'année écoulée, le \(i^{e}\) client a payé \(x_{i}\) euros ( \(x_{i}>0\) ), mais a en réalité consommé une quantité d'électricité correspondant à \(y_{i}\) euros ( \(y_{i}>0\) ). La compagnie sait combien ses clients ont payé, et elle souhaite estimer le rapport \[ \theta=\left(\sum_{i=1}^{n} y_{i}\right) /\left(\sum_{i=1}^{n} x_{i}\right), \] pour déterminer à quel point elle a mal facturé ses clients.\\ 10) Soit \(m\) un entier fixé tel que \(1 \leq m \leq n\). On note \(\mathcal{P}_{m}\) l'ensemble des parties \(A \subset\{1, \ldots, n\}\) de cardinal \(m\). On considère une variable aléatoire \(R\), à valeurs dans \(\mathcal{P}_{m}\) et de loi uniforme, c'est-à-dire telle que pour toute partie \(A \in \mathcal{P}_{m}, P(R=A)=\frac{1}{\binom{n}{m}}\).\\ On souhaite écrire un programme pour choisir l'ensemble \(R\) au hasard.\\ (a) On considère la procédure suivante : on prend un premier élément \(s_{1}\) uniformément dans \(\{1, \ldots, n\}\), puis un deuxième élément \(s_{2}\) uniformément dans \(\{1, \ldots, n\} \backslash\left\{s_{1}\right\}\), etc... puis un \(m\)-ème élément \(s_{m}\) uniformément dans \(\{1, \ldots, n\} \backslash\left\{s_{1}, \ldots, s_{m-1}\right\}\). On note \(S=\left(s_{1}, \ldots, s_{m}\right)\), qui est un \(m\)-uplet aléatoire.\\ i) Montrer que pour tout \(m\)-uplet ( \(a_{1}, \ldots, a_{m}\) ) d'entiers distincts de \(\{1, \ldots, n\}\), on a \[ P\left(S=\left(a_{1}, \ldots, a_{m}\right)\right)=\frac{(n-m)!}{n!} \] ii) On note \(R=\left\{s_{1}, \ldots s_{m}\right\}\) l'ensemble des entiers tirés lors de la procédure décrite plus haut (l'ordre dans lequel ils ont été tirés n'importe plus). Montrer que pour tout ensemble \(A=\left\{a_{1}, \ldots, a_{m}\right\} \subset\{1, \ldots, n\}\) de cardinal \(m\), on a \(P(R=A)=\frac{m!(n-m)!}{n!}\). En déduire que l'ensemble \(R\) a été choisi uniformément dans \(\mathcal{P}_{m}\).\\ (b) Pour un réel \(x\), on note \(\lfloor x\rfloor\) sa partie entière, c'est-à-dire le plus grand entier naturel inférieur ou égal à \(x\). Montrer que si \(U\) suit la loi uniforme sur \([0,1[\), alors \(X=1+\lfloor n U\rfloor\) suit la loi uniforme sur \(\{1, \ldots, n\}\).\\ (c) On rappelle que la fonction rand () renvoie un nombre aléatoire de loi uniforme sur \([0,1[\), et que floor ( x ) renvoie la partie entière de x . Écrire une fonction Uniforme en Scilab qui prend en argument un entier \(n\), et renvoie un nombre (aléatoire), uniforme sur \(\{1, \ldots, n\}\). \begin{verbatim} function x= Uniforme(n) ... endfunction \end{verbatim} (d) Écrire une fonction Selection, qui prend en argument un vecteur V et renvoie un élément x de V pris de manière aléatoire parmi tous les éléments de \(V\), ainsi que le vecteur \(W\), égal au vecteur \(V\) auquel on a enlevé l'élément x . L'instruction length ( V ) renvoie le nombre d'éléments du vecteur V . \begin{verbatim} function [x,W] = Selection(V) n=length(V) ... endfunction \end{verbatim} (e) Compléter le programme suivant, qui prend en argument deux entiers \(n\) et \(m\) avec \(m \leq n\), et renvoie un vecteur R de \(m\) entiers distincts, pris uniformément dans \(\{1, \ldots, n\}\) : \begin{verbatim} function R = Choix(m,n) V=1:n \end{verbatim} \begin{verbatim} R=[] for i=1:m ... end endfunction \end{verbatim} \begin{enumerate} \setcounter{enumi}{10} \item Pour une partie \(A \in \mathcal{P}_{m}\), on définit \(\bar{x}_{A}=\frac{1}{m} \sum_{i \in A} x_{i}, \bar{y}_{A}=\frac{1}{m} \sum_{i \in A} y_{i}\), et aussi \(\bar{x}=\frac{1}{n} \sum_{i=1}^{n} x_{i}, \bar{y}=\frac{1}{n} \sum_{i=1}^{n} y_{i}\). La compagnie décide d'utiliser \(\theta_{R}=\bar{y}_{R} / \bar{x}_{R}\) comme estimateur de \(\theta\).\\ (a) On définit deux variables aléatoires \(X=\bar{x}_{R}=\frac{1}{m} \sum_{i \in R} x_{i}\) et \(Y=\bar{y}_{R}=\frac{1}{m} \sum_{i \in R} y_{i}\), qui correspondent aux montants moyens payés et consommés par les \(m\) clients du groupe tiré au hasard.\\ i) Montrer que \(E(X)=\binom{n}{m}^{-1} \sum_{A \in \mathcal{P}_{m}} \bar{x}_{A}\).\\ ii) Soit \(1 \leq i \leq n\) un entier naturel. Calculer le nombre de parties \(A \in \mathcal{P}_{m}\) telles que \(i \in A\).\\ iii) En déduire que \end{enumerate} \[ \sum_{A \in \mathcal{P}_{m}} \sum_{i \in A} x_{i}=\binom{n-1}{m-1} \sum_{i=1}^{n} x_{i} . \] iv) Conclure que \(E(X)=\bar{x}\). On admettra que de même on a \(E(Y)=\bar{y}\).\\ v) Exprimer \(\theta\) en fonction de \(E(X)\) et \(E(Y)\).\\ (b) Montrer que \(E\left(\theta_{R}\right)=E\left(\frac{Y}{X}\right)\).\\ (c) On donne l'inégalité de Cauchy-Schwarz : si \(W\) et \(Z\) sont deux variables aléatoires strictement positives, admettant un moment d'ordre deux, \(E(W Z) \leq E\left(W^{2}\right)^{1 / 2} E\left(Z^{2}\right)^{1 / 2}\), avec égalité si et seulement s'il existe un \(\alpha>0\) tel que \(W=\alpha Z\).\\ i) Montrer que \(E(1 / X) \geq 1 / E(X)\).\\ ii) Montrer qu'il y a égalité si et seulement si \(X\) est une variable aléatoire constante, c'est-à-dire \(X=E(X)=\bar{x}\).\\ iii) Conclure que \(E(1 / X)=1 / E(X)\) si et seulement si \(x_{i}=\bar{x}\) pour tout \(i\).\\ (d) Si on suppose que \(X\) et \(Y\) sont indépendantes, montrer que \(E\left(\theta_{R}\right) \geq \theta\), avec égalité si et seulement si \(x_{i}=\bar{x}\) pour tout \(i\).\\ Ainsi, \(E\left(\theta_{R}\right)\) n'est pas forcément égal à \(\theta\) : on dit alors que \(\theta_{R}\) est un estimateur biaisé de \(\theta\).\\ 12) Ce problème peut être résolu en choisissant les \(m\) clients non de manière uniforme comme dans la question 10, mais de manière biaisée par la taille. Par analogie avec la construction de \(T_{n}\) dans la question 9, on commence par choisir une variable aléatoire \(J\) à valeurs dans \(\{1,2, \ldots, n\}\), dont la loi est donnée par \(P(J=i)=x_{i} / \sum_{r=1}^{n} x_{r}\). Ensuite, étant donné \(J\), on choisit un groupe \(V\) de \(m-1\) clients parmi les \(n-1\) clients différents de \(J\), de manière uniforme. Autrement dit, pour toute partie \(A \in \mathcal{P}_{m}\), et tout \(i \in A\), on a \[ P_{[J=i]}(V=A \backslash\{i\})=\frac{1}{\binom{n-1}{m-1}} \] Le groupe de clients examiné est alors \(R=V \cup\{J\}\).\\ (a) On commence par déterminer \(P(R=A)\), pour \(A \in \mathcal{P}_{m}\) donné.\\ i) Montrer que \[ P(R=A)=\sum_{i \in A} P(J=i) P_{[J=i]}(V=A \backslash\{i\}) \] ii) En déduire que \[ P(R=A)=\frac{1}{\binom{n}{m}} \frac{\bar{x}_{A}}{\bar{x}} \] \begin{enumerate} \setcounter{enumi}{12} \item Une fois choisi le groupe de clients \(R\) (par la procédure de la question 12), on définit \(\hat{\theta}_{R}=\bar{y}_{R} / \bar{x}_{R}\).\\ (a) Montrer que \end{enumerate} \[ E\left(\hat{\theta}_{R}\right)=\frac{1}{\binom{n}{m}} \sum_{A \in \mathcal{P}_{m}} \frac{\bar{y}_{A}}{\bar{x}} \] (b) Conclure que \(E\left(\hat{\theta}_{R}\right)=\theta\). On a donc construit un estimateur non biaisé de \(\theta\). \end{document}