\documentclass[10pt]{article} \usepackage[french]{babel} \usepackage[utf8]{inputenc} \usepackage[T1]{fontenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{amssymb} \usepackage[version=4]{mhchem} \usepackage{stmaryrd} \usepackage{bbold} \usepackage{graphicx} \usepackage[export]{adjustbox} \graphicspath{ {./images/} } \title{FILIÈRE ÉCONOMIQUE ET COMMERCIALE VOIE GENERALE } \author{} \date{} \begin{document} \maketitle \section*{Conception : ESSEC} \section*{MATHÉMATIQUES 2 APPLIQUÉES} Mardi 2 mai 2023, de 8 h. à 12 h. \begin{abstract} La présentation, la lisibilité, l'orthographe, la qualité de la rédaction, la clarté et la précision des raisonnements entreront pour une part importante dans l'appréciation des copies. Les candidats sont invités à encadrer dans la mesure du possible les résultats de leurs calculs. Aucun document n'est autorisé. L'utilisation de toute calculatrice et de tout matériel électronique est interdite. Seule l'utilisation d'une règle graduée est autorisée. Si au cours de l'épreuve, un candidat repère ce qui lui semble être une erreur d'énoncé, il la signalera sur sa copie et poursuivra sa composition en expliquant les raisons des initiatives qu'il sera amené à prendre. \end{abstract} On s'intéresse dans ce problème aux processus de Markov finis homogènes à temps continu et on étudie deux exemples de modélisation en lien avec des crédits bancaires. Le problème comporte quatre parties. Les parties 2 et 3 sont indépendantes de la partie 4.\\ Soit \(n \in \mathbb{N}^{*}, n \geqslant 2\). On considère, dans la suite du problème, une famille de variables aléatoires \(X_{t}\), pour \(t \in \mathbb{R}^{+}\), sur un espace probabilisé ( \(\Omega, \mathcal{A}, \mathbb{P}\) ), vérifiant les propriétés suivantes:\\ (H1) Pour tout \(t \geqslant 0, X_{t}(\Omega)=\{1, \ldots, n\}\).\\ (H2) Pour tout \(r \in \mathbb{N}^{*}\) et \(t_{1}0\) : \[ \frac{f_{j}(t+h)-f_{j}(t)}{h} \underset{h \rightarrow 0}{=} \sum_{i=1}^{n} f_{i}(t) \alpha_{i, j}+o(1) \] En conclure que \(f_{j}^{\prime}(t)=\sum_{i=1}^{n} f_{i}(t) \alpha_{i, j}\).\\ c) Vérifier \(L_{t}^{\prime}=L_{t} G\).\\ 4. Probabilité moyenne d'être dans un état Soit \(T>0\) et \(U_{T}\) une variable aléatoire à valeurs dans \([0, T]\) qui suit la loi uniforme sur cet intervalle. On pose \(Z_{i, T}=f_{i}\left(U_{T}\right)\).\\ Montrer que \(\mathbb{E}\left(Z_{i, T}\right)\) existe et vaut \(\frac{1}{T} \int_{0}^{T} f_{i}(t) d t\). On note \(e_{i}(T)\) cette espérance.\\ 5. On suppose dans cette question que \(n=2\) et que \(G=\left(\begin{array}{cc}-a & a \\ b & -b\end{array}\right)\) où \(a\) et \(b\) sont deux réels strictement positifs. On pose \(p=\frac{b}{a+b}, q=1-p\), \(\alpha=f_{1}(0)\).\\ a) Montrer que \(f_{1}\) vérifie l'équation différentielle d'ordre 1 sur \(\mathbb{R}^{+}, y^{\prime}+(a+b) y=b\).\\ b) En conclure que pour tout \(t \geqslant 0\), \[ f_{1}(t)=p+(\alpha-p) \exp (-(a+b) t) \text { et } f_{2}(t)=q-(\alpha-p) \exp (-(a+b) t) \] c) Montrer que pour tout \(t \in \mathbb{R}^{+}, f_{1}(t) \in[\min (p, \alpha), \max (p, \alpha)]\) et que \(\lim _{t \rightarrow+\infty} f_{1}(t)=p\).\\ d) Déterminer \(\lim _{T \rightarrow+\infty} e_{1}(T)\).\\ 6. On suppose dans cette question que \(n=3\) et \(G=\frac{1}{30}\left(\begin{array}{ccc}-3 & 1 & 2 \\ 1 & -2 & 1 \\ 2 & 1 & -3\end{array}\right)\). Pour tout \(t \geqslant 0\), on note \(C_{t}\) (respectivement \(C_{t}^{\prime}\) ) la transposée de la matrice ligne \(L_{t}\) (respectivement \(L_{t}^{\prime}\) ).\\ a) Montrer que \(-\frac{1}{6},-\frac{1}{10}\) et 0 sont des valeurs propres de \(G\).\\ b) On pose \(P=\left(\begin{array}{ccc}1 & 1 & 1 \\ 1 & -2 & 0 \\ 1 & 1 & -1\end{array}\right)\). Justifier que \(G=\frac{1}{30} P\left(\begin{array}{ccc}0 & 0 & 0 \\ 0 & -3 & 0 \\ 0 & 0 & -5\end{array}\right) P^{-1}\).\\ c) Calculer \({ }^{t} P P\). En déduire que \(P^{-1}=\frac{1}{6}\left(\begin{array}{ccc}2 & 2 & 2 \\ 1 & -2 & 1 \\ 3 & 0 & -3\end{array}\right)\).\\ d) On pose, pour tout \(t \in \mathbb{R}^{+}, P^{-1} C_{t}=\left(\begin{array}{l}y_{1}(t) \\ y_{2}(t) \\ y_{3}(t)\end{array}\right)\). Montrer que pour tout \(t \in \mathbb{R}^{+}\), \(y_{1}^{\prime}(t)=0, y_{2}^{\prime}(t)=-\frac{1}{10} y_{2}(t), y_{3}^{\prime}(t)=-\frac{1}{6} y_{3}(t)\).\\ e) En conclure que, pour tout \(t \geqslant 0, C_{t}=P\left(\begin{array}{c}\alpha \\ \beta \mathrm{e}^{-\frac{1}{10} t} \\ \gamma \mathrm{e}^{-\frac{1}{6} t}\end{array}\right)\) où \(\left(\begin{array}{l}\alpha \\ \beta \\ \gamma\end{array}\right)=P^{-1} C_{0}\), puis que pour \(i \in\{1,2,3\}, \quad \lim _{t \rightarrow+\infty} \mathbb{P}\left(X_{t}=i\right)=\frac{1}{3}\).\\ 7. Temps initial passé dans un état - On pose pour tout \(i \in\{1, \ldots, n\}, \beta_{i}=-\alpha_{i, i}\) et on suppose dans cette question que, si \(\mathbb{P}\left(X_{0}=i\right) \neq 0\) alors \(\beta_{i} \neq 0\). On définit les variables aléatoires, \(Y_{1}, \ldots, Y_{n}\) et \(Y\) égales, au premier instant \(t\) où \(X_{t} \neq i\) pour \(Y_{i}\) et au premier instant \(t\) où \(X_{t} \neq X_{0}\) pour \(Y\). On admet que ces instants existent. Ainsi \(Y\) est à valeurs dans \(] 0,+\infty\left[\right.\) et si \(X_{0} \neq i, Y_{i}=0\). Soit \(i\) tel que \(\mathbb{P}\left(X_{0}=i\right) \neq 0\). On admet que pour tout \(x>0\), lorsque \(k\) est un entier naturel assez grand \(\mathbb{P}\left(\bigcap_{j=0}^{k}\left[X_{\frac{j}{k} x}=i\right]\right) \neq 0\) et que l'on a : \[ \mathbb{P}\left(Y_{i}>x\right)=\lim _{k \rightarrow+\infty} \mathbb{P}\left(\bigcap_{j=0}^{k}\left[X_{\frac{j}{k} x}=i\right]\right) \] a) Montrer que pour tout \(x>0\) et \(k \in \mathbb{N}^{*}, k\) assez grand :\\ \(\mathbb{P}\left(\bigcap_{j=0}^{k}\left[X_{\frac{j}{k} x}=i\right]\right)=\mathbb{P}\left(X_{0}=i\right) \prod_{j=0}^{k-1} \mathbb{P}\left[X_{\frac{j}{k} x}=i\right]\left(X_{\frac{j+1}{k} x}=i\right) \underset{k \rightarrow+\infty}{=} \mathbb{P}\left(X_{0}=i\right)\left(1-\frac{\beta_{i}}{k} x+o\left(\frac{1}{k}\right)\right)^{k}\)\\ b) En déduire que pour tout \(x \geqslant 0, \mathbb{P}_{\left[X_{0}=i\right]}\left(Y_{i}>x\right)=\mathrm{e}^{-\beta_{i} x}\). Quelle est la loi de \(Y_{i}\) pour la probabilité conditionnelle \(\mathbb{P}_{\left[X_{0}=i\right]}\) ?\\ c) Montrer que pour tout \(x \geqslant 0, \mathbb{P}(Y>x)=\sum_{k=1}^{n} \mathbb{P}\left(X_{0}=k\right) \mathrm{e}^{-\beta_{k} x}\).\\ d) En conclure que \(Y\) est une variable à densité et déterminer une densité de \(Y\).\\ e) On note \(I=\left\{k \in\{1, \ldots, n\} / \mathbb{P}\left(X_{0}=k\right) \neq 0\right\}\). Établir que \(Y\) admet une espérance égale à \(\sum_{k \in I} \frac{\mathbb{P}\left(X_{0}=k\right)}{\beta_{k}}\). \section*{Partie 2 - Matrice de transition, lien avec la matrice génératrice} On utilise les notations de la partie 1.\\ 8. Définition de la matrice de transition - Pour tous \((i, j) \in\{1, \ldots, n\}^{2}\) et \(s \geqslant 0\), si \(t \in S_{i}\), on pose \[ m_{i, j}(s)=\mathbb{P}_{\left[X_{t}=i\right]}\left(X_{t+s}=j\right) \] qui ne dépend pas de \(t\) d'après les hypothèses (H4) et (H5).\\ On note \(M(s)\) la matrice d'élément générique \(m_{i, j}(s)\).\\ a) Établir que pour tout \(s \geqslant 0, L_{s}=L_{0} M(s)\).\\ b) Soit \(i \in\{1, \ldots, n\}, r \in S_{i}\). En utilisant la propriété (H2) et en distinguant les cas où \(\mathbb{P}\left(\left[X_{r}=i\right] \cap\left[X_{r+s}=k\right]\right)\) est nulle ou non, montrer que pour tous \((j, k) \in\{1, \ldots, n\}^{2}\), \(s\) et \(t\) des réels positifs : \[ \mathbb{P}\left(\left[X_{r}=i\right] \cap\left[X_{r+s}=k\right] \cap\left[X_{r+s+t}=j\right]\right)=\mathbb{P}\left(X_{r}=i\right) m_{i, k}(s) m_{k, j}(t) \] En déduire que, pour tous \(j \in\{1, \ldots, n\}\) et \(s, t\) des réels positifs, \[ \mathbb{P}\left(\left[X_{r}=i\right] \cap\left[X_{r+s+t}=j\right]\right)=\mathbb{P}\left(X_{r}=i\right) \sum_{k=1}^{n} m_{i, k}(s) m_{k, j}(t) \] c) En conclure que pour tous \(s\) et t, des réels positifs, \(M(s+t)=M(s) M(t)\).\\ d) Montrer que pour tout \(k \in \mathbb{N}^{*}\) et \(t\) réel positif, \(M(k t)=(M(t))^{k}\). \begin{itemize} \item Si \(\left(A_{k}\right)_{k \geqslant 1}\) est une suite de matrices appartenant à \(\mathcal{M}_{n}(\mathbb{R}), A\) une matrice appartenant à \(\mathcal{M}_{n}(\mathbb{R})\), si l'on note \(a_{i, j}(k)\) le coefficient d'indice ( \(i, j\) ) de la matrice \(A_{k}, a_{i, j}\) le coefficient d'indice \((i, j)\) de \(A\), alors on écrira \(A=\lim _{k \rightarrow+\infty} A_{k}\) si pour \((i, j) \in\{1, \ldots, n\}^{2}\), \(\lim _{k \rightarrow+\infty} a_{i, j}(k)=a_{i, j}\).\\ On dit alors que la suite \(\left(A_{k}\right)_{k \geqslant 1}\) converge vers \(A\). \item On admet, dans la suite de cette partie et dans la partie 3 , que pour tout \(t \geqslant 0\), \end{itemize} \[ M(t)=\lim _{k \rightarrow+\infty}\left(\mathrm{I}_{n}+\frac{t}{k} G\right)^{k} \quad(* *) \] \begin{enumerate} \setcounter{enumi}{8} \item On veut simuler le processus à partir de la donnée de la matrice \(G\) et de \(L_{0}\). On admet que pour \(t \in[0,100]\), on peut considérer que \(M(t)=\left(\mathrm{I}_{n}+\frac{t}{1000} G\right)^{1000}\). \end{enumerate} \begin{itemize} \item On importe des bibliothèques: \end{itemize} \[ \begin{aligned} & \text { numpy as np, numpy.random as rd, matplotlib.pyplot as plt, numpy.linalg } \\ & \text { as al } \end{aligned} \] \begin{itemize} \item On rappelle que si M est une matrice, représentée par un tableau numpy, \(\mathrm{M}[:, \mathrm{j}]\) désigne le vecteur des coefficients de j -ème colonne de M , de même pour \(\mathrm{M}[\mathrm{i},:]\) et la i-ème ligne de M.\\ a) Écrire une fonction Python transition ( \(t, G\) ) de paramètres \(G\) représentant la matrice génératrice carrée d'ordre \(n\) et t , qui renvoie la matrice \(\left(\mathrm{I}_{n}+\frac{t}{1000} G\right)^{1000}\).\\ b) Utiliser la fonction précédente pour écrire une fonction traceLoi2Xt (G,L0,tmax) qui trace, sur un même graphique, les graphes des fonctions \(t \mapsto \mathbb{P}\left(X_{t}=i\right)\) sur le segment \(\left[0, t_{\text {max }}\right]\) pour \(i\) variant de 1 à \(n, \mathrm{G}\) et L0 représentant, respectivement, la matrice génératrice du processus et la ligne \(L_{0}\).\\ On utilisera 1000 points pour les graphes.\\ c) Si \(G\) est la matrice de la partie I, question 6, l'instruction, \end{itemize} \begin{verbatim} traceLoi2Xt(1/30*np.array([[-3, 1,2],[1,-2,1],[2,1,-3]]),1/10*np.array([5,3,2]),100) \end{verbatim} affiche l'image suivante :\\ \includegraphics[max width=\textwidth, alt={}, center]{ef315353-cc05-4b6e-af4d-d29b9ae47be9-06_565_770_500_715} Expliquer en quoi ce graphique est cohérent avec un résultat obtenu précédemment.\\ d) On veut simuler et représenter, sur un même graphique, les valeurs de \(X_{0}, X_{t}, \ldots, X_{k t}\), pour \(t>0\) et \(k \in \mathbb{N}^{*}\), à partir de la loi de \(X_{0}\) donnée dans une ligne L0. Compléter la fonction suivante pour qu'elle réalise cette tâche : \begin{verbatim} def simulX(t,k,LO,G): listeDesT=[] ; listeDesX = [] Mt=transition(t,G) ; Lt=L0 for i in range(k+1): listeDesT.append(i*t) p=rd.random() s=... j=0 while p>...: j+=1 s+= Lt [j] Lt=... listeDesX.append(j+1) plt.plot(listeDesT,listeDesX) ; plt.show() \end{verbatim} \section*{Partie 3 - Deux exemples de modélisations} On conserve les notations des deux premières parties.\\ 10. On considère trois états pour le recouvrement d'un crédit bancaire après un défaut de paiement et un accord entre le débiteur et l'organisme de crédit sur la somme à recouvrer : \begin{itemize} \item 1 - en cours de recouvrement, lorsque le débiteur est en train de régulariser sa créance ; \item 2 - recouvré, lorsque le débiteur a honoré la totalité du montant dû ; \item 3 - non recouvré, lorsque l'organisme de crédit considère que l'argent est définitivement perdu. \end{itemize} La matrice génératrice \(G\) du processus de Markov modélisant ce phénomène est \(\left(\begin{array}{ccc}-\alpha-\beta & \alpha & \beta \\ 0 & 0 & 0 \\ 0 & 0 & 0\end{array}\right)\) et \(L_{0}=\left(\begin{array}{lll}1 & 0 & 0\end{array}\right), \alpha\) et \(\beta\) étant des réels strictement positifs.\\ a) Montrer que pour tout \(i \in \mathbb{N}^{*}, G^{i}=(-\alpha-\beta)^{i-1} G\).\\ b) En déduire que pour tous \(k \in \mathbb{N}^{*}\) et \(t\) réel : \(\left(\mathrm{I}_{3}+\frac{t}{k} G\right)^{k}=\mathrm{I}_{3}+\left(\sum_{i=1}^{k}\binom{k}{i}\left(\frac{t}{k}\right)^{i}(-\alpha-\beta)^{i-1}\right) G\).\\ c) Montrer que pour tous \(k \in \mathbb{N}^{*}\) et \(t\) réel, \(\sum_{i=1}^{k}\binom{k}{i}\left(\frac{t}{k}\right)^{i}(-\alpha-\beta)^{i-1}=\frac{1-\left(1-(\alpha+\beta) \frac{t}{k}\right)^{k}}{\alpha+\beta}\) et en déduire que pour tout \(t \geqslant 0\), \[ M(t)=\mathrm{I}_{3}+\frac{1-\exp (-(\alpha+\beta) t)}{\alpha+\beta} G \] d) En conclure que pour tout \(t \geqslant 0, \mathbb{P}\left(X_{t}=1\right)=\exp (-(\alpha+\beta) t)\), \[ \mathbb{P}\left(X_{t}=2\right)=\frac{\alpha}{\alpha+\beta}(1-\exp (-(\alpha+\beta) t)) \text { et } \mathbb{P}\left(X_{t}=3\right)=\frac{\beta}{\alpha+\beta}(1-\exp (-(\alpha+\beta) t)) \] e) En utilisant les résultats de la question 7 de la partie I, montrer que le temps aléatoire passé en recouvrement suit la loi exponentielle de paramètre \(\alpha+\beta\).\\ 11. On distingue, pour l'accès au crédit d'une organisation, trois niveaux de solvabilité : \begin{itemize} \item 1 - niveau C ; \item 2 - niveau B ; \item 3 - niveau A . \end{itemize} On suppose que ce niveau évolue dans le temps suivant un processus de Markov avec \(G=\frac{1}{3}\left(\begin{array}{ccc}-\alpha & \alpha & 0 \\ 0 & -\alpha & \alpha \\ 4 \alpha & 0 & -4 \alpha\end{array}\right)\) et \(L_{0}=\left(\begin{array}{lll}1 & 0 & 0\end{array}\right), \alpha>0\). On note aussi \(A=\frac{1}{3}\left(\begin{array}{ccc}1 & -1 & 0 \\ 0 & 1 & -1 \\ -4 & 0 & 4\end{array}\right)\).\\ a) On admet que \(A^{3}=\frac{1}{27}\left(\begin{array}{ccc}-3 & -3 & 6 \\ 24 & -3 & -21 \\ -84 & 24 & 60\end{array}\right)\). Calculer \(A^{3}-2 A^{2}+A\) (on explicitera \(\left.A^{2}\right)\). Que peut-on dire du polynôme \(U(x)=x^{3}-2 x^{2}+x\) ? Soit \(\theta \in \mathbb{R}\) et \(k \in \mathbb{N}^{*}\), on admet qu'il existe un polynôme \(Q\) et des réels \(a, b, c\) tels que, pour tout \(x\) réel : \(\left(1+\frac{\theta}{k} x\right)^{k}=Q(x) U(x)+a x^{2}+b x+c \quad(*)\).\\ b) Déterminer une factorisation de \(U(x)\) et en déduire que \(c=1\) et \(\left(1+\frac{\theta}{k}\right)^{k}=a+b+c\).\\ c) En dérivant la relation (*), montrer que , \(\theta\left(1+\frac{\theta}{k}\right)^{k-1}=2 a+b\). En déduire que \(a=\theta\left(1+\frac{\theta}{k}\right)^{k-1}-\left(1+\frac{\theta}{k}\right)^{k}+1, b=2\left(1+\frac{\theta}{k}\right)^{k}-\theta\left(1+\frac{\theta}{k}\right)^{k-1}-2\).\\ d) En conclure que pour tout \(t \geqslant 0\), \[ M(t)=\left(1-(1+\alpha t) \mathrm{e}^{-\alpha t}\right) A^{2}+\left((2+\alpha t) \mathrm{e}^{-\alpha t}-2\right) A+\mathrm{I}_{3} \] puis préciser la loi de \(X_{t}\). \section*{Partie 4 - Démonstration de l'égalité (**) admise dans la partie 2} On utilise les notations et définitions des deux premières parties. \begin{itemize} \item On définit pour \(A=\left(a_{i, j}\right)_{1 \leqslant i, j \leqslant n}\) appartenant à \(\mathcal{M}_{n}(\mathbb{R}),\|A\|=\max _{1 \leqslant i \leqslant n}\left(\sum_{j=1}^{n}\left|a_{i, j}\right|\right)\) c'est-à-dire la plus grande valeur que prend \(\sum_{j=1}^{n}\left|a_{i, j}\right|\) lorsque \(i\) décrit \(\{1, \ldots, n\}\). \item On admet que si \(\left(A_{k}\right)_{k \geqslant 1}\) est une suite de matrices appartenant à \(\mathcal{M}_{n}(\mathbb{R})\) et \(A\) appartenant aussi à \(\mathcal{M}_{n}(\mathbb{R}), A=\lim _{k \rightarrow+\infty} A_{k}\) si et seulement si \(\lim _{k \rightarrow+\infty}\left\|A_{k}-A\right\|=0\). \end{itemize} \begin{enumerate} \setcounter{enumi}{11} \item Un exemple - Si \(A=\frac{1}{3}\left(\begin{array}{ccc}1 & -1 & 1 \\ 0 & 1 & -1 \\ -4 & 0 & 2\end{array}\right)\), montrer que \(\|A\|=2\). \item Soit \(t \geqslant 0\).\\ a) Établir \(\|M(t)\|=1\).\\ b) En utilisant la question 2 de la partie 1 , montrer que pour \(k \in \mathbb{N}^{*}\) assez grand, \(\left\|\mathrm{I}_{n}+\frac{t}{k} G\right\|=1\). \item Soient \(A=\left(a_{i, j}\right)_{1 \leqslant i, j \leqslant n}\) et \(B=\left(b_{i, j}\right)_{1 \leqslant i, j \leqslant n}\) deux matrices appartenant à \(\mathcal{M}_{n}(\mathbb{R})\).\\ a) Etablir que \(\|A+B\| \leqslant\|A\|+\|B\|\).\\ b) Montrer que \(\|A\| \leqslant \sum_{i=1}^{n} \sum_{j=1}^{n}\left|a_{i, j}\right|\).\\ c) Démontrer que, \(\|A B\| \leqslant\|A\|\|B\|\) puis que pour tout entier naturel \(n,\left\|A^{n}\right\| \leqslant\|A\|^{n}\).\\ d) Vérifier que pour tout \(k \in \mathbb{N}^{*}, A^{k+1}-B^{k+1}=A\left(A^{k}-B^{k}\right)+(A-B) B^{k}\).\\ e) On pose \(c=\max (\|A\|,\|B\|)\). Montrer, par récurrence sur \(k\), que pour tout \(k \in \mathbb{N}^{*}\), \end{enumerate} \[ \left\|A^{k}-B^{k}\right\| \leqslant k c^{k-1}\|A-B\| \] \begin{enumerate} \setcounter{enumi}{14} \item Soit \(t\) un réel positif et \(k \in \mathbb{N}^{*}\).\\ a) Justifier que \(\left\|M\left(\frac{t}{k}\right)-\left(\mathrm{I}_{n}+\frac{t}{k} G\right)\right\| \underset{k \rightarrow+\infty}{=} o\left(\frac{1}{k}\right)\).\\ b) Montrer que pour tout \(k\) assez grand, \end{enumerate} \[ \left\|M\left(\frac{t}{k}\right)^{k}-\left(\mathrm{I}_{n}+\frac{t}{k} G\right)^{k}\right\| \leqslant k\left\|M\left(\frac{t}{k}\right)-\left(\mathrm{I}_{n}+\frac{t}{k} G\right)\right\| \] c) En conclure que \(M(t)=\lim _{k \rightarrow+\infty}\left(\mathrm{I}_{n}+\frac{t}{k} G\right)^{k}\). \end{document}