Fubini ![]()
AlexZeta a écrit:
(52) Soit G un groupe fini et un automorphisme
involutif \lambda : G \rightarrow G dont le seul point fixe est 1.
Montrer que G est abélien.Montrer que tout élément de G est de la forme \lambda(t)t^{-1}
)
Merci pour l’indication, c’est tout de suite plus simple avec^^ :
[spoiler]Soit \phi : G \rightarrow G , x \mapsto \lambda (x)x^{-1}.
On montre que \phi est injective : si \phi(x)=\phi(y) alors on obtient \lambda(x^{-1}y)=x^{-1}y qui donne x^{-1}y=1 par hypothèse donc x=y.
G étant fini et \phi injective, il y a autant d’images possibles que d’éléments de G d’où Im(\phi)=G.
Tout a \in G s’écrit a=\lambda(x)x^{-1} = \lambda(x)\lambda ^{2}(x^{-1})=\lambda(x\lambda(x^{-1}))=\lambda(a^{-1}).
Pour a,b \in G on a donc ab=\lambda(a^{-1}b^{-1})=\lambda((ba)^{-1})=ba
G est commutatif
[/spoiler]
(55) Soit f: I \subseteq \mathbb{R} \to \mathbb{R} une application dérivable mais pas forcément \mathcal{C}^1. En considérant l’ensemble B=\{\frac{f(x)-f(y)}{x-y}, (x,y)\in {I^2} , x<y\} , montrer que f'(I) est un intervalle de \mathbb{R}.
Exo également faisable en sup avec de simples outils.
Les concours approchent, vous vous sentez prêts? ![]()
Quatres classiques :
(56) Calcul du déterminant de Vandermonde, c’est à dire du déterminant de la matrice ( (a_i)^(j-1) ), 1<=i,j<=n , avec (a_i) un n-uplet de réels quelconque.
Hard mode : faire ce calcul sans utiliser les opérations sur les lignes et colonnes!
(57) Calcul du déterminant de Cauchy, c’est à dire du déterminan de la matrice (1/(a_i + b_j )), 1<=i,j<=n, avec (a_i) et (b_j) deux n-uplets de réels quelconques tels que on a toujours a_i + b_j <> 0
(58) Dans un espace préhilbertien E, montrer que la matrice de Gram (<x_i | x_j >) a même rang que la famille (x_i).
(59) Après avoir montré que GLn(R) est un ouvert de Mn(R), donner la différentielle de la fonction M → M^-1 définie sur GLn(R)
Pour le (44) :
On prend donc G un groupe fini de cardinal n, et x dans G.
On considère G’ le sous-groupe engendré par x dans G. G’ est de cardinal p<=n, et on a même p|n d’après le théorème de Lagrange. C’est un groupe monogène donc x^p=1. Puis comme il existe d tel que n =dp, on a x^n = (x^p)^d = 1^d = 1.
Et sans utiliser le théorème de Lagrange ?
Downham a écrit:
Les concours approchent, vous vous sentez prêts?
(59) Après avoir montré que GLn(R) est un ouvert de Mn(R), donner la différentielle de la fonction M → M^-1 définie sur GLn(R)
C’est encore mieux si tu le fait en dimension infinie (donc pas avec les matrices mais avec les endomorphismes)
(60) Soit G un groupe abélien fini de cardinal 99. Montrer que G admet un sous-groupe de cardinal 9.
Beeeeee a écrit:
[quote=« Downham »]
Les concours approchent, vous vous sentez prêts?(59) Après avoir montré que GLn(R) est un ouvert de Mn(R), donner la différentielle de la fonction M → M^-1 définie sur GLn(R)
C’est encore mieux si tu le fait en dimension infinie (donc pas avec les matrices mais avec les endomorphismes)
[/quote]
Je crois que ma méthode peut s’étendre à la dimension infinie!
J’ai quand même l’impression que le 44), c’est Lagrange (donc une démonstration analogue convient).
spoiler Une méthode efficace: Considérer la dernière ligne comme une ligne d’inconnues (X, X^{2}, ....) (ou compléter le déterminant de Vandermonde en rajoutant une ligne avec cette inconnue), et remarquer que le déterminant est alors un polynôme en X. Reste à déterminer ses racines (pour quels X la matrice est non inversible, de façon visible ?) et son coefficient dominant (qui est à relier à un déterminant de Vandermonde). Conclure en résolvant la récurrence.
(57) Une jolie méthode est ici encore de faire intervenir une inconnue de façon analogue, en remarquant qu’on a cette fois une fraction rationnelle. Plus long mais intéressant à avoir vu !
(58) Une possibilité: essayer de voir la matrice de Gram pour ce quelle est: une matrice de produit scalaire.
Complétons l’espace de dimension finie H=Vect(x_{1}, ..., x_{n}) en G de dimension n exactement, dans lequel il existe une base orthonormée (e_{1}, ..., e_{n}), et travaillons dans G.
On peut interpréter la matrice sous la forme Gram(x_{1}, ..., x_{n})= A^{T}A où A est la matrice des vecteurs x_{i} dans la BON (un calcul le vérifie bien !).
De là, on se ramène à comparer le rang de A à celui de A^{T}A. Or, il est assez simple de montrer que Ker(A)=Ker(A^{T}A), ce qui clot la question.
(59) Le déterminant est une application continue (en les coefficients de la matrice), par image réciproque on a le caractère ouvert des inversibles.
Méthode classique pour cette différentielle: \phi (M+H)=(M+H)^{-1}=(I+M^{-1}H)^{-1}M^{-1} puis développement en série au voisinage de l’identité*(légitime dans notre espace, même de dimension infinie, et pour un H bien choisi !)* (I+M^{-1}H)^{-1}=\sum (-1)^{k}(M^{-1}H)^{^{k}}. On identifie pour retrouver la différentielle: d\phi _{M}(X)=-X^{-1}MX^{-1}.
Une autre solution est de « différentier » AA^{-1}=I.[/spoiler]
Une autre jolie démonstration du (56) est la suivante :
[spoiler]D’après la définition même du déterminant, on sait que c’est un polynôme homogène de degré n en les coefficients de la matrice. Ici, si on remplace les coefficients par les (a_i)^(j-1), on obtient un polynôme homogène de degré n(n-1)/2 en (a_i), 1<=i<=n.
On note que ce polynôme homogène s’annule évidemment si deux a_i sont égaux : on peut donc, si on note D(a_1, … , a_n) le déterminant de Vandermonde, factoriser de la façon suivante :
D(a_1, … , a_n) = product((a_j - a_i) , 1<=i<j<=n) * P(a_1, … , a_n)
Où P est un autre polynôme. Par comparaison des degrés, comme D et le produit indicé pour 1<=i<=n sont de degrés n(n-1)/2, P est constant.
Une identification à un des monômes du déterminant, choisi afin de se simplifier la tâche, permet de montrer que P=1.
On trouve donc l’expression du déterminant de Vandermonde, sans même faire de récurrence![/spoiler]
Et pour le 44, mon cours utilise le théorème de Lagrange pour le démontrer. Donc je suis un peu à court d’idée pour faire autrement.
Tant que j’y suis, j’ai rencontré le (36) dans un sujet et j’ai 2 démos à vous proposer :
Celle qui ne sort pas trop de l’ordinaire :
Soit A dans Mn(K). Quitte à se placer dans la cloture algébrique du corps K, on la trigonalise : A = (P^-1)TP , avec P inversible et T triangulaire.
Ensuite du calcul sans astuce particulière permet de montrer que exp(A) = (P^-1)*(exp T)*P
Puis que les coefficients diagonaux de exp(T) sont les exponentielles des coefficients diagonaux de T.
On conclut que Sp(exp A) = exp(Sp(A)), et la formule devient facile à montrer en se souvenant que le détermiannt est le produit des valeurs propres et que la trace est la somme des valeurs propres.
Ma démo dont on me dit qu’elle est tirée par les cheveux mais quebje trouve trop cool :
[spoiler]Au début je cherchait à exprimer le spectre de exp(A) en fonction de celui de A.
Montrer que si λ € Sp(A) alors exp(λ)€Sp(exp(A)) ne pose pas de problème, mais l’inclusion réciproque est moins évidente.
On remarque qu’avec des arguments de cardinalité, l’égalité des deux ensembles est acquises lorsque la matrice a n valeurs propres distinctes.
Si on se réfère à un exercice précédemment posé ici, on montre que l’ensemble des matrices qui ont n valeurs propres distinctes est dense dans Mn(K) lorsque K est algébriquement clos (c’est ainsi qu’on montrait que l’ensemble des matrices diagonalisables était dense).
Or A–> det(exp(A)) et A–>exp(Tr(A)) sont deux fonctions continues sur Mn(K). Elles coincident sur une partie dense, donc sont égales![/spoiler]
@Downham pour le (44)
Utiliser la fonction de G dans G : x \mapsto ax
Pour le calcul de l’exponentielle de matrice (Downham), ne pas oublier de justifier le passage à la limite par la continuité d’une application linéaire évidente ![]()
Démo du (12) (théorème de Gauss Lucas) :
[spoiler]L’astuce de batard consiste ici à étudier P’/P.
On décompose en éléments simples :
P’/P = sum( m_k/(X- r_k) , 1<=k<=n)
Où les r_k sont les racines de P, et m_k leurs ordres de multiplicités.
Soit a une racine de P’.
Si a est aussi racine de P, la preuve est immédiate.
Si a n’est pas racine de P, alors :
P’(a)/P(a) = 0 = sum( m_k/(a - r_k) )
On a ici des nombres complexes au numérateur : tout le monde sait que c’est quelque chose que l’on déteste. On multiplie donc par l’expression conjuguée :
0 = sum( m_k (a*- r_k*)/|a- r_k|^2 )
(J’ai noté le conjugué avec une étoile, comme les physiciens. Promis un jour j’apprendrais le Latex.)
Puis on scinde cette somme :
a* sum( m_k / |a- r_k|^2 ) = sum( m_k r_k*/|a- r_k|^2 )
On passe tout ça au conjugué, comme c’est linéaire et involutif tout se passe bien. On obtient bien une expression de a comme combinaison convexe des racines de P.[/spoiler]
(61) Soit K un corps fini. Montrer que (K, . ) groupe cyclique.*
Les écrits sont passés, et je pense que ça peut être intéressant de souligner le nombre d’exercices classiques, posés ici ou non, qui sont tombés.
A l’X, il y avait la compacité de On(R) qui était cachée quelque part dans maths 1
A l’ENS, ça commençait avec ça :
(62) Soit A dans Sn++(R). Montrer qu’il existe M inversible telle que A = tMM.
et il y avait aussi ça plus loin, qui était aussi tombé à Centrale :
(63) Soit M dans Mn(Z). Montrer que M est inversible et d’inverse dans Mn(Z) si et seulement si |det(M)| = 1
Maths 1 des Mines : le sujet entier a pu être dans le cours de certaines personnes. On avait mentionné la réduction de Jordan et les sous-espaces caractéristiques.
Le Maths 2 commençait avec le théorème du point fixe de Banach-Picard.
Centrale Maths 1 : J’avais entendu parler de cette démo de Cayley-Hamilton pendant l’année, mais de là à dire que c’est un classique…
Centrale Maths 2 : Les polynômes de Tchebychev!
J’en ai sans doute oublié, mais là où je veux en venir c’est que recommande aux futurs spé d’avoir une certaine « culture générale des exercices » (et non pas de bachoter) parce que ça aide énormément d’être en terrain connu là où certains découvrent les notions
J’ai l’impression que c’est aux Mines le plus flagrant. Cela fait deux ans de suite que le sujet est un copié collé du cours de notre prof. Pour les autres concours ce sont juste plusieurs questions ici ou là, parfois une partie entière ![]()
Dommage que ça n’arrive pas en physique ce genre de truc.
charlestiran a écrit:
Dommage que ça n’arrive pas en physique ce genre de truc.
Je trouve que c’est pareil en physique perso..
charlestiran a écrit:
Dommage que ça n’arrive pas en physique ce genre de truc.
Moi je trouve que c’est très injuste ce genre de truc.