Espace Euclidien Flashcards
Définir un produit scalaire
Donner un exemple de produit scalaire sur :
- IRn
- Mn,1(IR)
- Mn(IR)
- C0([a,b],IR)
- IR[X]
Montrer la convergence
Et faire avant le cas : P=0 ou Q=0, car dans ce cas on ne peut pas faire l’équivalent.
Alors on a juste l’intégrale qui converge et vaut 0
Montrer le caractère défini positif de ce produit scalaire sur IR[X]
Première implication : car P²(t)e-t ≥ 0, donc l’intégrale jusqu’à A est supérieure à 0 et inférieur à l’intégrale jusqu’à +∞
Comment définir une norme à partir d’un produit scalaire ?
Justif
Pour le 3 : on regarde ||x+y||² puis on utilise Cauchy-Schwarz
Rappeler Cauchy-Schwarz
Justif
Cas d’égalité : x et y colinéaires
Car égalité ⇔ Δ = 0 ⇔ ∃λ, ||x + λy||=0 ⇔ ∃λ, x + λ.y = 0 ⇔ ∃λ’, x = λ’.y (def de x et y colinéaires)
Qu’est-ce que l’identité de polarité ?
Quelle est la conséquence ?
Donc, si on connait la norme on peut remonter au produit scalaire (si celle-ci est une norme préhilbertienne)
Définir deux vecteurs orthogonaux
Définir l’orthogonal d’un espace
Qu’est-ce que le théorème de Pythagore ?
On veut juste trouver une fonction qui appartient à F, qui est positive et ne s’annule qu’en 0, pour avoir f.g qui appartient toujours à F (car g ne peut pas diverger en 0, puisque continue), donc f.g² = 0 en tout point, donc g = 0 en tout point sauf 0, donc g = 0 en tout point par continuité. On peut prendre f : x → x par exemple.
Refaire comme ça, ça sera beaucoup plus simple
Qu’est-ce que le théorème de Gram-Schmidt ?
Montrer que les polynômes de Tchebychev définissent une famille orthonormée sur ce produit scalaire et l’exhiber
Montrer que les polynômes de Legendre définissent une famille orthonormée sur ce produit scalaire et l’exhiber
∫<-1 → 1>*
Qu’est-ce que le théorème de la projection ?
- la distance à un espace de dimension finie n’est pas un inf mais un min (donc il existe un point qui vérifie cette distance minimale)
- le point qui est à ce minimum de distance de F est unique : il existe un point «le plus proche» de F
Qu’appelle-t-on un espace euclidien ? un espace préhilbertien ?
Un espace euclidien est un IR-ev de dimension finie muni d’un produit scalaire.
Un espace préhilbertien est un IR ou ℂ espace vectoriel (de dimension quelconque) muni d’un produit scalaire.
Qu’est-ce que la généralisation du théorème de Pythagore ?
Que peut-on dire de F et F⊥ ?
Ils sont toujours en somme directe, et ils sont supplémentaires en dimension finie
Comment montrer que deux vecteurs sont égaux grace à un produit scalaire ?
Justif
Car x-y orthogonal à tout vecteur
En dimension finie, montrer que F ⊕ F⊥ = E et exprimer le projeté orthogonal de x sur F
Qu’est-ce que le théorème de la base orthonormée incomplète ?
Si E est de dimension finie.
Toute famille (e1, …, en) orthonormée peut être complétée en une base orthonormée de E : il suffit de la compléter par une base de F⊥, où F = Vect(e1, …, en) (car F ⊕ F⊥ en dimension finie)
Donner l’expression des coordonnées d’un vecteur et du produit scalaire de deux vecteurs à partir d’une base orthonormée.
Justif
Pour montrer l’expression de x :
- x s’exprime comme la somme des xi × ei, car les ei sont une base
- soit j€[|1,n|], <x|ej> = …, on exprime x avec ses coordonnées, on utilise la bilinéarité et le fait que les ei forment une base orthonormée
Pour montrer l’expression du produit scalaire :
- on remplace x et y par la forme expliquée juste avant
- on utilise la bilinéarité du produit scalaire, sa symétrie et le fait que les ei forment une base orthonormée
Comment caractériser F⊥ en dimension finie ?
C’est le seul supplémentaire de F orthogonal à F (appelée le supplémentaire orthogonal)
Définir la projection orthogonale sur F, donner son expression en fonction d’une base de F puis en fonction d’une base de F⊥.
Car F et F⊥ sont supplémentaires en dimension finie
de p+1 à n la deuxième somme*
Exprimer le projeté de x sur une droite vectorielle D = a.IR, puis sur un de ses hyperplans
Parce que ça fait <x|a>/IIaII² × a = <x|u> × u, avec u = a/IIaII : u est un vecteur directeur unitaire de D
Exprimer x€E selon une base orthonormée de E
Définir une isométrie
Remontrer que Ker(s + Id) ⊕ Ker(s - Id) = E, si s est une symétrie
Définir une symétrie orthogonale
Qu’est-ce qu’une symétrie orthogonale a de particulier ?
Justif
Définir une réflexion
C’est une symétrie orthogonale telle que Ker(s - Id) est un hyperplan
Que peut-on dire d’une isométrie ?
Justif
C’est donc un type de bijection particulier, adapté aux espaces euclidien
L’ensemble des isométries est-il un espace vectoriel ?
Justif
L’ensemble des isométries n’est pas un espace vectoriel : 3.u n’est pas une isométrie
Comment note-t-on l’ensemble des isométries ?
Que peut-on dire de la composée d’isométries ?
Justif
Quel est le lien entre isométrie et produit scalaire ?
Justif
Quel est le lien entre isométrie et bases ?
Justif
C’est un cas particulier de bijection «adaptée» à l’espace euclidien
Quel est le lien entre isométrie et espace orthogonal ?
Justif
Caractériser les isométries diagonalisables dans IR.
Justif
Les seules isométries diagonalisables dans IR sont les symétries orthogonales
Caractériser matriciellement une isométrie.
Justif
C’est juste parce que le produit scalaire sur les vecteurs (somme des produits des coordonnées) est le même que le produit scalaire sur les matrices qui les représentent (At•B), donc dire que (A1, …, An) est une BON de Mn,1(IK) revient à dire que (u(e1), …, u(en)) est une BON de E.
Qu’appelle-t-on On(IR) ?
Comment caractériser On(IR) ?
Justif
Écrire en termes ensemblistes la caractérisation des matrices de On(IR) par leur inverse
Qu’appelle-t-on un «endomorphisme orthogonal» ?
Endomorphisme orthogonal = isométrie
Que peut-on dire du déterminant d’une matrice orthogonale ?
Justif
Soit A€On(IR),
At × A = Id ⇒ det(A)² = 1
Donc det(A) = +-1
Définir le groupe spécial orthogonal.
Comment l’appelle-t-on ?
Définir une base orthonormée directe/indirecte
Donc base directe ssi sa matrice dans une BON est une matrice de rotation
Caractériser les matrices de O2(IR) puis justifier
Savoir donner :
- les formes
- les formes en fonction du déterminant associé
(a et b appartiennent à [-1,1], sinon on ne pourrait pas avoir l’égalité, et cos est surjective sur [-1,1], donc il existe θ et φ tels que …)
Que peut-on dire des matrices de O2(IR) diagonalisables et de déterminant 1 ?
Justif
Connaissant déjà la forme générale des matrices de O2(IR) de déterminant 1
On a montré que Sp(A) ⊂ {-1,1}, or le déterminant est égal à 1 mais est aussi égal au produit des valeurs propres, on a donc Sp(A) ⊂ {-1} ou Sp(A) ⊂ {1}.
Donc si A est diagonalisable, A admet au moins une valeur propre et A = I ou A = -I
Que peut-on dire des matrices de O2(IR) diagonalisables et de déterminant -1 ?
Justif
Connaissant déjà la forme générale des matrices de O2(IR) de déterminant -1
Attention : -Id est de déterminant 1, car il y a deux lignes donc on multiplie deux fois par -
Au vu de leur forme, comment qualifier les matrices O2(IR) de déterminant 1 ?
Justif
Ce sont des rotations d’angle θ
Définir un endomorphisme auto-adjoint
Caractériser matriciellement les endomorphismes auto-adjoints
Justif
Pour le sens retour : on peut juste dire que <u(x)|y> = (A.X)t*Y
= Xt.At.Y
= Xt.A.Y, car A est symétrique
= <x|u(y)>
À quoi revient cette question ?
⇔ existe-t-il un produit scalaire tel que la matrice soit symétrique ?
Qu’appelle-t-on un «endomorphisme symétrique» ?
Endomorphise auto-adjoint = symétrique
Qu’est-ce que le théorème spectral pour les endomorphismes ? Pour les matrices ?
Le fait qu’une matrice symétrique n’admet que des valeurs propres réelles n’est pas une conséquence du théorème spectral mais une étape de sa démonstration
Définir une matrice symétrique positive et une matrice définie positive.
Qu’est-ce que ça signifie ?
Ça veut dire que, si on appelle u l’endomorphisme associé à A, <u(x)|x> (=(S.X)t.X = Xt.St.X = Xt.S.X ≥ 0) est positif et donc que dès qu’on applique u ou A à x ou X, Ça pointe dans le même sens que le vecteur x ou X initial.
Comment caractériser les matrices symétriques positives et celles strictement positives ?
Justif
Quel encadrement donnent les valeurs propres d’un endomorphisme auto-adjoint ?
Justif
Comment montrer que cet encadrement est atteint ?
Directement :
- on veut regarder <u(x)|x> donc on le fait
- on veut faire intervenir les valeurs propres et u est auto-adjoint :
- réflexe pour un auto-adjoint, surtout pour faire intervenir les valeurs propres : M =P.D.Pt
- du coup on traduit matriciellement <u(x)|x>
Pour montrer que c’est atteint, il suffit d’ordonner les λi par ordre croissant et de prendre X = P.(1 0 … 0) ou X = P.(0 … 0 1)
Qu’appelle-t-on la décomposition O.S de GLn(IR) ?
Justifier l’existence de cette décomposition
Ot.O = In plutôt
On peut partir de la synthèse pour trouver l’idée : on veut ça, donc on veut étudier At.A et on veut que ça fasse S², donc on regarde At.A et on sait que si ça s’exprime comme S², avec S€Sn++(IR) c’est gagné.
C’est plus logique
Monter que l’inverse d’une matrice symétrique (inversible) est symétrique
Définir un endomorphisme anti-symétrique
Caractériser matriciellement un endomorphisme anti-symétrique
Justif
Pour un endomorphisme anti-symétrique, quelle est la propriété équivalente à la propriété matricielle suivante : «la diagonale d’une matrice anti-symétrique est nulle» ?
Justif
Que peut-on dire du spectre réel d’un endomorphisme anti-symétrique ?
Justif
Si on voulait le montrer sur les matrices on dire que pour tout i, EiT.A.Ei = Aii = 0 (diagonale d’une matrice symétrique nulle), donc que pour tout X, XT.A.X = 0.
Donc si λ est une valeur propre et X un vecteur propre associé …
(C’est la même chose)
Donner un exemple de matrice antisymétrique n’admettant pas de valeur propre réelle
Que peut-on dire du sprectre réel d’une matrice anti-symétrique ? De son spectre complexe ?
Justif
- SpIR(A) ⊂ {0}
- Spℂ(A) ⊂ i.IR
Définir une matrice de Gram. Pourquoi en parle-t-on ?
Justif
Remarque : M = I pour une BON
Généralise l’expression matricielle du produit scalaire vectoriel à une base non orthonormée :
Permet d’écrire <x|y> = Xt.M.Y, avec X et Y les matrices dans la base (ε1, …, εn)
Montrer qu’une matrice de Gram est inversible
Que peut-on dire lorsqu’on applique Gram-Schmidt à la base canonique des polynômes avec un produit scalaire définit par une intégrale à poids ?
Justif
Ça donne des polynômes scindés à racines simples sur I
<•|•> = 0, car l’autre est combinaison linéaire des (P0, —, Pk) (car vect(P0, —, Pk) = vect(1, —, Kk) = IRk) donc par bilinéarité du produit scalaire
Comment faire Gram-Schmidt en pratique ?
Quelle est la méthode pour calculer la distance d’un vecteur x à un espace F de dimension finie ?
En pratique, on n’a F que de dimension 2, 3 ou 4
Quelle est la seconde méthode, qui peut parfois être plus rapide, pour calculer la distance d’un vecteur x à un espace F de dimension finie, lorsqu’on connait une base orthonormale (ε1 — εf) de F ?
On fait la méthode classique mais on sait que p(x, F) = Σ<x|εi>.εi, ce qui peut permettre de calculer ses coordonnées plus rapidement
Rappeler les critères à vérifier pour être un produit scalaire
- positif + défini positif
- symétrique
- bilinéaire
Rappeler les critères à vérifier pour être une norme
- positif + défini positif
- norme de λ.x = |λ| norme de x
- inégalité triangulaire
Faire un récapitulatif de tout ce qu’il y a à savoir sur les isométries
Savoir :
- définir une isométrie
- qu’une symétrie orthogonale est une isométrie
- qu’une isométrie est bijective
- que l’ensemble des isométries n’est pas un espace vectoriel
- que O(E) désigne l’ensemble des isométries de E
- qu’une composée d’isométries est une isométrie
- que la “propriété d’isométrie” s’étend au produit scalaire de deux vecteurs quelconques
- qu’une isométrie est caractérisée comme un endomorphisme qui transforme toute BON en BON
- que si F est stable par u alors son orthogonal l’est aussi
- caractériser matriciellement une isométrie
- que On(IR) désigne l’ensemble des matrices d’isométries, de taille n et à coefficients réels
- que l’ensemble des matrices d’isométries (On(IR)) est l’ensemble des matrices dont l’inverse est la transposée
- qu’un endomorphisme orthogonal désigne une isométrie
- que le déterminant d’une isométrie vaut +-1
- définir SOn(IR), le groupe spécial orthogonal
- que le spectre d’une isométrie est inclus dans {-1,1}
- qu’une isométrie diagonalisable est soit I, soit -I, soit la matrice d’une symétrie orthogonale
- donner les formes des matrices de O2(IR)
- quelles matrices diagonalisables de O2(IR) sont de déterminant 1 (Id et -Id) et lesquelles sont de déterminant -1 (matrices d’une symétrie orthogonale)
- que de manière générale, les matrices de O2(IR) de déterminant 1 sont des matrices de rotation
Est-ce que la matrice d’une symétrie est une matrice symétrique ?
Non ! Une matrice symétrique est une matrice associée à un endomorphisme symétrique, c’est-à-dire auto-adjoint, qui n’est pas la même chose qu’une symétrie
Parmi les matrices diagonalisables de O2(IR), lesquelles sont de déterminant 1 et lesquelles sont des déterminant -1 ?
Soit A€O2(IR), il existe un endomorphisme u, isométrique et diagonalisable, qui lui est associé.
On a montré que si un endomorphisme isométrique était diagonalisable, c’était soit Id, soit -Id, soit une symétrie orthogonale :
- si le déterminant de la matrice A est 1, elle est In ou - In et u = Id ou u = -Id
- si le déterminant de la matrice A est -1, elle est la matrice d’une isométrie orthogonale (u est une isométrie orthogonale)
Qu’est-ce que l’équivalence entre norme matricielle et vectorielle ?
Justif
Attention ! Il faut bien que (e1, …, en) soit une BON pour le produit scalaire considéré !
Qu’est-ce que l’équivalence entre produit scalaire matriciel et vectoriel ?
Justif
Attention ! Il faut bien que (e1, …, en) soit une BON pour le produit scalaire considéré !
À quoi faut-il faire attention lorsqu’on associe les vecteurs à leurs matrices, qu’on dit que leurs normes sont égales etc… ?
On ne regarde pas les mêmes produits scalaires !!!
Si X est la matrice de x dans la base B, la norme de X selon le produit scalaire de Mn,1(IK) (c’est-à-dire XT.X) vaut la norme de x selon le produit scalaire de IKⁿ (c’est-à-dire la somme de ses coefficients dans la base B). On ne parle pas du même produit scalaire, donc pas de la même norme non plus, avec les deux !
Exprimer ça matriciellement.
Justif
Que peut-on dire des valeurs propres d’une isométrie ?
Justif
Si u est une isométrie, Sp(u) ⊂ {-1,1}
À quoi faut-il faire attention avec la définition du produit scalaire que l’on utilise et le produit scalaire matriciel associé At.A ?
Ce sont des produits scalaires dans IRⁿ, pas dans IKⁿ (donc pas dans ℂⁿ !, on aurait notamment un problème pour le caractère défini positif : une somme nulle des complexes au carré n’implique pas forcément qu’ils soient tous nul, car il n’y a pas de signe dans ℂ, il faut donc avec une somme de modules au carré, que l’on obtient avec le complémentaire).
Si on voulait faire un produit scalaire dans ℂⁿ, il faudrait faire A\t.A, mais ce n’est pas au programme
Que peut-on dire du spectre d’une matrice symétrique réelle ?
Rappeler ce qu’on peut dire des spectres d’une matrice symétrique/antisymétrique réelle.
Commenter
Interprétation géométrique :
- une matrice symétrique représente une transformation qui ne fait pas tourner les vecteurs, elle les étire ou les contracte uniquement dans certaines directions
- une matrice antisymétrique représente une transformation qui ne fait que tourner les vecteurs, elle ne modifie pas leur norme
Quelles sont les méthodes pour montrer qu’une matrice est inversible ?
- son déterminant est non nul
- (son rang vaut la taille de la matrice)
- son noyau est réduit à 0
- pour un cas pratique : utiliser la méthode de Gauss
- montrer que 0 n’est pas valeur propre
- montrer que c’est un produit de matrices inversibles
- cas particuliers pour des formes particulières de matrices (par exemple une matrice triangulaire est inversible ssi tous ses éléments diagonaux sont non nuls)
Comment relier la matrice de Gram et le théorème de Gram-Schmidt ?
Commenter
Cf. démonstration de l’inversibilité d’une matrice de Gram pour la démonstration
Si P est inversible, la multiplication de A par P et son inverse P-1 (P.A.P-1) correspond vectoriellement à un changement de base, à quoi correspond vectoriellement la multiplication de A par P et sa transposée Pt (P.A.Pt) ?
Cela correspond aussi à un changement de base. Alors que la multiplication par P-1 est utile pour les endomorphismes car elle effectue le même changement de base pour l’espace de départ est d’arrivée, la multiplication par Pt est souvent utile pour passer d’un produit scalaire, d’une structure euclidienne à un autre.
Si s est une réflexion par rapport à l’hyperplan a⊥, comment exprimer s(x), pour x€E ?
Que peut-on dire de u(F⊥) si u€O(E) ?
Justif
Égalité des dimensions car u est une isométrie donc u est bijectif, donc u est injecitf sur F⊥donc u est bijectif car le sous espace F ⊥ est de dimension finie.
Donc u(F⊥) et F⊥ sont de même dimension. De même pour F et u(F)
Rappeler les trois caractérisation d’une matrice orthogonale
Qu’est-ce que la décomposition d’Iwasawa ?
Justif
Que peut-on dire d’une matrice réelle trigonalisable ?
Une isométrie est-elle aussi bijective en dimension infinie ?
Justif
Non, elle est seulement injective (cf. la démo en dimension finie)
Par exemple, sur IR[X] muni du produit scalaire qui associe à P et Q la somme infinie des pk.qk, f : P → X.P est une isométrie mais n’est pas surjective
Rappeler la dimension de Sn(IR)
n.(n+1)/2 : n² est le nombre de coefficients, n² - n = n(n-1) est le nombre de coefficient hors diagonale, n(n-1)/2 est le nombre de coefficients dans le triangle supérieur de la matrice (ou triangle inférieur), donc la dimension de An(IR) (on sait que la diagonale est nulle et fixer un triangle fixe l’autre par transposée), si on ajoute finalement la diagonale, on obtient n(n+1)/2
Quelle est la limite d’application du théorème spectral ?
Il n’est vrai que pour les matrices symétriques réelles !
Comment déterminer l’expression d’une borne inférieure (notamment si elle fait intervenir une intégrale) par les produits scalaires ?
On essaye d’exprimer ce qu’il y a à l’intérieur de la borne inférieure comme la norme de : ((un vecteur) - (un autre, ce qui varie dans l’inf)).
Pour cela on introduit un espace général auquel appartient notre vecteur, un sous-espace qui est l’ensemble dans lequel peut varier l’autre, on pose le produit scalaire qui permet d’exprimer ça comme une norme, et on se ramène ainsi à un calcul de distance.
Donner l’expression de la distance d’un vecteur à H, si H est un hyperplan de vecteur normal n, puis le justifier
Comment justifier que le produit scalaire de deux vecteurs colinéaires et le produit de leurs normes ?
C’est le cas d’égalité de Cauchy-Schwarz
Si H est un hyperplan de vecteur normal n, si x€E, x = λ.n + xH, que vaut λ ?
Justif
On veut l’expression d’un coefficient donc on fait scalaire l’élément de la base associé
Qu’est-ce que le théorème de Riesz ?
Démo
E → E*, v → <v|•> est une bijection :
Pour toute forme linéaire φ, il existe un unique v€E tel que φ = <v|•> : on peut exprimer de manière unique toute forme linéaire comme un produit scalaire.
Démo :
E → E*, v → <v|•> est linéaire et injectif (si <v|•> = 0, en particulier <v|v> = 0, donc v = 0), donc est bijectif car dim finie)
À quoi faut-il faire attention si on manipule des inf, des sup, des min et des max ?
Il faut toujours commencer par montrer l’existence
Quels sont les différents type de positionnements possibles entre deux droites dans l’espace ?
Comment montrer que deux droites de IR³ ne sont pas coplanaires ?
On montre qu’elles ne sont ni sécantes ni parallèles
Comment montrer que deux droites ne sont pas parallèles ?
On montre que leurs vecteurs directeurs ne le sont pas : on suppose par l’absurde qu’il le sont
Comment montrer que deux droites ne sont pas sécantes ?
On suppose par l’absurde qu’elles le sont et donc qu’il existe un point telle que toutes les coordonnées selon les deux droites soient égales
Si A est une matrice réelle, que peut-on dire de Ker(AT.A) et Im(A.AT) ?
Justif
- Ker(AT.A) = Ker(A)
- Im(A.AT) = Im(A)
Rappeler la définition de la norme triple
En admettant la décomposition Q.R, montrer l’inégalité de Hadamard pour une matrice inversible
Si ||*|| désigne la norme 1.
U c’est Q
||Ci|| = Σ|<Ci|Uj>|, donc |<Ci|Ui>| ≤ ||Ci||, pas besoin d’utiliser Cauchy-Schwarz
Expliquer comment faire
Montrer que le déterminant de Gram d’une famille orthonormale vaut 1 et que celui d’une famille liée vaut 0
On admet toutes les questions, juste si on cherche concrètement l’adjoint d’une application linéaire, comment faire ?
- On prend x et y dans l’ensemble sur lequel est définie l’application linéaire
- On applique le produit scalaire de l’espace sur lequel est définie l’application linéaire
- On développe tout et on essaye de le remettre sous la forme de <x|…>
Qu’appelle-t-on une forme linéaire représentable ? (HP)
Que dit le théorème de Riesz en termes de représentabilité ?
Que peut-on dire d’une forme linéaire représentable dans un espace préhilbertien réel ?
Justif
Et puisqu’elle est linéaire, elle est donc continue
À quelle condition la notion de projection orthogonale par rapport à un espace F a-t-elle un sens ?
À condition d’avoir F ⊕ F⊥ = E
Que donne Cauchy-Schwarz sur les intégrales ?
De quoi a-t-on en fait besoin pour avoir l’inégalité de Cauchy-Schwarz ?
Il faut juste une application :
- positive
- symétrique
- bilinéaire
Le caractère défini positif ne sert que dans le cas d’égalité
Montrer le théorème de Riesz
Quelle est la conséquence du théorème de Riesz sur une forme linéaire de Mn(IR) ?
Justif
Lorsqu’on a besoin d’un contre-exemple pour des applications sur l’espace des polynômes en dimension infinie, que faut-il d’abord essayer de considérer ?
f : P → X.P
Comment montrer qu’une application linéaire f de E dans F n’est pas continue ?
Il suffit de trouver une suite (xn) d’éléments de E telle que xn tende vers 0 mais f(xn) ne tende pas vers 0 (donc minorée)
Comment s’exprime la distance d’un vecteur x à un hyperplan H de vecteur normal n ?
Justif
Que peut-on dire de u-1 si u est une isométrie ?
Justif
u-1 l’est aussi : on a juste à appliquer ||u(X)|| = ||X|| en X = u-1(x)
Que peut-on dire en termes topologiques de On(IR) ?
Justif
Pour la norme 2
Que représentent les matrices de SO2(IR) et celles de O2\SO2(IR) ?
Quel est le produit scalaire sur les variables aléatoires ?
Justif
Rappeler ce qu’on appelle symétrie, symétrie orthogonale et réflexion
Pour être une isométrie, il faut au moins être une symétrie orthogonale
À quoi faut-il penser si on essaye de faire passer une propriété de la norme au produit scalaire ?
Essayer l’identité de polarité
Rappeler ce qu’on peut dire des spectres de :
- une matrice symétrique réelle
- une matrice symétrique réelle positive
- une matrice symétrique réelle définie positive
- une matrice antisymétrique
Comment montrer que pour toute matrice A de Mn(IR), |tr(A)| ≤ √(n) × √(tr(AT.A)) ?
Cauchy-Schwarz appliqué à In et A
Comment montrer que le spectre d’une matrice symétrique réelle est réel ? que le spectre d’une matrice anti-symétrique réelle est imaginaire pur ?
- prendre une matrice M dans l’ensemble des matrice symétriques (ou anti-symétriques)
- traduire λ€Sp(M) avec un vecteur propre
- multiplier à gauche par X\T pour faire apparaitre un produit scalaire Hermitien à droite
- regrouper à gauche comme une transposée
- conjuguer pour faire ré apparaitre du M.X (car M\ = M puisque M est réelle)
- en déduire que λ = λ\ ou λ = - λ\
Que peut-on dire de particulier pour le noyau et l’image d’une matrice anti-symétrique réelle ?
Justif
On a Ker(A) ⊕⊥ Im(A) = E !
- on montre facilement que Ker(A) ⊂ Im(A)⊥
- on montre l’égalité par égalité de dimensions (théorème du rang à A + dim(Im(A)) + dim(Im(A)⊥) = n)
Que peut-on dire de particulier pour le noyau et l’image d’une matrice symétrique réelle ?
Justif
On a Ker(A) ⊕⊥ Im(A) = E !
Cf. démo pour anti-symétrique
Que peut-on dire de particulier pour le noyau et l’image d’un endomorphisme auto-adjoint ?
Justif
On a Ker(A) ⊕⊥ Im(A) = E !
(C’est la traduction en endomorphisme de la propriété pour les matrices symétriques)
Que peut-on dire de particulier pour le noyau et l’image d’un endomorphisme antisymétrique ?
Justif
On a Ker(A) ⊕⊥ Im(A) = E !
(C’est la traduction en endomorphisme de la propriété pour les matrices antisymétriques)
Comment «accéder» au valeurs propres d’une matrice M si elle est sous la forme M = P.D.P-1 ?
Puisque P est inversible, il existe X tel que P-1.X = (1 0 … 0) (c’est d’ailleurs P.(1 0 … 0)). En multipliant à gauche par Xt et à droite par X, on ne garde que λ1 à droite, qui vaut donc Xt.M.X. On accède ainsi à λ1.
On peut faire pareil pour toutes.
Que peut-on dire de sup(<u(x)|x>) avec ||x|| = 1 si u est auto-adjoint ?
Comment le montrer ?
(sup(<Mx|x>) pour M symétrique)
C’est la plus grande des valeurs propre.
Pour le montrer :
- on montre qu’il lui est inférieur, comme dans le cours
- on montre qu’il est atteint en décomposant M selon le théorème spectrale et en «accédant» à la valeur propre maximale
Comment faire ?
On dit que M = P.D.P-1 d’après le théorème spectrale et on prend pour vi les colonnes de P. On montre que ça marche.
Comment déterminer les valeurs propres d’une matrice symétrique 2x2 réelle (λ h h μ) quelconque ?
On prend les discriminant du polynôme caractéristique et on en déduit les racines
À quoi doit-on penser directement si on voit une somme de valeurs propres ?
Essayer de prendre la trace de la matrice !
À quoi doit-on penser directement si on voit une somme de valeurs propres ?
Essayer de prendre le déterminant de la matrice !
Quel est le lien entre <Mx|x> et les valeurs propres de M ?
Si λ est une valeur propre de M, on prend un vecteur propre de M associé à λ, de norme 1 et : <Mx|x> = λ.
<Mx|x> peut renvoyer chaque valeur propre en prenant un bon vecteur.
Si A est une matrice, comment exprimer a11 par un produit scalaire ?
a11 = <Ae1 | e1>, comme on pourrait faire pour n’importe quel élément de la matrice
Que veut dire en particulier cette propriété ?
En particulier, pour tout i, car ||e1|| = 1, on peut écrire l’encadrement pour sii = <Sei|ei>, donc tous les éléments diagonaux sont compris entre les valeurs propres