Espace Euclidien Flashcards
Définir un produit scalaire
Donner un exemple de produit scalaire sur :
- IRn
- Mn,1(IR)
- Mn(IR)
- C0([a,b],IR)
- IR[X]
Montrer la convergence
Et faire avant le cas : P=0 ou Q=0, car dans ce cas on ne peut pas faire l’équivalent.
Alors on a juste l’intégrale qui converge et vaut 0
Montrer le caractère défini positif de ce produit scalaire sur IR[X]
Première implication : car P²(t)e-t ≥ 0, donc l’intégrale jusqu’à A est supérieure à 0 et inférieur à l’intégrale jusqu’à +∞
Comment définir une norme à partir d’un produit scalaire ?
Justif
Pour le 3 : on regarde ||x+y||² puis on utilise Cauchy-Schwarz
Rappeler Cauchy-Schwarz
Justif
Cas d’égalité : x et y colinéaires
Car égalité ⇔ Δ = 0 ⇔ ∃λ, ||x + λy||=0 ⇔ ∃λ, x + λ.y = 0 ⇔ ∃λ’, x = λ’.y (def de x et y colinéaires)
Qu’est-ce que l’identité de polarité ?
Quelle est la conséquence ?
Donc, si on connait la norme on peut remonter au produit scalaire (si celle-ci est une norme préhilbertienne)
Définir deux vecteurs orthogonaux
Définir l’orthogonal d’un espace
Qu’est-ce que le théorème de Pythagore ?
On veut juste trouver une fonction qui appartient à F, qui est positive et ne s’annule qu’en 0, pour avoir f.g qui appartient toujours à F (car g ne peut pas diverger en 0, puisque continue), donc f.g² = 0 en tout point, donc g = 0 en tout point sauf 0, donc g = 0 en tout point par continuité. On peut prendre f : x → x par exemple.
Refaire comme ça, ça sera beaucoup plus simple
Qu’est-ce que le théorème de Gram-Schmidt ?
Montrer que les polynômes de Tchebychev définissent une famille orthonormée sur ce produit scalaire et l’exhiber
Montrer que les polynômes de Legendre définissent une famille orthonormée sur ce produit scalaire et l’exhiber
∫<-1 → 1>*
Qu’est-ce que le théorème de la projection ?
- la distance à un espace de dimension finie n’est pas un inf mais un min (donc il existe un point qui vérifie cette distance minimale)
- le point qui est à ce minimum de distance de F est unique : il existe un point «le plus proche» de F
Qu’appelle-t-on un espace euclidien ? un espace préhilbertien ?
Un espace euclidien est un IR-ev de dimension finie muni d’un produit scalaire.
Un espace préhilbertien est un IR ou ℂ espace vectoriel (de dimension quelconque) muni d’un produit scalaire.
Qu’est-ce que la généralisation du théorème de Pythagore ?
Que peut-on dire de F et F⊥ ?
Ils sont toujours en somme directe, et ils sont supplémentaires en dimension finie
Comment montrer que deux vecteurs sont égaux grace à un produit scalaire ?
Justif
Car x-y orthogonal à tout vecteur
En dimension finie, montrer que F ⊕ F⊥ = E et exprimer le projeté orthogonal de x sur F
Qu’est-ce que le théorème de la base orthonormée incomplète ?
Toute famille (e1, …, en) orthonormée peut être complétée en une base orthonormée de E : il suffit de la compléter par une base de F⊥, où F = Vect(e1, …, en) (car F ⊕ F⊥ en dimension finie)
Donner l’expression des coordonnées d’un vecteur et du produit scalaire de deux vecteurs à partir d’une base orthonormée.
Justif
Pour montrer l’expression de x :
- x s’exprime comme la somme des xi × ei, car les ei sont une base
- soit j€[|1,n|], <x|ej> = …, on exprime x avec ses coordonnées, on utilise la bilinéarité et le fait que les ei forment une base orthonormée
Pour montrer l’expression du produit scalaire :
- on remplace x et y par la forme expliquée juste avant
- on utilise la bilinéarité du produit scalaire, sa symétrie et le fait que les ei forment une base orthonormée
Comment caractériser F⊥ en dimension finie ?
C’est le seul supplémentaire de F orthogonal à F (appelée le supplémentaire orthogonal)
Définir la projection orthogonale sur F, donner son expression en fonction d’une base de F puis en fonction d’une base de F⊥.
Car F et F⊥ sont supplémentaires en dimension finie
de p+1 à n la deuxième somme*
Exprimer le projeté de x sur une droite vectorielle D = a.IR, puis sur un de ses hyperplans
Parce que ça fait <x|a>/IIaII² × a = <x|u> × u, avec u = a/IIaII : u est un vecteur directeur unitaire de D
Exprimer x€E selon une base orthonormée de E
Définir une isométrie
Remontrer que Ker(s + Id) ⊕ Ker(s - Id) = E, si s est une symétrie
Définir une symétrie orthogonale
Qu’est-ce qu’une symétrie orthogonale a de particulier ?
Justif
Définir une réflexion
C’est une symétrie orthogonale telle que Ker(s - Id) est un hyperplan
Que peut-on dire d’une isométrie ?
Justif
C’est donc un type de bijection particulier, adapté aux espaces euclidien
L’ensemble des isométries est-il un espace vectoriel ?
Justif
L’ensemble des isométries n’est pas un espace vectoriel : 3.u n’est pas une isométrie
Comment note-t-on l’ensemble des isométries ?
Que peut-on dire de la composée d’isométries ?
Justif
Quel est le lien entre isométrie et produit scalaire ?
Justif
Quel est le lien entre isométrie et bases ?
Justif
C’est un cas particulier de bijection «adaptée» à l’espace euclidien
Quel est le lien entre isométrie et espace orthogonal ?
Justif
Caractériser les isométries diagonalisables dans IR.
Justif
Les seules isométries diagonalisables dans IR sont les symétries orthogonales
Caractériser matriciellement une isométrie.
Justif
C’est juste parce que le produit scalaire sur les vecteurs (somme des produits des coordonnées) est le même que le produit scalaire sur les matrices qui les représentent (At•B), donc dire que (A1, …, An) est une BON de Mn,1(IK) revient à dire que (u(e1), …, u(en)) est une BON de E.
Qu’appelle-t-on On(IR) ?
Comment caractériser On(IR) ?
Justif
Écrire en termes ensemblistes la caractérisation des matrices de On(IR) par leur inverse
Qu’appelle-t-on un «endomorphisme orthogonal» ?
Endomorphisme orthogonal = isométrie
Que peut-on dire du déterminant d’une matrice orthogonale ?
Justif
Soit A€On(IR),
At × A = Id ⇒ det(A)² = 1
Donc det(A) = +-1
Définir le groupe spécial orthogonal.
Comment l’appelle-t-on ?
Définir une base orthonormée directe/indirecte
Donc base directe ssi sa matrice dans une BON est une matrice de rotation
Caractériser les matrices de O2(IR) puis justifier
Savoir donner :
- les formes
- les formes en fonction du déterminant associé
(a et b appartiennent à [-1,1], sinon on ne pourrait pas avoir l’égalité, et cos est surjective sur [-1,1], donc il existe θ et φ tels que …)
Que peut-on dire des matrices de O2(IR) diagonalisables et de déterminant 1 ?
Justif
Connaissant déjà la forme générale des matrices de O2(IR) de déterminant 1
Que peut-on dire des matrices de O2(IR) diagonalisables et de déterminant -1 ?
Justif
Connaissant déjà la forme générale des matrices de O2(IR) de déterminant -1
Attention : -Id est de déterminant 1, car il y a deux lignes donc on multiplie deux fois par -
Au vu de leur forme, comment qualifier les matrices O2(IR) de déterminant 1 ?
Justif
Ce sont des rotations d’angle θ
Définir un endomorphisme auto-adjoint
Caractériser matriciellement les endomorphismes auto-adjoints
Justif
Pour le sens retour : on peut juste dire que <u(x)|y> = (A.X)t*Y
= Xt.At.Y
= Xt.A.Y, car A est symétrique
= <x|u(y)>
À quoi revient cette question ?
⇔ existe-t-il un produit scalaire tel que la matrice soit symétrique ?
Qu’appelle-t-on un «endomorphisme symétrique» ?
Endomorphise auto-adjoint = symétrique
Qu’est-ce que le théorème spectral pour les endomorphismes ? Pour les matrices ?
Le fait qu’une matrice symétrique n’admet que des valeurs propres réelles n’est pas une conséquence du théorème spectral mais une étape de sa démonstration
Définir une matrice symétrique positive et une matrice définie positive.
Qu’est-ce que ça signifie ?
Ça veut dire que, si on appelle u l’endomorphisme associé à A, <u(x)|x> (=(S.X)t.X = Xt.St.X = Xt.S.X ≥ 0) est positif et donc que dès qu’on applique u ou A à x ou X, Ça pointe dans le même sens que le vecteur x ou X initial.
Comment caractériser les matrices symétriques positives et celles strictement positives ?
Justif
Quel encadrement donnent les valeurs propres d’un endomorphisme auto-adjoint ?
Justif
Directement :
- on veut regarder <u(x)|x> donc on le fait
- on veut faire intervenir les valeurs propres et u est auto-adjoint :
- réflexe pour un auto-adjoint, surtout pour faire intervenir les valeurs propres : M =P.D.Pt
- du coup on traduit matriciellement <u(x)|x>
Qu’appelle-t-on la décomposition O.S de GLn(IR) ?
Justifier l’existence de cette décomposition
Ot.O = In plutôt
On peut partir de la synthèse pour trouver l’idée : on veut ça, donc on veut étudier At.A et on veut que ça fasse S², donc on regarde At.A et on sait que si ça s’exprime comme S², avec S€Sn++(IR) c’est gagné.
C’est plus logique
Monter que l’inverse d’une matrice symétrique (inversible) est symétrique
Définir un endomorphisme anti-symétrique
Caractériser matriciellement un endomorphisme anti-symétrique
Justif
Pour un endomorphisme anti-symétrique, quelle est la propriété équivalente à la propriété matricielle suivante : «la diagonale d’une matrice anti-symétrique est nulle» ?
Justif
Que peut-on dire du spectre réel d’un endomorphisme anti-symétrique ?
Justif
Donner un exemple de matrice antisymétrique n’admettant pas de valeur propre réelle
Que peut-on dire du sprectre réel d’une matrice anti-symétrique ? De son spectre complexe ?
Justif
Définir une matrice de Gram
Remarque : M = I pour une BON
Généralise l’expression matricielle du produit scalaire vectoriel à une base non orthonormée :
Permet d’écrire <x|y> = Xt.M.Y, avec X et Y les matrices dans la base (ε1, …, εn)
Montrer qu’une matrice de Gram est symétrique inversible
Que peut-on dire lorsqu’on applique Gram-Schmidt à la base canonique des polynômes avec un produit scalaire définit par une intégrale à poids ?
Justif
Ça donne des polynômes scindés à racines simples sur I
Comment faire Gram-Schmidt en pratique ?
Quelle est la méthode pour calculer la distance d’un vecteur x à un espace F de dimension finie ?
En pratique, on n’a F que de dimension 2, 3 ou 4
Quelle est la seconde méthode, qui peut parfois être plus rapide, pour calculer la distance d’un vecteur x à un espace F de dimension finie, lorsqu’on connait une base orthonormale (ε1 — εf) de F ?
On fait la méthode classique mais on sait que p(x, F) = Σ<x|εi>.εi, ce qui peut permettre de calculer ses coordonnées plus rapidement
Rappeler les critères à vérifier pour être un produit scalaire
- positif + défini positif
- symétrique
- bilinéaire
Rappeler les critères à vérifier pour être une norme
- positif + défini positif
- norme de λ.x = |λ| norme de x
- inégalité triangulaire
Faire un récapitulatif de tout ce qu’il y a à savoir sur les isométries
Savoir :
- définir une isométrie
- qu’une symétrie orthogonale est une isométrie
- qu’une isométrie est bijective
- que l’ensemble des isométries n’est pas un espace vectoriel
- que O(E) désigne l’ensemble des isométries de E
- qu’une composée d’isométries est une isométrie
- que la “propriété d’isométrie” s’étend au produit scalaire de deux vecteurs quelconques
- qu’une isométrie est caractérisée comme un endomorphisme qui transforme toute BON en BON
- que si F est stable par u alors son orthogonal l’est aussi
- caractériser matriciellement une isométrie
- que On(IR) désigne l’ensemble des matrices d’isométries, de taille n et à coefficients réels
- que l’ensemble des matrices d’isométries (On(IR)) est l’ensemble des matrices dont l’inverse est la transposée
- qu’un endomorphisme orthogonal désigne une isométrie
- que le déterminant d’une isométrie vaut +-1
- définir SOn(IR), le groupe spécial orthogonal
- que le spectre d’une isométrie est inclus dans {-1,1}
- qu’une isométrie diagonalisable est soit I, soit -I, soit la matrice d’une symétrie orthogonale
- donner les formes des matrices de O2(IR)
- quelles matrices diagonalisables de O2(IR) sont de déterminant 1 (Id et -Id) et lesquelles sont de déterminant -1 (matrices d’une symétrie orthogonale)
- que de manière générale, les matrices de O2(IR) de déterminant 1 sont des matrices de rotation
Est-ce que la matrice d’une symétrie est une matrice symétrique ?
Non ! Une matrice symétrique est une matrice associée à un endomorphisme symétrique, c’est-à-dire auto-adjoint, qui n’est pas la même chose qu’une symétrie
Parmi les matrices diagonalisables de O2(IR), lesquelles sont de déterminant 1 et lesquelles sont des déterminant -1 ?
Soit A€O2(IR), il existe un endomorphisme u, isométrique et diagonalisable, qui lui est associé.
On a montré que si un endomorphisme isométrique était diagonalisable, c’était soit Id, soit -Id, soit une symétrie orthogonale :
- si le déterminant de la matrice A est 1, elle est In ou - In et u = Id ou u = -Id
- si le déterminant de la matrice A est -1, elle est la matrice d’une isométrie orthogonale (u est une isométrie orthogonale)
Qu’est-ce que l’équivalence entre norme matricielle et vectorielle ?
Justif
Qu’est-ce que l’équivalence entre produit scalaire matriciel et vectoriel ?
Justif
À quoi faut-il faire attention lorsqu’on associe les vecteurs à leurs matrices, qu’on dit que leurs normes sont égales etc… ?
On ne regarde pas les mêmes produits scalaires !!!
Si X est la matrice de x dans la base B, la norme de X selon le produit scalaire de Mn,1(IK) (c’est-à-dire XT.X) vaut la norme de x selon le produit scalaire de IKⁿ (c’est-à-dire la somme de ses coefficients dans la base B). On ne parle pas du même produit scalaire, donc pas de la même norme non plus, avec les deux !
Exprimer ça matriciellement.
Justif
Que peut-on dire des valeurs propres d’une isométrie ?
Si u est une isométrie, Sp(u) ⊂ {-1,1}
À quoi faut-il faire attention avec la définition du produit scalaire que l’on utilise et le produit scalaire matriciel associé At.A ?
Ce sont des produits scalaires dans IRⁿ, pas dans IKⁿ (donc pas dans ℂⁿ !, on aurait notamment un problème pour le caractère défini positif : une somme nulle des complexes au carré n’implique pas forcément qu’ils soient tous nul, car il n’y a pas de signe dans ℂ, il faut donc avec une somme de modules au carré, que l’on obtient avec le complémentaire).
Si on voulait faire un produit scalaire dans ℂⁿ, il faudrait faire At\.A, mais ce n’est pas au programme
Que peut-on dire du spectre d’une matrice symétrique ?
Rappeler ce qu’on peut dire des spectres d’une matrice symétrique/antisymétrique.
Commenter
Interprétation géométrique :
- une matrice symétrique représente une transformation qui ne fait pas tourner les vecteurs, elle les étire ou les contracte uniquement dans certaines directions
- une matrice antisymétrique représente une transformation qui ne fait que tourner les vecteurs, elle ne modifie pas leur norme
Quelles sont les méthodes pour montrer qu’une matrice est inversible ?
- son déterminant est non nul
- (son rang vaut la taille de la matrice)
- son noyau est réduit à 0
- pour un cas pratique : utiliser la méthode de Gauss
- montrer que 0 n’est pas valeur propre
- montrer que c’est un produit de matrices inversibles
- cas particuliers pour des formes particulières de matrices (par exemple une matrice triangulaire est inversible ssi tous ses éléments diagonaux sont non nuls)
Comment relier la matrice de Gram et le théorème de Gram-Schmidt ?
Commenter
Cf. démonstration de l’inversibilité d’une matrice de Gram pour la démonstration
Si P est inversible, la multiplication de A par P et son inverse P-1 (P.A.P-1) correspond vectoriellement à un changement de base, à quoi correspond vectoriellement la multiplication de A par P et sa transposée Pt (P.A.Pt) ?
Cela correspond aussi à un changement de base. Alors que la multiplication par P-1 est utile pour les endomorphismes car elle effectue le même changement de base pour l’espace de départ est d’arrivée, la multiplication par Pt est souvent utile pour passer d’un produit scalaire, d’une structure euclidienne à un autre.
Si s est une symétrie orthogonale par rapport à l’hyperplan a⊥, comment exprimer s(x), pour x€E ?
Comment définir une réflexion orthogonale à partir de deux vecteurs ?
Que peut-on dire de u(F⊥) si u€O(E) (u est une isométrie) )
Rappeler les trois caractérisation d’une matrice orthogonale
Comment caractériser matriciellement une base orthonormée ?
Corolaire : la matrice de passage d’une BON dans une autre est une matrice orthogonale
Qu’est-ce que la décomposition d’Iwasawa ?
Justif
Qu’est-ce que l’inégalité de Hadamard ?
Justif
Que peut-on dire d’une matrice réelle trigonalisable ?
Une isométrie est-elle aussi bijective en dimension infinie ?
Justif
Non, elle est seulement injective (cf. la démo en dimension finie)
Par exemple, sur IR[X] muni du produit scalaire qui associe à P et Q la somme infinie des pk.qk, f : P → X.P n’est pas surjective
Rappeler la dimension de Sn(IR)
n.(n+1)/2 : n² est le nombre de coefficients, n² - n = n(n-1) est le nombre de coefficient hors diagonale, n(n-1)/2 est le nombre de coefficients dans le triangle supérieur de la matrice (ou triangle inférieur), donc la dimension de An(IR) (on sait que la diagonale est nulle et fixer un triangle fixe l’autre par transposée), si on ajoute finalement la diagonale, on obtient n(n+1)/2
Quelle est la limite d’application du théorème spectral ?
Il n’est vrai que pour les matrices symétriques réelles !