Orthogonalité Flashcards
Introduction: Motivation: les systèmes géodésique nord-américain et navigation GPS
Un réseau de 260000 points de référence très précisément localisés sur le territoire et de référence et couvrant l’ensemble du continent nord-américain ainsi que le Groenland, Hawaii, les îles Vierges, Porto Rico et diverses autres
îles des CaraÏbes.
La solution d’équations du NAD admettait non pas une solution au sens usuel, mais une solution au sens des moindres carrés, qui attribuait des coordonnées aux points de référence de fa ̧con qu’elles correspondent au mieux aux 1, 8 millions d’observations. La solution au sens de moindres carrés fut calculée en 1986 par la résolution d’un système dit d’équations normales, qui comporte 928735 équations et 928735 inconnues
La connaissance de points de référence au sol est devenue également cruciale pour déterminer avec précision l’emplacement des satellites du système GPS (Global Positionning System).
Produit scalaire 6.1
Définition:
On considère deux vecteurs u et v de Rn. Le nombre u^Tv est appelé produit scalaire de u et v
Théorème 1:
Soit u, v et w des vecteurs de Rn et c un scalaire.
Alors:
u·v=v·u
(u + v) · w = u · w + v · w
(cu)·v = c(u·v) = u·(cv)
u · u > ou = 0 et u · u = 0 si et seulement si u = 0
Longueur d’un vecteur 6.1
Soit V un espace vectoriel muni d’un produit scalaire. alors, Pour un vecteur u, ||u||= u12 +u2^2 +···+un^2 est la longueur de vecteur u.
Remarque:
Pour tout scalaire c, la longueur de cv est égale à |c| fois celle de v. ||cv|| = |c|||v||
Définition:
Soit V un espace vectoriel muni d’un produit scalaire. alors,
1. u et v sont orthogonaux si u·v = 0.
- ||u||^2=u·u.
- u est unitaire si ||u||^2 =u·u=1.
- l’ensemble {u1,u2,··· ,uk} est orthogonal si ui · uj = 0, pour tout i#j.
- si {u1,u2,··· ,uk} est orthogonal et si ui · ui = 1, pour tout i = 1,··· ,k, alors
l’ensemble est dit orthonormal. - si l’ensemble orthonormal {u1 , u2 , · · · , uk } est une base, alors cette base est orthonormale.
Distance dans R^n
Définition:
Soit u et v. On appelle distance entre u et v, et l’on note dist(u,v), la longueur du vecteur u v, c’est- à-dire le réel
dist(u, v) = ||u - v||
Théorème:
Deux vecteurs u et v de R^n sont orthogonaux si et seulement si
||u + v||^2 = ||u||^2 + ||v||^2
u et v perpendiculaire
cela nous fait penser à pythagore
Orthogonal d’un sous- espace vectoriel
Soit V un espace vectoriel muni d’un produit scalaire et soit U un sous-espace vectoriel de V .
Le sous-ensemble {w E V |u * w =0 pour tout u E U} est dit l’orthogonal de U et est noté U^|?.
Théorème:
L’ensemble U^| est un sous-espace vectoriel de V.
Exemple: on trouve les colonne libre, w= ker(A)
Remarque:
1) w E U^|
<=> w est orthogonal à tous les vecteurs d’une base de U.
2) dimU + dimU^|= dim V
3) Toute base de U^| complète orthogonalement toute base de U pour en faire une base de V . Mais la base de V qui en résulte n’est pas nécéssairement orthogonale! Pourquoi? car on ne sait pas si l’interface de chaque sous- famille c’est perpendiculaire (|)
Orthogonalité des orthogonalité des quatre sous-espaces
Si A est une matrice de taille m x n et de rang r alors:
Lgn A = Im A^T est l’espace des lignes, engendré par les lignes de A, et
dim(Lgn A) = r. C’est un sous-espace de Rn
Ker A est le noyau de A, engendré par les solutions de l’ équation Ax = 0 et dim(Ker A) = n - r. C’est un sous-espace de R^n
Im A est l’espace des colonnes, engendré par les colonnes de A et dim(Im A) = r. C’est un sous-espace de R^m.
KerA^T est le noyau gauche de A et dim(kerAT)=m - r.C’est un sous- espace de R^m.
Théorème:
Pour toute matrice A de taille m x n, on a:
1) dim(ImA^T) + dim(KerA) = n lignes et colonnes, Lign A perpendiculaire à KerA
2) dim(ImA) + dim(KerA^T)= m colonnes et lignes, colonne de A (ImA) perpendiculaire à KerA
Théorème 2:
Soit A une matrice m x n. L’ortogonal de l’espace vectoriel engendré par les lignes de A est égal au noyau de A.
(Lgn A)^| = Ker A
L’ortogonal de l’espace engendré par les colonnes (l’image) de A est égal au noyau de A^T .
(Im A)^| = Ker A^T
Angles dans R^2 et dans R^3
Les vecteurs v et w, qui sont à angle téta, on a cette formule:
v.w = ||v|| ||w||cos(téta)
6.2 Familles orthogonales
Théorème:
Toute famille orthogonale de vecteurs non nuls de Rn est libre, donc est une base de l’espace qu’elle engendre.
Définition:
On appelle base orthogonale d’un sous-espace W toute base de W qui est en même temps une famille orthogonale.
Théorème:
soit {u1,u2,··· ,up} une base orthogonale d’un sous-espace W de R^n. Pour tout y de W , les coe fficients de la combinaison linéaire
y=c1u1 +c2u2 +···+cpup sont donnés par la relation
cj = y·uj/ uj ·uj
j=1,···,p
Projection orthogonale
Soit y et u deux vecteurs de R^n. On s’intéresse au problème de décomposition d’un vecteur y de R^n en deux vecteurs l’un colinéaire et l’autre orthogonal à u.
y = ^y + z
ou ˆy est appelé projeté ou (projection) orthogonal(e) de y sur u
ˆy = projD y = y · u /u · u u
D est la droite vectorielle engendr ́ee par le vecteur u.
Familles orthonormées
Définition:
On dit qu’une famille {u1,u2,··· ,up} est orthonormée ou orthonormale si c’est une famille orthogonale de vecteurs unitaires.
Théorème:
Les colonnes d’une matrice U de type m x n sont orthonormées si et seulement si U^T*U = I.
Théorème:
Soit U une matrice mx n dont les colonnes sont orthonormées, et x et y deux vecteurs de Rn.
Alors
1) ||Ux|| = ||x||
2) (Ux)·(Uy)=x·y
3) Ux)·(Uy)=0 si et seulement si x·y=0
Définition:
On appelle matrice orthogonale toute matrice carrée inversible U telle U^- 1 =U^T
Remarque:
Toute matrice carrée dont les colonnes sont orthonormées est une matrice orthogonale
Projection orthogonale sur un sous espace vectoriel section 6.3
Théorème:
Soit W un sous-espace vectoriel de Rn et ayant une base orthogonale B = {u1,u2,··· ,up}.
Tout vecteur y de Rn s’écrit de facon unique sous la forme
y = ^y + z oû ˆy E W et z E W ?
Alors
^y=( y* ui/ ui* ui) *ui
ui*ui= 1
z= y- ^y
Ce vecteur est unique quelle que soit la base orthogonale choisie.
Projection orthogonale sur un sous espace vectoriel section 6.3
Théorème:
Si {u1,u2,··· ,up} est une base orthonormée d’un sous-espace vectoriel W de R^n, alors
y = ˆy + z oû ˆy E W e t z E W^| .
projw y=(y·u1)u1 +(y·u2)u2 +···+(y·up)up
Si U = [u1,u2,··· ,up], alors
projw y=UU^Ty
pour tout y vecteur de Rn
Motivation section 6.4 Procédé de Gram- Schmidt
Cette méthode permet de construire une base orthogonale à partir d’une base quelconque d’un sous-espace vectoriel W .
Le procédé agit par récurrence : il s’applique à une suite de sous-espace vectoriel emboité selon un ordre donné des vecteurs d’une base de W .
Théorème:
Soit B = (x1,x2,··· ,xp) une base d’un sous-espace vectoriel non nul W de Rn. À cette base correspond une base orthogonale B’= (v1,v2,··· ,vp), base perpendiculaire
1) v1= x1
2) v2= x2 - (x2v1/v1v1)*v1
3) v3= x3- (x3v1/v1v1)v1- (x3v2/v2v2)v2
.
.
.
4) vp= xp- (xpvp-1/vp-1vp-1)*vp-1-p
De plus, Vect{v1,··· ,vp} = Vect{x1,··· ,xp} pour 1< ou = k < ou = p
Exemple
Factorisation QR
Théorème:
Soit A une matrice m x n dont les colonnes sont linéairement indépendantes. Alors il existe une factorisation du type A = QR, oû Q est une matrice m x n dont les colonnes forment une base orthonormée de Im A, et R une matrice triangulaire supérieure inversible n x n à coe fficients diagonaux strictement positifs.
Exemple
Motivation section 6.5 Méthode des moindres carrés
1) L’exemple du GPS présentait un problème se ramenant à une équation du type Ax = b, de très grand taille et n’admettant pas de solution.
2) Il est possible de ne pas trouver de solution pour Ax = b. Il y a plus d’équations que d’inconnues.
3) L’élimination donne une équation impossible. Lorsque Ax = b n’a pas de solution (matrice A n’est pas inversible).
4) Il faut dans ce cas considérer Ax comme une approximation de b.
5) Plus la distance entre b et Ax est petite meilleure est l’approximation.
6) La méthode des moindres carrés consiste à trouver le x tel que la ||b-Ax|| soit aussi petit que possible.
La résolution à moindre carrés revient à résoudre (toujours une solution)
Définition:
Soit A une matrice m x n et b un vecteur de R^m. On appelle solution au sens des moindres carrés ou pseudo-solution de l’équation Ax = b un vecteur ˆx de R^n tel que pour tout vecteur x de R^n
||b- A*ˆx|| < ou = ||b -Ax||
^x est réelle