Orthogonalité Flashcards

1
Q

Introduction: Motivation: les systèmes géodésique nord-américain et navigation GPS

A

Un réseau de 260000 points de référence très précisément localisés sur le territoire et de référence et couvrant l’ensemble du continent nord-américain ainsi que le Groenland, Hawaii, les îles Vierges, Porto Rico et diverses autres
îles des CaraÏbes.

La solution d’équations du NAD admettait non pas une solution au sens usuel, mais une solution au sens des moindres carrés, qui attribuait des coordonnées aux points de référence de fa ̧con qu’elles correspondent au mieux aux 1, 8 millions d’observations. La solution au sens de moindres carrés fut calculée en 1986 par la résolution d’un système dit d’équations normales, qui comporte 928735 équations et 928735 inconnues
La connaissance de points de référence au sol est devenue également cruciale pour déterminer avec précision l’emplacement des satellites du système GPS (Global Positionning System).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Produit scalaire 6.1

A

Définition:

On considère deux vecteurs u et v de Rn. Le nombre u^Tv est appelé produit scalaire de u et v

Théorème 1:

Soit u, v et w des vecteurs de Rn et c un scalaire.

Alors:

u·v=v·u
(u + v) · w = u · w + v · w
(cu)·v = c(u·v) = u·(cv)
u · u > ou = 0 et u · u = 0 si et seulement si u = 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Longueur d’un vecteur 6.1

A

Soit V un espace vectoriel muni d’un produit scalaire. alors, Pour un vecteur u, ||u||= u12 +u2^2 +···+un^2 est la longueur de vecteur u.

Remarque:

Pour tout scalaire c, la longueur de cv est égale à |c| fois celle de v. ||cv|| = |c|||v||

Définition:

Soit V un espace vectoriel muni d’un produit scalaire. alors,
1. u et v sont orthogonaux si u·v = 0.

  1. ||u||^2=u·u.
  2. u est unitaire si ||u||^2 =u·u=1.
  3. l’ensemble {u1,u2,··· ,uk} est orthogonal si ui · uj = 0, pour tout i#j.
  4. si {u1,u2,··· ,uk} est orthogonal et si ui · ui = 1, pour tout i = 1,··· ,k, alors
    l’ensemble est dit orthonormal.
  5. si l’ensemble orthonormal {u1 , u2 , · · · , uk } est une base, alors cette base est orthonormale.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Distance dans R^n

A

Définition:

Soit u et v. On appelle distance entre u et v, et l’on note dist(u,v), la longueur du vecteur u v, c’est- à-dire le réel
dist(u, v) = ||u - v||

Théorème:

Deux vecteurs u et v de R^n sont orthogonaux si et seulement si

||u + v||^2 = ||u||^2 + ||v||^2

u et v perpendiculaire

cela nous fait penser à pythagore

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Orthogonal d’un sous- espace vectoriel

A

Soit V un espace vectoriel muni d’un produit scalaire et soit U un sous-espace vectoriel de V .
Le sous-ensemble {w E V |u * w =0 pour tout u E U} est dit l’orthogonal de U et est noté U^|?.

Théorème:

L’ensemble U^| est un sous-espace vectoriel de V.

Exemple: on trouve les colonne libre, w= ker(A)

Remarque:

1) w E U^|
<=> w est orthogonal à tous les vecteurs d’une base de U.

2) dimU + dimU^|= dim V

3) Toute base de U^| complète orthogonalement toute base de U pour en faire une base de V . Mais la base de V qui en résulte n’est pas nécéssairement orthogonale! Pourquoi? car on ne sait pas si l’interface de chaque sous- famille c’est perpendiculaire (|)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Orthogonalité des orthogonalité des quatre sous-espaces

A

Si A est une matrice de taille m x n et de rang r alors:

Lgn A = Im A^T est l’espace des lignes, engendré par les lignes de A, et
dim(Lgn A) = r. C’est un sous-espace de Rn

Ker A est le noyau de A, engendré par les solutions de l’ équation Ax = 0 et dim(Ker A) = n - r. C’est un sous-espace de R^n

Im A est l’espace des colonnes, engendré par les colonnes de A et dim(Im A) = r. C’est un sous-espace de R^m.

KerA^T est le noyau gauche de A et dim(kerAT)=m - r.C’est un sous- espace de R^m.

Théorème:

Pour toute matrice A de taille m x n, on a:

1) dim(ImA^T) + dim(KerA) = n lignes et colonnes, Lign A perpendiculaire à KerA

2) dim(ImA) + dim(KerA^T)= m colonnes et lignes, colonne de A (ImA) perpendiculaire à KerA

Théorème 2:

Soit A une matrice m x n. L’ortogonal de l’espace vectoriel engendré par les lignes de A est égal au noyau de A.
(Lgn A)^| = Ker A

L’ortogonal de l’espace engendré par les colonnes (l’image) de A est égal au noyau de A^T .
(Im A)^| = Ker A^T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Angles dans R^2 et dans R^3

A

Les vecteurs v et w, qui sont à angle téta, on a cette formule:
v.w = ||v|| ||w||cos(téta)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

6.2 Familles orthogonales

A

Théorème:

Toute famille orthogonale de vecteurs non nuls de Rn est libre, donc est une base de l’espace qu’elle engendre.

Définition:

On appelle base orthogonale d’un sous-espace W toute base de W qui est en même temps une famille orthogonale.

Théorème:

soit {u1,u2,··· ,up} une base orthogonale d’un sous-espace W de R^n. Pour tout y de W , les coe fficients de la combinaison linéaire
y=c1u1 +c2u2 +···+cpup sont donnés par la relation
cj = y·uj/ uj ·uj
j=1,···,p

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Projection orthogonale

A

Soit y et u deux vecteurs de R^n. On s’intéresse au problème de décomposition d’un vecteur y de R^n en deux vecteurs l’un colinéaire et l’autre orthogonal à u.
y = ^y + z
ou ˆy est appelé projeté ou (projection) orthogonal(e) de y sur u
ˆy = projD y = y · u /u · u u
D est la droite vectorielle engendr ́ee par le vecteur u.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Familles orthonormées

A

Définition:

On dit qu’une famille {u1,u2,··· ,up} est orthonormée ou orthonormale si c’est une famille orthogonale de vecteurs unitaires.

Théorème:

Les colonnes d’une matrice U de type m x n sont orthonormées si et seulement si U^T*U = I.

Théorème:

Soit U une matrice mx n dont les colonnes sont orthonormées, et x et y deux vecteurs de Rn.
Alors
1) ||Ux|| = ||x||

2) (Ux)·(Uy)=x·y

3) Ux)·(Uy)=0 si et seulement si x·y=0

Définition:

On appelle matrice orthogonale toute matrice carrée inversible U telle U^- 1 =U^T

Remarque:

Toute matrice carrée dont les colonnes sont orthonormées est une matrice orthogonale

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Projection orthogonale sur un sous espace vectoriel section 6.3

A

Théorème:

Soit W un sous-espace vectoriel de Rn et ayant une base orthogonale B = {u1,u2,··· ,up}.
Tout vecteur y de Rn s’écrit de facon unique sous la forme
y = ^y + z oû ˆy E W et z E W ?

Alors

^y=( y* ui/ ui* ui) *ui

ui*ui= 1

z= y- ^y

Ce vecteur est unique quelle que soit la base orthogonale choisie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Projection orthogonale sur un sous espace vectoriel section 6.3

A

Théorème:

Si {u1,u2,··· ,up} est une base orthonormée d’un sous-espace vectoriel W de R^n, alors

y = ˆy + z oû ˆy E W e t z E W^| .

projw y=(y·u1)u1 +(y·u2)u2 +···+(y·up)up

Si U = [u1,u2,··· ,up], alors

projw y=UU^Ty

pour tout y vecteur de Rn

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Motivation section 6.4 Procédé de Gram- Schmidt

A

Cette méthode permet de construire une base orthogonale à partir d’une base quelconque d’un sous-espace vectoriel W .

Le procédé agit par récurrence : il s’applique à une suite de sous-espace vectoriel emboité selon un ordre donné des vecteurs d’une base de W .

Théorème:

Soit B = (x1,x2,··· ,xp) une base d’un sous-espace vectoriel non nul W de Rn. À cette base correspond une base orthogonale B’= (v1,v2,··· ,vp), base perpendiculaire

1) v1= x1

2) v2= x2 - (x2v1/v1v1)*v1

3) v3= x3- (x3v1/v1v1)v1- (x3v2/v2v2)v2

.
.
.

4) vp= xp- (xpvp-1/vp-1vp-1)*vp-1-p

De plus, Vect{v1,··· ,vp} = Vect{x1,··· ,xp} pour 1< ou = k < ou = p

Exemple

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Factorisation QR

A

Théorème:

Soit A une matrice m x n dont les colonnes sont linéairement indépendantes. Alors il existe une factorisation du type A = QR, oû Q est une matrice m x n dont les colonnes forment une base orthonormée de Im A, et R une matrice triangulaire supérieure inversible n x n à coe fficients diagonaux strictement positifs.

Exemple

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Motivation section 6.5 Méthode des moindres carrés

A

1) L’exemple du GPS présentait un problème se ramenant à une équation du type Ax = b, de très grand taille et n’admettant pas de solution.

2) Il est possible de ne pas trouver de solution pour Ax = b. Il y a plus d’équations que d’inconnues.

3) L’élimination donne une équation impossible. Lorsque Ax = b n’a pas de solution (matrice A n’est pas inversible).

4) Il faut dans ce cas considérer Ax comme une approximation de b.

5) Plus la distance entre b et Ax est petite meilleure est l’approximation.

6) La méthode des moindres carrés consiste à trouver le x tel que la ||b-Ax|| soit aussi petit que possible.

La résolution à moindre carrés revient à résoudre (toujours une solution)

Définition:

Soit A une matrice m x n et b un vecteur de R^m. On appelle solution au sens des moindres carrés ou pseudo-solution de l’équation Ax = b un vecteur ˆx de R^n tel que pour tout vecteur x de R^n
||b- A*ˆx|| < ou = ||b -Ax||

^x est réelle

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Détermination de la solution au sens des moindres carrés

A
  • On applique bˆ = projIm Ab alors il existe ˆx tel que A*ˆx = bˆ
  • b - bˆ est orthogonal à Im A donc b-Aˆx est orthognal à chaque colonne
    de A.
  • Alors aj^T ( b - A*ˆx ) = 0
  • A^T ( b - A*ˆx ) = 0

A^TA^x=A^Tb = le nouveau système à résoudre

Théorème:

L’ensemble des solutions au sens de moindres carrés de l’équation Ax = b est égal à l’ensemble non vide des solutions du système d’équations normales A^TAx = A^Tb

Exemple

17
Q

Théorème section 6.5 Méthode des moindres carrés

A

Théorème 1:

Soit A une matrice m x n. Les propositions suivantes sont équivalentes:
1) Pour tout vecteur b de R^m, l’équation Ax = b admet une solution unique au sens des moindres carrés.

2) Les colonnes de A sont linéairement indépendantes.

3) La matrice A^T A est inversible.

Dans le cas oû ces propositions sont vérifiées, la solution au sens des moindres carrés ˆx est donnée par

ˆx = (A^T A) ^-1A^T b

18
Q

Autres méthodes de calcul de la solution au sens des moindres carrés

A

On peut déterminer une solution au sens des moindres carrés de l’équation Ax = b dans le cas oû les colonnes de A sont orthogonales.

Exemple

Théorème:

Soit A une matrice m x n dont les colonnes sont linéairement indépendantes, et A = QR une factorisation QR de A. Alors, pour tout vecteur b de R^m, l’équation Ax = b admet une solution unique au sens des moindres carrés, donnée par la formule
ˆx = R^-1 Q^T b
D