Applicazioni lineari Flashcards

1
Q

Def applicazione lineare

A

Siano V e W due spazi vettoriali su K.
Sia L: V->W una mappa (legge) che associa a ogni v di V uno e un solo w di W.
Si dice che L è un’applicazione lineare se:
1) L è additiva:
L(v+u) = L(v)+L(u) per ogni v, u di V
2) L è omogenea:
L(tv) = tL(v)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Def applicazione lineare associata ad una matrice

A

Sia A una matrice m, n su K.
Sia LA : K^n->K^m definita da LA(x) = Ax.
LA è un’applicazione lineare.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Condizione necessaria e sufficiente per essere applicazione lineare

A

L: V->W spazi vettoriali su K
è un’applicazione lineare se e solo se
V t,s di K , Vv, u di V, si ha
L(tv+su) = tL(v) + sL(u).

Inoltre, se L: V->W è applicazione lineare, allora
L(0v) = 0w

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Def fibra di un’applicazione lineare

A

Data L: V->W
La fibra di L sopra w di W è l’insieme
L^-1 (w) = { v di V : L(v) = w }

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Def nucleo di un’applicazione lineare

A

La fibra di L sopra 0w si chiama nucleo di L e si indica con Ker(L)
Ker(L) = { v di V : L(v) = 0w }

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Nucleo di un’applicazione lineare è sottospazio vettoriale di V

A

Data l’applicazione lineare L: V->W

Ker (L) è sottospazio vettoriale di V

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Le fibre di L sono descritte come v0 + Ker(L)

A
Sia L: V->W 
e sia v0 app V 
tale che v0 app L^-1 (w).
Allora 
L^-1(w) = { v app V : v = v0 + vh con vh app Ker (L) }
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Def immagine di L

A

Data L: V->W
Si chiama immagine di L e si indica con Im(L) il sottoinsieme di W formato dai vettori w di W che sono immagine di vettori di V:
Im(L) = { w app W : esiste v app V tale che L(v) = w }

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Immagine di L è sottospazio vettoriale di W

A

Data L: V->W
Im(L) è sottospazio vettoriale di W

Più in generale, se U è sottospazio vettoriale di V, detta L(U) l’immagine dei vettori u di U tramite L,
L(U) è sottospazio vettoriale di W.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

def applicazione lineare iniettiva

A

Data L: V->W
Si dice che L è iniettiva se
V v1, v2 di V con v1 != v2,
L(v1) != L(v2)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

def applicazione lineare suriettiva

A

Data L: V->W

Si dice che L è suriettiva se per ogni w di W esiste v di v tale che w = L(v)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Condizioni di iniettività e suriettività

A
L: V->W
L è iniettiva se e solo se 
Ker(L) = {0v}
L è suriettiva se e solo se 
Im(L) = W
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Applicazione lineare biiettiva

A

L si dice biiettiva se è iniettiva e suriettiva.

Si dice anche che L è un isomorfismo

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Un’applicazione lineare è caratterizzata dalle immagini dei vettori di una base

A
Dati V, W spazi vettoriali su K
dim V = n
Sia {v1, ... , vn} una base di V.
Siano w1, ... , wn app W.
Allora esiste unica l'applicazione lineare L tale che L(v1) = w1, ... , L(vn) = wn.
L è data da 
L(x1v1 + ... + xnvn) = x1w1 + ... + xnwn
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Definizione insieme delle applicazioni lineari tra V e W

A
Dati V e W spazi vettoriali su K
si definisce 
Hom K (V,W) = {L: V->W } 
l'insieme delle applicazioni lineari tra V e W.
Hom K (V, W) insieme alle operazioni che si possono definire +, * , è spazio vettoriale su K.
Si definisce 
(L1+L2)(v) = L1(v)+L2(v)
e
(tL)(v) = tL(v)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Composizione di applicazioni lineari

A
Dati V, W, Z spazi vettoriali su K
L: V->W
L': W->Z
si definisce L' ° L : V->Z tale che
(L' ° L)(v) = L'(L(v))

Se L e L’ sono applicazioni lineari, allora L’ ° L è applicazione lineare

17
Q

def applicazione lineare inversa

A

L’ è inversa di L e si scrive L’ = L^-1 se
L ° L^-1 = Iw
e
L^-1 ° L = Iv

dove Iv è l’applicazione lineare identica
Iv: V->V : Iv(v) = v

18
Q

Condizione di invertibilità

A

L è invertibile se e solo se è biiettiva;

L è invertibile se e solo se è un isomorfismo

19
Q

Def isomorfismo

A

Trasformazione lineare biiettiva

20
Q

Ogni spazio vettoriale di dimensione n è isomorfo a Kn

A

Dato V spazio vettoriale su K di dimensione finita = n
V è isomorfo a Kn

Si può passare da V a Kn e viceversa mediante un’applicazione lineare invertibile: la mappa delle coordinate e la mappa di parametrizzazione

21
Q

Teorema di rappresentazione

A

Sia L: V->W una applicazione lineare.
Siano B={v1, .. , vn} una base di V e C={w1, … , wm} una base di W.
Siano x il vettore delle coordinate di v app V e y il vettore delle coordinate di w=L(v) rispetto alle basi B, C.
Allora esiste unica la matrice A su K (m, n) tale che y=Ax.
Si dice che A è la matrice rappresentativa di L rispetto alle basi B e C.

22
Q

Lo spazio vettoriale Hom K(V,W) è isomorfo a M K(m,n)

A
Dati V e W spazi vettoriali su K, 
dim V = n 
dim W = m
B e C basi fissate di V e W
L'insieme delle applicazioni lineari su K da V in W è isomorfo all'insieme delle matrici su K con m righe e n colonne.
Hom K (V, W) isomorfo M K (m, n)
23
Q

Cambiamento di base e matrice associata

A

Sia V uno spazio vettoriale su K
B={v1, … , vn} e B’={b1, .. , bn} siano due basi di V.
Siano x, x’ le coordinate di v app V rispetto a B e B’ e sia P la matrice di passaggio.
Allora
x = P x’
P è invertibile e
x’ = P^-1 x

24
Q

Matrice di passaggio

A

Dato V spazio vettoriale su K
B={v1, … , vn} e B’={b1, … , bn} due basi di V.
La matrice di passaggio P ha per i-esima colonna il vettore delle coordinate di bi rispetto alla base B.

bi = [v1, … , vn] [P1i, … , Pni]T

In questo modo
[b1, … , bn] = [v1, … , vn] P

25
Q

Formula di cambiamento della matrice rappresentativa

A

Sia L: V->W un’applicazione lineare
Siano B, B’ basi di V, con matrice di passaggio P
Siano C, C’ basi di W, con matrice di passaggio T
Sia A la matrice rappresentativa di L nelle basi B, C
Sia A’ la matrice rappresentativa di L nelle basi B’, C’
Allora:
A’ = T^-1 A P

26
Q

Teorema di nullità più rango per le matrici

A

Sia A una matrice con n colonne.
Allora
dim Ker (A) + r(A) = n

27
Q

Teorema di nullità più rango per le applicazioni lineari

A

Sia L: V->W un’applicazione lineare e sia dim V finita.
Allora
dim Ker(L) + dim (ImL) = dim V

28
Q

Condizioni di iniettività, suriettività, isomorfismo rispetto al rango per un’applicazione lineare

A

Sia L: V->W un’applicazione lineare e sia dimV=n, dimW=m
a) L è iniettiva se e solo se
r(L) = n
b) L è suriettiva se e solo se
r(L) = m
c) L è isomorfismo se e solo se r(L) = n = m

29
Q

Def autovalore e autovettore di un’applicazione lineare

A

Data L: V->V applicazione lineare
Un vettore v di V, v!=0 si dice autovettore di L se esiste λ app K tale che
L(v) = λ v.

λ è univocamente determinato e si dice autovalore di L relativo all’autovettore v app V.

30
Q

Def autovettore e autovalore di una matrice

A

Sia A una matrice quadrata (n, n) su campo K=R, C.
Un vettore x app K^n, x!=0 si dice autovettore di A se esiste λ app K tale che Ax=λx.
λ si dice autovalore di A relativo all’autovettore x.

31
Q

Def autospazio di una matrice

A

Autospazio di una matrice A su K (n, n) relativo all’autovettore λ :
Vλ = {v di K^n : (A-λI) v = 0 } =
{ v di K^n : Av = λv }

Cioè è formato dagli autovettori relativi a λ e 0