Applicazioni lineari Flashcards
Che cos’è un’applicazione lineare tra spazi vettoriali?
Un’applicazione lineare tra due spazi vettoriali V e W, definiti rispettivamente dominio e codominio, è una funzione T: V→W che associa a ogni elemento di V uno e un solo elemento di W.
‘Lineare’ significa che soddisfa
- additività: per ogni v_1,v_2 in V, T(v_1+v_2)=T(v_1)+T(v_2)
- omogeneità: per ogni v in V, T(cv)=cT(v); da cui segue che T(0)=0 (“manda lo zero del dominio nello zero del codominio”) poiché, per ogni v in V, T(0)=T(0v)=0T(v)=0.
In altre parole, un’applicazione è lineare se e solo se rispetta le combinazioni lineari, cioè se e solo se T(c1v1+…+ckvk)=c1T(v1)+…+ckT(vk).
Che cos’è un endomorfismo?
Un’applicazione lineare T: V→V in sé, cioè in cui dominio e codominio coincidono.
La sua proprietà fondamentale è che è iniettivo se e solo se è suriettivo. (Si vede dal teorema delle dimensioni)
Che cosa sono nucleo e immagine di un’applicazione lineare?
Il nucleo di un’applicazione lineare è l’insieme dei vettori del dominio che l’applicazione manda nel vettore nullo.
Ker f=f^(-1)(0)={v in V | f(v)=0}
È un sottoinsieme del dominio e un sottospazio vettoriale.
È definito solo per le applicazioni lineari, poiché è una conseguenza dell’omogeneità.
L’immagine di un’applicazione lineare è l’insieme delle immagini degli elementi del dominio mediante l’applicazione.
Im f={w in W | esiste v in V per cui f(v)=w}
È un sottoinsieme del codominio e uno spazio vettoriale.
È definita anche per le applicazioni non lineari.
Quando un’applicazione si dice iniettiva?
Un’applicazione si dice iniettiva quando ogni elemento del codominio è immagine di al più un elemento del dominio.
per ogni b in B, f(a)=b per al più un a in A
Quando un’applicazione si dice suriettiva?
Un’applicazione si dice suriettiva quando ogni elemento del codominio è immagine di almeno un elemento del dominio.
per ogni b in B, f(a)=b per almeno un a in A
Quando un’applicazione si dice biiettiva?
Un’applicazione si dice biiettiva quando ogni elemento del codominio è immagine di esattamente un elemento del dominio.
per ogni b in B, f(a)=b per uno e un solo a in A
→ condizione di invertibilità di una funzione, poiché si può risalire alla provenienza di un’immagine
Enuncia e dimostra che l’iniettività di un’applicazione equivale al suo nucleo essere zero
Un’applicazione f è iniettiva se e solo se il suo nucleo è composto da solo elemento nullo.
Dimostrazione:
i) f iniettiva → Ker f={0}
sicuramente lo 0 appartiene al nucleo di f per la sua linearità.
sappiamo che per ogni v in Ker f, f(v)=0 e che f(0)=0. Ma per ipotesi f è iniettiva, e ciò è rispettato solo se v=0.
ii) Ker f={0} → f iniettiva
bisogna dimostrare che per ogni v, v’ in Rn, f(v)=f(v’)→v=v’
f(v)=f(v’)=0, poiché il nucleo è zero per ipotesi, cioè f(v)-f(v’)=0, ovvero per la linearità di f f(v-v’)=0. Ma il nucleo è zero per ipotesi, quindi v-v’ deve essere uguale a 0, cioè v=v’.
Dimostrare che esiste ed è unica un’applicazione lineare definita mediante immagini di vettori
Siano V e W spazi vettoriali su K, sia {v1,…,vn} una base di V e siano w1,…,wn vettori qualsiasi di W.
Allora esiste un’unica applicazione lineare T:V→W tale che f(vj)=wj per j=1,…,n.
Dimostrazione:
-Esistenza
1. Poiché {v1,…,vn} è una base di V, possiamo prendere due vettori qualunque v, v’ di V e scriverli come combinazioni lineari dei vettori della base: v=a1v1+…+anvn e v’=a1’v1+…+an’vn.
2. Ora dimostriamo che l’applicazione sia lineare.
Additività: v+v’=(a1+a1’)v1+…+(an+an’)vn e T(v+v’)=(a1+a1’)w1+…+(an+an’)wn=(a1w1+…+anwn)+(a1’w1+…+an’wn)=T(v)+T(v’)
Omogeneità: cv=ca1v1+…+canvn e T(cv)=ca1w1+…+canwn=c(a1w1+…+anwn)=cT(v)
-Unicità
1. Supponiamo che S:V→W sia un’altra applicazione lineare tale che S(vj)=wj per j=1,…,n. Dobbiamo dimostrare che S(v)=T(v) per ogni v in V.
2. Prendiamo un vettore v di V e scriviamolo come combinazione lineare degli elementi della base di V: v=a1v1+…+anvn.
3. S(v)=S(a1v1+…+anvn)=a1S(v1)+…+anS(vn)=a1w1+…+an*wn=T(v).
Enuncia e dimostra il teorema della dimensione (o di nullità più rango)
Sia f:V→W un’applicazione lineare. Allora dimV=dim(Ker f)+dim(Im f).
Dimostrazione (vd. foglio):
Per il Teorema del completamento, si può considerare una base di Ker f {v1,…,vk} e completarla a una base di V {v1,…,vk,v_(k+1),…,vn}. Da ciò, dim(Ker f)=k e dimV=n.
Se il Teorema è vero, dim(Im f)=n-k.
Poiché Im f è un sottospazio vettoriale del codominio, e non del dominio, i suoi elementi sono della forma f(v), con v in V. E, poiché il nucleo è l’insieme dei vettori che l’applicazione manda nel vettore nullo, si può scrivere che f(v1)=…=f(vk)=0. Quindi, una base di Im f può contenere solo le immagini degli altri vettori della base di V, cioè f(v_(k+1)),…,f(vn).
Quindi bisogna dimostrare che {f(v_(k+1)),…,f(vn)} è una base di Im f, quindi che i vettori siano generatori di Im f e linearmente indipendenti.
- Generatori: deve essere vero che per ogni w in Im f, esistono c_(k+1),…,cn : w=sum_(j=k+1)^n cjf(vj).
1. w in Im f, cioè w=f(v), e v in V, cioè v=sum_(j=1)^n cjvj.
2. Applichiamo la funzione f a entrambi i membri di quest’ultima uguaglianza: f(v)=f(sum_(j=1)^n cjvj). Il secondo membro, per la linearità, può essere riscritto come sum_(j=1)^n cjf(vj).
3. Separiamo la sommatoria: f(v)=sum_(j=1)^k cjf(vj)+sum_(j=k+1)^n cjf(vj).
4. Poiché v1,…,vk in Ker f, f(v1),…,f(vk)=0, quindi la sommatoria è nulla e quindi l’uguaglianza si può riscrivere così: f(v)=sum_(j=k+1)^n cjf(vj), cioè w=sum_(j=k+1)^n cjf(vj).
- Linearmente indipendenti: deve essere vero che sum_(j=k+1)^n cjf(vj)=0→c_(k+1)=…=cn=0.
1. sum_(j=k+1)^n cjf(vj)=f(sum_(j=k+1)^n cjvj)
2. l’ultima sommatoria esprime un vettore v di V, e quindi l’uguaglianza dell’ipotesi può essere riscritta come f(v)=0, che significa che v in Ker f. Cioè v può essere scritto anche come v=sum_(j=1)^k cjvj.
3. Quindi le due sommatorie sono uguali: sum_(j=k+1)^n cjf(vj)=sum_(j=1)^k cjvj → sum_(j=1)^k cjvj-sum_(j=k+1)^n cjf(vj)=0.
4. Le due sommatorie descrivono una combinazione lineare degli elementi della base di V, che quindi sono linearmente indipendenti. Ossia, sum_(j=1)^k cjvj-sum_(j=k+1)^n cjf(vj)=0 → c1=…=ck=c_(k+1)=…=cn=0.
5. Poiché c_(k+1)=…=cn=0, i vettori f(v_(k+1)),…,f(vn) sono linearmente indipendenti e, perciò, costituiscono una base di Im f.
Enunciare e dimostrare linearità di somma, prodotto per scalare e composizione di applicazioni lineari
Somma: (f+g)(v)=f(v)+g(v)
è lineare, infatti
- (f+g)(v+w)=(f+g)(v)+(f+g)(w)
- (f+g)(cv)=c(f+g)(v)
Prodotto per scalare: (cf)(v)=cf(v)
è lineare, infatti
- (cf)(v+w)=(cf)(v)+(cf)(w)
- (cf)(dv)=d(c*f)(v)
Composizione: (fog)(v)=f(g(v))
è lineare, infatti
- (fog)(v+w)=(fog)(v)+(fog)(w):
(fog)(v+w)=f(g(v+w))=f(g(v)+g(w))=f(g(v))+f(g(w))=(fog)(v)+(fog)(w)
- (fog)(cv)=c(fog)(v):
(fog)(cv)=f(g(cv))=f(cg(v))=cf(g(v))=c*(fog)(v)
Definisci matrice associata ad applicazione lineare rispetto a date basi ed enuncia formule di costruzione e utilizzo
Siano V e W spazi vettoriali su K con dimV=n e dimW=m e basi rispettivamente B e C, e sia T:V→W un’applicazione lineare.
La matrice associata a T rispetto alle basi B del dominio e C del codominio è la matrice mxn tale che f(v_C)=_Cf_B*v_B, cioè la matrice che ha per colonne le coordinate delle immagini dei vettori del dominio espressi nella base C del codominio.
Enuncia e dimostra relazioni tra operazioni tra applicazioni lineari e corrispondenti operazioni tra matrici
Sia A una matrice e f_A l’applicazione lineare a essa associata. Allora la relazione tra applicazione e matrice si può scrivere come f_A(v)=A*v.
L’applicazione della somma tra matrici è uguale alla somma delle applicazioni: per ogni A,B matrici f_(A+B)=f_A+f_B.
Infatti, f_(A+B)(v)=(A+B)v=Av+B*v=(f_A+f_B)(v).
L’applicazione del prodotto di una matrice per uno scalare è uguale al prodotto dell’applicazione per lo scalare: per ogni A matrice, c scalare reale f_(cA)=cf_A.
Infatti, f_(cA)(v)=(cA)v=c(Av)=c(f_A)(v).
L’applicazione del prodotto righe per colonne di due matrici è uguale alla composizione delle applicazioni: f_(AB)=f_A o f_B.
Infatti, f_(AB)(v)=(AB)v=A(Bv), ma A(Bv)=f_A(Bv) e Bv=f__B(v), quindi A(Bv)=f_A(f_B(v))=(f_Aof_B)(v).
Che cos’è una matrice di cambio di base? Enuncia le sue proprietà
Sia V uno spazio vettoriale su K con basi B e C.
La matrice di cambio di base è la matrice quadrata (dato che B e C hanno uguale cardinalità) e invertibile che trasforma i vettori della vecchia base B nei vettori della nuova base C, cioè le coordinate rispetto alla base C nelle coordinate rispetto a B [N.B.: i vettori vanno in un verso, le coordinate nel verso opposto]. La matrice ha per colonne le coordinate dei vettori della nuova base rispetto alla vecchia.
In altre parole, la matrice di cambio di base è la matrice associata alla funzione identità su V id:V→V rispetto alle basi B nel dominio e C nel codominio, cioè tale che un vettore v di V con coordinate espresse rispetto a B venga mandato in se stesso con una base diversa.
Formula
Da f(v_C)=_Cf_Bv_B si determina id(v_C)=_Cid_Bv_B.
Proprietà
- quadrata
- invertibile: (_Cid_B)^-1=_Bid_C
- non singolare
Qual è la formula di cambio di base per una matrice associata a un’applicazione lineare?
Siano V e W spazi vettoriali con basi rispettivamente B e B’, C e C’. Si consideri l’applicazione composta V→(id)V→(f)W→(id)W con basi B’, B, C e C’, cioè id_W o f o id_V=idW(f(idV)).
La matrice associata rispetto alle basi di partenza B’ e di arrivo C’ sarà _C’(id_W o f o id_V)_B’=_C’id_C_Cf_B_Bid_B’.
L’applicazione composta può essere sostituita da f(v), poiché al di là dei passi intermedi v→(id)v→(f)f(v)→(id)f(v).
Quindi la formula per passare dalla matrice rispetto alle basi B e C alla matrice rispetto alle basi B’ e C’ è _C’f_B’=_C’id_C_Cf_B_Bid_B’.
Enuncia la relazione tra matrici ortogonali e basi ortonormali
Una matrice è ortogonale se e solo se le colonne (e le righe) della matrice formano una base ortonormale di Rn.
Dimostrazione
Una matrice A=((v1)…(vn)) si dice ortogonale se la sua inversa è uguale alla sua trasposta: A^-1=tA. Infatti, AtA=tAA=In.
- A ortogonale → colonne formano base ortonormale di Rn:
tAA=(v1v1 … v1vn
… … …
vnv1 … vnvn) deve essere la matrice identità. Cioè v1v1=v2v2=…=vnvn=1 e vivj!=0 se i!=j, ossia le condizioni di una base ortonormale.
- colonne base ortonormale → A ortogonale:
se le colonne formano una base ortonormale, significa che la loro matrice associata è la matrice identità. Cioè (v1v1 … v1vn
… … …
vnv1 … vnvn) = (1…0
0…1).
Riscrivendo la prima matrice come prodotto righe per colonne tAA, si trova che tA*A=In, cioè A è ortogonale.