Calcolo differenziale per funzioni in più variabili Flashcards
Definisci la norma 1, la norma euclidea, la norma p e la norma ad infinito
pg 62
Quando due norme si dicono equivalenti? Discuti il caso di R^n
Quando inducono la stessa topologia, in R^n tutte le norme sono equivalenti pg 63
Definisci il limite di una funzione f:R^n–>R e di una funzione f:R^n–>R^m
- il limite per x appartenente ad R^n che tende a p (appartenente a R^n) esiste se per ogni epsilon>0 esiste un delta che dipende da epsilon tc se la norma euclidea (o qualsiasi altra norma, perché?) di x-p è minore di delta, il modulo di f(x)-l è minore di epsilon
- Simile a quello sopra, ma non è il modulo, ma la norma di f(x)-l a dover essere minore di epsilon
pg 64
Definisci la convergenza per coordinate e paragonala alla definizione di limite in più variabili
Convergenza per coordinate e nozione di limite sono concetti identici in quanto in R^n le norme sono equivalenti. Nella convergenza per coordinate si richiede che ogni coordinata di f(x) tenda alla rispettiva coordinata di l (quindi che la loro differenza in modulo sia minore di epsilon) pg 64
è sufficiente controllare il limite per x che tende a p solo sulle rette passanti per p? Esempio
No, perchè potrei avere una funzione =0 in tutti i punti tranne che ad esempio su y=x^2 - pg 65
Cosa si intende per limiti all’infinito?
si intende che la norma di x tenda ad infinito pg 65
Qual è la disuguaglianza di Cauchy-Schwarz
pg 68 - Il prodotto scalare tra i vettori x e y è minore o uguale al prodotto delle norme euclidee di x e y
Definizione di spazio vettoriale
pg 67, Uno spazio vettoriale è costituito da un insieme V di vettori e da un insieme S di scalari, è dotato di due operazioni. V è gruppo abeliano per una delle due operazioni (valgono commutatività, associatività, esiste l’elemento neutro e esiste l’opposto), per l’altra valgono altre proprietà (vedi foglio)
Definizione di applicazione lineare
è un’applicazione per cui valgono A(x+y)=A(x)+A(y) e A(lx)=lA(x), con l scalare pg 69
Definizione di continuità in più variabili. Come si può riesprimere questo concetto usando il concetto di limite per coordinate?
Non cambia la definizione rispetto lla continuità di funzioni in una variabile, quindi (f:R^m–>R^n) per ogni epsilon maggiore di 0 esiste un delta dipendente da epsilon tc se ||x-p||<delta ==> ||f(x)-f(p)||<epsilon.
Per quanto riguarda le coordinate, f è continua se ogni fj è continua j=1,…,n. Rivisto in chiave più grafica, le proiezioni di f sugli assi devono essere continue (anzi Lipschitz-continue)
pg 70
Definizione di derivate direzionali
Per f:Omega aperto, sottoinsieme o uguale di R^n—>R, Dv(f)=limite per t–>0 di [f(a+tv)-f(a)]/t, con a punto in omega e v versore
pg 71
Definizione di derivate parziali
Ponendo ej=(0,0,..,1,…,0) vettore fondamentale della base canonica di omega,
Per f:Omega aperto, sottoinsieme o uguale di R^n—>R,
df(a)/dxj= lim per t–>0 di [f(a1,..,aj+t,…,an)-f(a)]/t è la derivata parziale di f rispetto a xj. Con x=(x1,…,xj,….,xn) e a punto in omega
pg 72
Definizione di gradiente
Grad(f)=(df/dx1,…,df/dxn)
Per f:Omega aperto sottoinsieme di R^n—>R^m, l’esistenza delle derivate direzionali implica la continuità?? Esempio
NO!! vedi pg 73
Definizione di differenziabilità per f:omega aperto sottoinisieme di R^n—>R^m. Cosa cambia rispetto alle funzioni in una variabile? Se m=1, come cambia la definizione?
f è differenziabile in a appartenente a omega, se esiste L applicazione lineare tc f(a+h)-f(a)=Lh+o(||h||), h vettore, il cui modulo tende a 0. Se m=1, L=lambda, lambda vettore appartenente a R^n (Perchè L:R^n—>R) e avrò f(a+h)-f(a)=<lambda,h>+o(||h||). pg 74
Condizioni necessarie per la differenziabilità, con dimostrazione.
- f è derivabile in a (lungo ogni direzione) e vale Dvf(a)=Lv=<lambda,v>
- lambda=grad(f(a)) se f:omega aperto in R^n–>R, se f:omega aperto in R^n —>R^m, m diverso da 1 L=J[f(a)]
- f è continua in a
dim: - uso la definizione di differenziabilità e sostituisco f(a+tv) nella definizione di derivabilità direzionale, uso la linearità di L per fare uscire t e trovo Lv (=<lambda,v>)
- Se df/dxj= Lv, pongo v=ej e ho che <lambda,ej>=lambdaj, quindi lambda=(lambda1,…,lambdan)=(df/dx1,…,df/dxn)=grad(f)
- Applico la norma alla definizione di differenziabilità, uso la disuguaglianza di Cauchy-Schwartz, faccio tendere h a 0 e trovo che la norma di f(a+h)-f(a) tende a 0
pg 75
Definisci il concetto di Gateaux differenziabilità e di Frechet differenziabilità.
La Gateaux differenziabilità è un’implicazione della Frechet differenziabilità. La Frechet differenziabilità è la normale definizione di differenziabilità, quindi deve esistere L applicazione lineare tc f(a+h)-f(a)=Lh+o(||h||). Per quanto riguarda la Gateaux differenziabilità, si ha in un punto a di una funzione che soddisfa le 3 condizioni necessarie della Frechet differenziabilità, cioè derivabilità (con relativa formula) e continuità in a e che lambda sia il gradiente della funzione. Chiaramente la gateaux differenziabilità NON implica la Frechet differenziabilità.
pg 76
Dimostra che utilizzando il gradiente si può ottenere la direzione di massima pendenza in un punto di una funzione. Come si identifica invece la direzione di minima pendenza di una funzione in a?
v=grad[f(a)]/||grad[f(a)]|| è il versore che indica la massima pendenza di f in un punto. Per dimostrarlo basta usare la formula della derivabilità della Gateaux differenziabilità. Quindi la derivata direzionale è prodotto scalare di v per il gradiente di f in a. Si ottiene come risultato la norma del gradiente. Adesso basta dimostrare che per un generico versore w, la pendenza lungo quella direzione è sempre minore o uguale di quella inidividuata da w. Quindi uso di nuovo la formula sopra applicando il modulo da ambo i lati, con w e il gradiente; applico la disuguaglianza di CS, ricordando che la norma di w è 1 e ho la tesi.
La minima pendenza è invece individuata dagli insiemi di livello, cioè f^-1(c)={(x,y) appartenenti al dominio omega tc f(x,y)=c}
pg 76 77
Qual è la formula per trovare la retta tangente in un punto di una funzione f? Definisci l’iperpiano tangente alla funzione in un punto.
Per una funzione in una variabile, la retta tangente ad (a,f(a)) è y=f(a)+f’(a)(x-a).
L’iperpiano tangente ad (a=(a1,…,an),f(a)) è definito da z=f(a)+<grad[f(a)],(x-a)], con x=(x1,….xn)
pg 79
Enunciato e dimostrazione del TDT, dimostrazione della versione rilassata
pg 87-88
Conseguenza del TDT sulle funzioni polinomiali e la composizione di funzioni polinomiale con altre funzioni C’. Esempio
pg 89
Essendo le funzioni polinomiali di classe C’, sono differenziabili, inoltre lo sarà anche la loro composizione con altre funzioni di classe C’. Esempio: sia P(x) un polinomio, allora sin(P(x)) sarà differenziabile anch’essa.
Definizione di Jacobiana
Matrice dove i gradienti di f1,…fn sono messi uno sopra l’altro
pg 91
Teorema di composizione di funzioni differenziabili, con dimostrazione
Composizione di funzioni differenziabili è differenziabile. La jacobiana della composizione è il prodotto matriciale della jacobiana delle due funzioni di partenza phi=g(f(x)).
Uso la definizione di differenziabilità su tutte e tre le funzioni e chiamo l’incremento di f, h vettore; quello di g, k vettore e pongo k=f(a+h)-f(a). Esplicito phi(a+h)-phi(a)=g(f(a+h))-g(f(a))=g(k+f(a))-g(f(a)). A questo punto applico la definizione di diff e trovo g(k+f(a))-g(f(a))=Jg(f(a))k+o(||k||)=Jg(f(a))[f(a+h)-f(a)]+||k||o(1)=Jg(f(a))Jf(a)+Jg(f(a))o(||h||)+(Jf(a)+o(||h||)o(1). A questo punto noto che phi(a+h)-phi(a)=Jphi(a)+o(||h||) e ho finito
pg 92
Definisci la chain rule
dphij/dxk=sommatoria da s=1 a m di dgj/dys*dfs/dxk phi=g(f(x)) x=(x1,…,xn) e m dimensione della base dello spazio di arrivo di f (R^m)
pg 93
Definisci un omeomorfismo
Due spazi si dicono omeomorfi se esiste un’applicazione f continua e biunivoca tc f^-1 sia anch’essa continua e biunivoca. f:A sottoinsieme aperto di X spazio normato—->B sottoinsieme aperto di Y spazio normato pg 93
Definizione di insiemi diffeomorfi. Discuti due spazi diffeomorfi in R^n e R^m. Condizione necessaria e sufficiente per indentificare f diffeomorfismo. Esempio e controesempio di diffeomorfismo.
Sono due spazi omeomorfi, tc sia f sia f^-1 sono differenziabili. A sottoinsieme di R^n, B sottoinsieme di R^m; se A e B sono omeomorfi, m=n. f è diffeomorfismo se è biunivoca, C’ e detJf(a) diverso da 0 per ogni a appartenente ad A dominio. Le coordinate polari sono un esempio di diffeomorfismo, f:(0,2pi)x(0,+infinito)—>R. f(theta,rho)=(rcostheta,rhosintheta). f è iniettiva, facendo i necessari conti il determinante della jacobiana è rho, sempre diverso da 0, f è C’==>f è diffeomorfismo. Non lo sarebbe se f fosse così definita: f:(0,4pi)x(0,+infinito). f non sarebbe iniettiva e quindi non sarebbe diffeomorfismo.
Enunciato e dimostrazione del teorema dell’incremento finito
Se prendo un segmento [a,b] in Omega di una funzione f:Omega–>R^m, con m=1!!!!. f differenziabile in omega, f(b)-f(a)=<grad(f(a+t(b-a))),b-a>, t appartenente a (0,1). Uso il teorema di composizione delle funzioni differenziabili su g=f(phi(t)), dove phi(t)=a+t(b-a), da cui la tesi. pg 96
Enunciato (NO DIM) del teorema di caratterizzazione di funzioni costanti
Omega sottoinsieme di R^n connesso per poligonali e aperto; Sia f:omega—>R^m, f è costante su omega se e solo se la matrice jacobiana è nulla pg 97
Teorema che collega lipschitzianità e jacobiana, con dim
f:omega—>R^m differenziabile su omega aperto e convesso. Se Jf è limitata, allora f è lipschitziana pg 97
Definisci le derivate di ordine superiore
La derivata di una funzione in due variabili mi restituisce una funzione in due variabili, allora la posso di nuovo derivare una o più volte ottenendo derivate di ordine superiore. pg 99
Enunciato (NO DIM) del teorema di Schwarz
Data f:omega in R^n—>R se d^2f/dxjdxk esiste continua in un intorno di un punto allora sarà uguale a d^2f/dxkdxj in quel punto. Inoltre se f è C^2, allora l’Hessiana sarà simmetrica
pg 101-102
Definisci la matrice hessiana
La matrice hessiana è la matrice delle derivate seconde di f, dove nella prima riga ci sono le derivate rispetto x1 la prima volta, nell’nesima riga le derivate rispetto xn la prima volta e nella prima colonna ci sono le derivate rispetto x1 la prima volta e nell’nesima colonna le derivate rispetto xn la seconda volta
pg 102
Dimostra la formula di Taylor per funzioni in più variabili, sia con resto di Lagrange sia con resto di Peano
pg 106-107
Dimostra il teorema di Fermat per funzioni in più variabili
Abbia f un estremante in x0, sia f differenziabile in x0, allora il gradiente di f valutato in x0 è 0. Per dimostrarlo, ammetto che in x0 f abbia un minimo e definisco g(t)=f(x0+tej)>f(x0)=g(0). Ma allora in g(0), g ha un minimo, quindi posso applicare il teorema di Fermat per funzioni in una variabile. Dunque, g’(0)=f’(x0)=0. Questo vale solo per t tc xo+tej resta nell’intorno derivabile di g
pg 66 Maderna
Definizione di punto stazionari di una funzione in più variabili f
Un punto in cui il gradiente è 0
pg 2 7 giugno peloso
Definizione di punto di massimo e minimo assoluto e relativo (forte e debole)
pg 2 7 giugno Peloso
Definizione di punto di sella
UN punto di sella è un punto x0, in cui f è differenziabile e in cui ho un punto stazionario, ma non un estremante
Calanchi pg 198
Come individuare m e M della matrice hessiana?
Per la definzione di autovettore Hv-lambdav=0 deve avere soluzione non nulla. Raccogliendo v(non nullo per definizione), H-lambdaI=0 non deve essere invertibile, quindi il suo determinante deve essere uguale a 0, quindi trovo le lambda che soddisfino questa condizione.
Calanchi verso la fine
Condizione sufficiente per avere estremanti (Hessiana)
m autovalore minimo dell’hessiana, M autovalore massimo dell’hessiana o il minimo e massimo di F(x)=<x,H(a)*x>/||x||
1. m>0 a pto di minimo forte
2. M<0 a pto di massimo forte
3. m<0<M a pto di sella
4. m o M =0 non si può dire nulla
pg 202 Calanchi
Definizione di autovettore e autovalore
pg 202 calanchi