Definizioni Flashcards
funzione integrabile secondo Riemann
una funzione f : [ a, b ] → R limitata si dice integrabile secondo Riemann se data una sua qualsiasi somma di Cauchy - Riemann Sn,
lim ( n → ∞ ) Sn
esiste, è finito e tale limite non dipende da come ho scelto i punti ξ j
in tal caso si pone :
lim (n → ∞ ) Sn = ∫(a,b) f(x) dx
F primitiva di f
si dice che una F : [ a, b ] → R è una primitiva di
f : [ a, b ] → R se F è derivabile in [ a, b ] e
F’ ( x ) = f ( x ) ∀x ∈ [ a, b ]
tutte e sole le primitive di f sono della forma F ( x ) + c dove F ( x ) è una fissata primitiva di x e c ∈ R
vettore
un vettore nel piano o nello spazio è individuato assegnando:
- norma
- direzione
- verso
vettore somma
dati due vettori v e w, il vettore somma v + w si costruisce con la regola del parallelogrammo
prodotto per uno scalare
dati v e t ∈ R si definisce prodotto tra il vettore v e lo scalare t ( prodotto per uno scalare ) e si indica con tv il vettore che ha norma = | t | || v ||, stessa direzione v, stesso verso di v se t > 0, verso opposto se t < 0
versore
un vettore di norma unitaria si chiama versore. dato v diverso da O ( vettore nullo ), posso costruire a partire da v un versore moltiplicando v per 1 / || v ||. ( processo di normalizzazione )
versori fondamentali dello spazio
i versori fondamentali dello spazio sono:
i = ( 1, 0, 0 )
j = ( 0, 1, 0 )
k = ( 0, 0, 1 )
ogni vettore v = ( x, y, z ) può essere scritto:
v = xi + yj + zk
combinazione lineare
siano v1, v2, ... , vk vettori dati α1, α2 , ... , αk ∈ R si chiama combinazione lineare di v1, ... , vk con coefficienti α1, ... , αk il vettore α1 v1 + α2 v2 + ... + αk vk (oppure sommatoria di (αi vi) )
vettori linearmente dipendenti
v1, … , vk si dicono linearmente dipendenti ( L. D. ) se almeno uno di essi si può scrivere come combinazione lineare degli altri
in caso contrario i vettori si dicono linearmente indipendenti ( L. I )
geometricamente due vettori v1 e v2 NEL PIANO sono L. D. se e solo se si trovano sulla stessa retta: hanno stessa direzione
prodotto scalare
dati v e w si chiama prodotto scalare fra v e w e si indica con v ∙ w
il numero reale || v || || w || cos α, dove α ∈ [ 0 , π ] è l’angolo formato da v e w
prodotto vettoriale nello spazio ( non si può fare nel piano )
dati v e w vettori nello spazio, il prodotto vettoriale tra v e w, indicato con v × w , è il vettore caratterizzato dalle seguenti proprietà:
- || v × w || = || v || || w || sen α dove α ∈ [ 0 , π ] è l’angolo formato da v e w
- v × w è perpendicolare al piano in cui vivono v e w
- v, w e v × w nell’ordine formano una terna destrorsa
geometricamente: v × w è l’area del parallelogrammo costruito su v e w
prodotto misto nello spazio ( non si può fare nel piano )
dati u, v, w vettori nello spazio, si chiama prodotto misto tra u, v, w il numero reale u ∙ ( v × w )
( occhio che vale la propr. distributiva, ma ( u ∙ v ) × w non ha senso in quanto u ∙ v non è un vettore )
il prodotto misto è nullo se e solo se u giace nel piano individuato da v e w, dunque solo se i vettori sono complanari pertanto L. D.
geometricamente: u ∙ ( v × w ) è il volume del parallelepipedo costruito su u, v, w
retta nel piano e nello spazio
una retta nel piano è il luogo geometrico dei punti
{ ( x, y ) : ax + by = c } con a, b, c ∈ R e a, b non entrambi nulli
condizioni di parallelismo ed ortogonalità
due rette sono parallele se i loro vettori direzione sono paralleli ( cioè L. D. )
due rete si dicono perpendicolari se i loro vettori direzione sono perpendicolari ( cioè se il loro prodotto scalare = 0 )
( due rette perpendicolari non sono necessariamente incidenti )
piani paralleli e ortogonali
due piani si dicono paralleli se lo sono i loro vettori normali
due piani sono ortogonali se lo sono i loro vettori normali
spazio Rn
dato n >= 1 chiamiamo Rn l’insieme di tutte le n-uple ordinate di numeri reali
Rn = { ( x1, x2, x3, … , xn ) : xi ∈ R }
x = ( x1, x2, x3, … , xn ) si dice vettore
xi sono le componenti del vettore
somma di vettori
dati i vettori x = ( x1, x2, x3, ... , xn ) e y = ( y1, y2, y3, ... , yn ) si definisce somma tra x e y il vettore x + y = ( x1 + y1, x2 + y2, x3 + y3, ... , xn + yn )
prodotto per uno scalare
dati il vettore x = ( x1, x2, x3, … , xn ) e λ ∈ R si definisce prodotto tra x e λ ( prodotto per uno scalare )
λx = ( λx1, λx2, λx3, … , λxn )
(sul quaderno se vuoi ci sono tutte le proprietà )
spazio vettoriale su K
si dice spazio vettoriale su K ( R o C ) un insieme V per il quale sono definite due operazioni:
- somma : associa a ogni coppia di elementi di V un unico elemento di V denotato con V1 + V2
- prodotto per uno scalare : che associa ad ogni elemento di V e t ∈ K un unico elemento di V denotato con tV
( Gli elementi di V si chiamano vettori, gli elementi di K si chiamano scalari )
sottospazio
sia V uno spazio vettoriale e sia V1 ⊆ V sottoinsieme.
se V1 è munito delle stesse operazioni definite in V è anch’esso uno spazio vettoriale e diciamo che V1 è sottospazio di V
combinazione lineare
si dice combinazione lineare di n vettori v1, v2, … , vn con coefficienti α1, α2, …, αn ∈ K il vettore
α1 v1 + α2 v2 + … + αn vn
sommatoria ( αi vi ) ∈ V
vettori linearmente dipendenti e linearmente indipendenti
si dice che v1, … , vn sono linearmente dipendenti se ∃ una loro combinazione lineare a coefficienti non tutti nulli che produce il vettore nullo
si dicono linearmente indipendenti se non sono linearmente dipendenti
Base di uno spazio vettoriale
sia V uno spazio vettoriale su K.
supponiamo che esistono n vettori e1, e2, … , en tali che :
- e1, e2, … , en sono Linearmente indipendenti
- ogni vettore di V può essere scritto come combinazione lineare di e1, e2, … , en
allora l’insieme { e1, e2, … , en } si dice base di V
dimensione di uno spazio vettoriale
si dimostra che se V ha una base composta da n vettori, ogni altra possibile base ha n vettori, e diciamo che V ha dimensione n
sottospazio banale ( o sottospazio triviale )
dato V spazio vettoriale, l’insieme { 0 } ( composto dal vettore nullo ) è un sottospazio vettoriale di dimensione 0, detto sottospazio banale ( o triviale )
prodotto scalare in uno spazio di qualsiasi dimensione
dati i vettori x = ( x1, x2, …, xn ) e y = (y1, y2, … , yn )
definisco prodotto scalare tra x e y il numero
x ∙ y = sommatoria ( xi yi )
( tutte le proprietà sul quaderno )
vettori ortogonali e paralleli in uno spazio di qualsiasi dimensione
i vettori v e w ∈ Rn si dicono ortogonali se v ∙ w = 0
si dicono paralleli se ∃λ ∈ R : v = λw
Spazio vettoriale con prodotto scalare ( s. v. p. s. )
sia V spazio vettoriale su R. supponiamo che in v sia definita un’operazione che ad ogni coppia di vettori v e w, associa un numero reale indicato con v ∙ w, in modo tale che valgano le proprietà 1 - 4. in tal caso l’operazione ∙ si dice prodotto scalare, e lo spazio V si dice spazio vettoriale con prodotto scalare
complemento ortogonale di uno spazio vettoriale
se V e svps e V1 è sottospazio di V, si chiama complemento ortogonale di V1 e si indica con V1⊥ l’insieme:
V1⊥ { v ∈ V : v ∙ u = 0 ∀u ∈ V1 }
base ortonormale
sia V svps di dimensione n, e sia e1, … , en una sua base. si dice che e1, … , en è una base ortonormale se
- ei ∙ ej = 0 ∀ i ≠ j ( ei, … , en sono ortogonali )
- || ei || = 1 ∀ i
matrice di tipo ( m, n )
si dice matrice di tipo ( m, n ) su K = R o C un insieme di m ∙ n elementi di K disposti in una tabella di m righe e n colonne
matrice quadrata e rettangolare
se m = n la matrice si dice quadrata di ordine m, altrimenti si dice rettangolare
matrice somma
se A = ( aij ) e B = ( bij ) sono matrici di tipo ( m, n ), si indica con A + B la matrice di tipo ( m, n ) detta matrice somma, il cui generico elemento cij è cij = aij + bij
( non si possono sommare matrici di tipo diverso )
( la somma tra matrici è commutativa )
matrice tA
dato t ∈ K ed una matrice A = ( aij ) di tipo ( m, n ), si definisce la matrice tA = ( taij )
matrice prodotto
data una matrice A = ( aik ) di tipo ( m, n ) e una matrice B = ( bks ) di tipo ( n, p ), si indica con AB la matrice prodotto di tipo ( m, p ) il cui elemento cij è
cij = sommatoria ( aik + bkj ) ( i = 1 … m , j = 1 … p )
( prodotto riga per colonna)
( righe di A per colonne di B )
è possibile eseguire il prodotto solo se le colonne di A sono uguali al numero di righe di B
il prodotto tra matrici non è commutativo ma è associativo e distributivo
matrice identità
si chiama matrice identità la matrice quadrata
In ( con tutti 1 sulla diagonale principale e resto 0 )
∀ matrice quadrata di ordine n vale:
A ∙ In = In A = A
matrice trasposta
si chiama matrice trasposta di una matrice A di tipo
( m, n ) la matrice di tipo ( n, m ) ottenuta da A scambiando righe e colonne. si indica con AT
A = ( aij ) AT = ( aji )
data A matrice di tipo ( m, n ) e B di tipo ( n, p ) vale:
( AB )T = BT AT
matrice simmetrica
una matrice quadrata A di ordine n si dice simmetrica se A = AT
( simmetrica rispetto alla diagonale principale )
matrice:
triangolare alta, triangolare bassa e diagonale
una matrice quadrata si dice:
- triangolare alta se tutti gli elementi sotto la diagonale principale sono nulli
- triangolare bassa se tutti gli elementi sopra la diagonale principale sono nulli
- diagonale se è sia triangolare alta sia triangolare bassa ( tutti gli elementi al di fuori della diagonale principale sono nulli )
minore di ordine K e rango
dati A matrice di tipo ( m, n ) e K <= min { m, n }, si dice minore di ordine K il determinante di qualsiasi matrice di ordine K ottenuta con gli elementi comuni a K righe e K colonne.
si chiama rango di A ( o caratteristica di A ) l’intero
r >= 0 :
- ∃ minore di ordine r non nullo ( ogni sottomatrice di ordine r ha determinante ≠ 0 )
- ogni minore di ordine r + 1 è nullo ( ogni sottomatrice di ordine r + 1 ha determinante = 0 )
( rango = massimo numero di righe o colonne L.I. )
matrice inversa
data una matrice quadrata A di ordine n, si dice matrice inversa di A, indicata con A^-1, la matrice ( se esiste ) tale che A A^-1 = A^-1 A = In
( per il teorema di Binet, det ( A^-1 ) = 1 / det ( A ) )
matrice singolare e non singolare
se una matrice A ha determinante ≠ 0 si dice non singolare
se A ha determinante = 0 si dice singolare
applicazione lineare
siano V e W spazi vettoriali su K e sia L : V1 → V2 funzione. si dice che L è un’applicazione lineare se:
- L ( v1 + v2 ) = L ( v1 ) + L ( v2 ) ∀ v1, v2 ∈ V
- L ( αv ) = α L ( v ) ∀ v ∈ V e ∀ α ∈ K
queste due condizioni sono riassumibili nella formula:
L ( α1 v1 + α2 v2 ) = α1 L ( v1 ) + α2 L ( v2 )
∀ α1, α2 ∈ K ∀ v1, v2 ∈ V
immagine e nucleo di L
siano V e W spazi vettoriali su K di dimensione n e m rispettivamente, e sia L : V → W applicazione lineare.
- si chiama immagine di L, l’insieme:
Im ( L ) = { w ∈ W : ∃ v ∈ V : L(v) = w }
si chiama nucleo di L l’insieme:
Ker ( L ) = { v ∈ V : L(v) = 0 }
proprietà di nucleo e immagine
Ker( L ) è sottoinsieme dello spazio di partenza V
Im ( L ) è sottoinsieme dello spazio di arrivo W
Ran ( A ) = dim Im ( L )
applicazione lineare suriettiva, iniettiva e biunivoca
Siano V e W spazi vettoriali su K di dimensione n ed m rispettivamente, e sia L : V → W applicazione lineare.
- si dice che L è suriettiva se Im ( L ) = W
- si dice che L è iniettiva se Ker ( L ) = { 0 }
- si dice che L è biunivoca se L è sia suriettiva sia iniettiva
( per il teorema di nullità di rango si ha che se L : V → V, L è iniettiva se e solo se è suriettiva )
( sempre per il teorema di nullità più rango si ha che se L : V → W, L non può essere biunivoca )
sistema lineare quadrato
in un sistema lineare, se n = m ( numero di equazioni = numero di incognite ) il sistema S si dice quadrato
in questo caso la matrice A è una matrice quadrata
( S = Ax = b )
matrici simili
siano A e A’ matrici quadrate n x n a coefficienti in K.
A e A’ si dicono simili se ∃ matrice S ( n x n ) a coefficienti in K non singolare ( detS ≠ 0 ) :
SAS^-1 = A’
( due matrici simili hanno lo stesso determinante e lo stesso rango )
matrice diagonalizzabile
una matrice A ( n x n ) ad elementi in K si dice diagonalizzabile su K se ∃ matrice S ( n x n ) ad elementi in K non singolare ed esiste una matrice ∧
( n x n ) diagonale :
SAS^-1 = ∧
( S matrice di passaggio, ∧ forma diagonale di A )
autovalore e autovettore
sia A matrice n x n ad elementi in K.
λ ∈ K si dice autovalore di A se ∃ vettore x ∈ K ( x ≠ 0 )
tale che Ax = λx
tale x si dice autovettore relativo a λ
Spettro della matrice A
l’insieme degli autovalori di A si chiama spettro di A e si indica con σ ( A )
autospazio relativo a λ
dato λ autovalore ∈ σ ( A ), si chiama autospazio relativo a λ l’insieme:
vλ = { x ∈ K: Ax = λx }
( insieme di tutti gli autovettori + vettore nullo )
molteplicità geometrica dell’autovalore
dato λ ∈ σ ( A ), la dimensione dello spazio vettoriale
vλ ( autospazio ) si dice molteplicità geometrica dell’autovalore λ
polinomio caratteristico di A
si può dimostrare che se A è una matrice n x n, allora l’espressione det ( A - λId ) è un polinomio di grado n. tale polinomio si indica con p( λ ) e si chiama polinomio caratteristico di A
( matrici simili hanno lo stesso polinomio caratteristico )
molteplicità algebrica dell’autovalore
si dice che λ0 ha molteplicità algebrica m se λ0 è radice del polinomio caratteristico di molteplicità m
è possibile dimostrare che se p ( λ ) ha tutte le n radici in K, allora detA = ( λ1 ) ( λ2 ) …. ( λn )
inoltre la traccia di A ( somma degli elementi sulla diagonale principale ) TrA = somma di tutte le radici del polinomio caratteristico ( tutti gli autovalori )
è possibile dimostrare che se p ( λ ) ha tutte le n radici in K, allora detA = ( λ1 ) ( λ2 ) …. ( λn )
inoltre la traccia di A ( somma degli elementi sulla diagonale principale ) TrA = somma di tutte le radici del polinomio caratteristico ( tutti gli autovalori )
autovalore regolare
λ ∈ σ ( A ) si dice autovalore regolare se
Mg ( λ ) = Ma ( λ ) ( molteplicità geometrica = molteplicità algebrica )
autovalore semplice
λ ∈ σ ( A ) si dice autovalore semplice se Ma ( λ )= 1
autovalori semplici sono sempre regolari
matrice ortogonale
una matrice A nxn a coefficienti reali si dice ortogonale se A At = At A = Id
( A non è singolare e la sua trasposta coincide con l’inversa )
proprietà delle matrici ortogonali sul quaderno
proprietà delle matrici simmetriche sul quaderno