Espaces vectoriels et réduction Flashcards
Caractérisation d’un sev F d’un K-ev E
F ⊂ E
F ≠ ∅
Ɐ(x, y) ∈ F², Ɐ(a, b) ∈ K², ax + by ∈ F
Caractérisation d’une sous algèbre B de (A, +, *, ●)
B ⊂ A
1A ∈ B
Ɐ(x, y) ∈ B², Ɐa ∈ K, a●x + y ∈ B
Ɐ(x, y) ∈ B², x*y ∈ B
Théorème de la base incomplète
E ev de dim finie
Soient F une famille libre et G une famille génératrice
alors on peut compléter F en une base de E à l’aide de vecteurs de G
Formule de Grassman
F, G sev d’un ev E
alors dim F+G = dim F + dim G - dim F∩G
Théorème du rang
E ev de dim finie, f appli linéaire de E dans F
dim E = rg f + dim Ker f
H sev d’un ev E, H hyperplan de E
H = Ker f (où f une forme linéaire non nulle) <=> H ≠ E et Ɐa ∈ E \ H, E = H ⊕ Vect a
Base canonique de Mn,p(K)
(Ei,j) avec 1 ≤ i ≤ n et 1 ≤ j ≤ p
et Ei,j = [δi,k * δj,l] avec 1 ≤ k ≤ n et 1 ≤ l ≤ p
Produit de deux éléments de la base canonique de Mn,p(K)
Ei,j * Ek,l = δj,k * Ei,l
Calcul du déterminant de A = (ai, j) : développement selon la j-ième colonne
det A = Σ ai,j * (-1)^[i+j] * Δi,j
on somme pour i de 1 à n
Lien entre une matrice A de Mn(K) et sa comatrice
tA * (com A) = t(com A) * A = (det A) * In
Déterminant d’une matrice A de Mn(K) triangulaire
det A = Π aᵢᵢ
produit pour i de 1 à n
Sn(K) : déf + dim
Ensemble des matrices symétriques : {A ∈ Mn(K), tA = A} dim Sn(K) = n(n+1)/2
An(K) : déf + dim
Ensemble des matrices antisymétriques : {A ∈ Mn(K), tA = -A} dim An(K) = n(n-1)/2
Sous espace propre associé
Eλ(u) = Ker u-λid = {vect propre associé à λ}
Polynôme caractéristique de A
χA = det X*In - A
Coef de χA
χA = Xⁿ - (tr A)*Xⁿ⁻¹ + … + (-1)ⁿ det A
Coef de χA s’il est scindé
tr A = Σ λᵢ
det A = Π λᵢ
Relation sur la dimension de Eλ
1 ≤ dim Eλ ≤ m(λ) Avec m(λ) multiplicité de λ comme racine de χ
Lemme de décomposition des noyaux
u un endomorphisme P, Q deux polynômes de K[X] tq pgcd(P, Q) = 1 Alors Ker(PQ)(u) = KerP(u) ⊕ KerQ(u)
Théorème de Cayley-Hamilton
E de dim finie, u un endomorphisme
Alors χu(u) = 0
u diagonalisable
5 équivalences
χu scindé et Ɐλ ∈ Sp(u), dim Eλ(u) = m(λ)
<=> E = ⊕ Eλ(u)
<=> dim E = ∑dim Eλ(u)
<=> ∃P ∈ K[X] scindé à racines simples tq P(u) = 0 (E de dim finie)
<=> μu scindé à racines simples
u diagonalisable (déf)
∃B une base de E tq la matrice de u dans la base B soit diagonale
A diagonalisable (3 équivalences)
A semblable à matrice diagonale
<=> X → AX diagonalisable
<=> χA scindé et Ɐλ ∈ Sp(A), rg(A - λIn) = n - m(λ)
A trigonalisable
A semblable à une matrice triangulaire (sup ds la déf)
<=> χA scindé
Sp(u) en dim finie
Sp(u) = {racines de χu} = {racines de μu}
En dim finie, u nilpotent (lien avec trigonalisation)
<=> u trigonalisable et Sp(u) = {0}
μu le polynôme minimal de u
unique générateur unitaire de l’idéal {P ∈ K[X], P(u) = 0}
Formule changement de base
Passage de A matrice de u dans les bases e et f à A’ matrice de u dans les bases e’ et f’
P matrice de passage de e vers e’ (matrice de e’ dans la base e)
Q matrice de passage de f vers f’ (matrice de f’ dans la base f)
A’ = Q⁻¹AP
Formules de Cramer
a₁₁x₁ + … + a₁ᵣxᵣ = y₁
…
aᵣ₁x₁ + … + aᵣᵣxᵣ = yᵣ
possède une unique solution si A inversible
Dans ce cas xᵢ = det Aᵢ / det A
où Aᵢ obtenue en remplaçant la i-ème colonne de A par Y
Déterminant de Vandermonde
V(x₁, ... , xᵢ) = | 1 x₁ x₁² ... x₁ⁱ⁻¹ | | ... | | 1 xᵢ xᵢ² ... xᵢⁱ⁻¹ | = Π(xj - xk) [1 ≤ k < j ≤ i]
A ∈ Mn(K) est inversible (7 équivalences)
<=> det A ≠ 0
<=> rg (A) = n
<=> Ker A = {0}
<=> ∃B∈ Mn(K), AB = In
<=> ∃C∈ Mn(K), CA = In
<=> Les colonnes de A forment une base de Kⁿ
<=> Les lignes de A forment une base de Kⁿ
Soit A la matrice suivante : A=( 3 0 −1) ( 2 4 2 ) (−1 0 3 ) Démontrer que A est diagonalisable et donner une matrice P inversible et une matrice D diagonale telles que A = PDP⁻¹. En déduire la valeur de Aⁿ pour tout n
P=( 1 0 1 ) (−2 1 0 ) ( 1 0 −1 ) D=( 2 0 0 ) ( 0 4 0 ) ( 0 0 4 ) Aⁿ = 0.5* ( 2ⁿ+4ⁿ 0 2ⁿ−4ⁿ ) ( 2*(4ⁿ−2ⁿ) 2*4ⁿ 2*(4ⁿ−2ⁿ)) ( 2ⁿ−4ⁿ 0 2ⁿ+4ⁿ )
P = λ*Π(X-aᵢ)^kᵢ (i variant de 1 à r)
Que vaut P’ / P
P’ / P = Σ kᵢ / (X - aᵢ) (i variant de 1 à r)
Décomposition en éléments simples de F = P/Q
1) Chercher partie entière
2) Si a est un pôle simple, le coefficient associé est P(a) / Q’(a)
3) Sinon si a est de multiplicité k :
le coefficient associé à (X - a)^k est obtenu en multipliant F par (X - a)^k et en évaluant en a
Celui associé à k-1 en soustrayant le terme précédent des deux côtés de l’égalité, puis en multipliant par (X - a)^(k-1) et en évaluant en a …
Interpolation de Lagrange
∃! P ∈ K[X], deg P < n et ∀i ∈ [|1; n|], P(xᵢ) = yᵢ
P = Σyᵢ * Lᵢ (i va de 1 à n)
avec Lᵢ = Π (X-xᵣ) / (xᵢ-xᵣ) (r va de 1 à n et r ≠ i)
Décomposition en fraction rationnelle de (2X² + 1) / (X² - 1)²
= -0.25/(X+1) + 0.75/(X+1)² + 0.25/(X-1) + 0.75/(X-1)²
det(A*B)
det(tA)
det(A+B)
det(AB) = det(A)det(B)
det(tA) = det(A)
Attention : aucun résultat sur la somme
det A (formule générale)
det A = Σε(ρ)aᵨ₍₁₎,₁…*aᵨ₍ᵢ₎,ᵢ
où ρ∈Sᵢ
Toute famille de vecteurs propres associés à des valeurs propres 2 à 2 distinctes est ?
Toute famille de vecteurs propres associés à des valeurs propres 2 à 2 distinctes est libre
u et v deux endomorphismes tels que uov = vou
Conséquence
Tout sous espace propre pour l’un est stable par l’autre endomorphisme.
Cas particulier Ker u et Im u sont stables par v
Invariants de similitude
Trace
Déterminant
Rang
Polynôme caractéristique
tr (AB)
tr (αA + B)
tr (tA)
tr(AB) = tr(BA)
tr(αA + B) = α*tr(A) + tr(B)
tr(tA) = tr(A)
Diagonalisation simultanée.
E de dim finie. u, v ∈ L(E) diagonalisables tel que uov = vou. Montrer qu’il existe une base B propre pour u et v.
Tout sous espace propre de u est stable par v.
Soit λ∈Sp(u). Alors Eλ(u) est stable par v.
Posons vλ induit par la restriction de v à Eλ(u).
Donc vλ est diagonalisable.
Soit Bλ base de Eλ(u) propre pour vλ.
B = U Bλ (λ∈Sp(u)) est une base propre pour u et v.
v ∈ L(E) diagonalisable. Lien avec les endomorphismes induits
Pour tout sous-espace vectoriel F stable par v, l’endomorphisme induit par v sur F est aussi diagonalisable
Deux propriétés sur le rang d’un produit de matrices
rg(AB) ≤ min( rg(A), rg(B) )
P∈GLn(K). Alors rg(AP) = rg(PA) = rg(A)
(Conséquence : effectuer des opérations élémentaires sur une matrice ne change pas son rang)
Opérations élémentaires pour calculer un déterminant (3 opérations + 3 cas particuliers de déterminants)
1) un déterminant contenant deux lignes (ou colonnes) identiques ou proportionnelles est nul
2) un déterminant contenant une rangée de 0 est nul
3) un déterminant contenant une rangée combinaison linéaire des autres est nul
4) multiplier une rangée d’un déterminant par α multiplie celui-ci par α
5) échanger deux lignes ou deux colonnes d’un déterminant multiplie celui-ci par -1
6) ajouter à une rangée une combinaison linéaire des autres ne modifie pas le déterminant
com A (comatrice de A)
matrice des cofacteurs : com A = [ (-1)^(i+j) * Δi,j ]
(x₁, _ , xᵢ) ∈ Eⁱ libre (équivalence)
detB (x₁, _ , xᵢ) ≠ 0
où B base de E
B, B’ bases de E, (x₁, _ , xᵢ) ∈ Eⁱ
detB’ (x₁, _ , xᵢ)
detB’ (x₁, _ , xᵢ) = detB’ (B) * detB (x₁, _ , xᵢ)
Remarque : detB (B) = 1
rg(A) = r (2 équivalences)
rg(A) = r <=> A équivalente à Jr,n,p
<=> r = max {k | ∃B extraite de A inversible de taille k}
Matrice de transvection
Ti,j(λ) = In + λEi,j
C’est une matrice inversible
Multiplier à gauche par Ti,j fait Li reçoit Li + λLj
Multiplier à droite par Ti,j fait Cj reçoit Cj + λ*Ci
Matrice de dilatation
Di(λ) = ∑Ej,j [j≠i] + λEi,i
C’est une matrice inversible
Multiplier à gauche par Di fait Li reçoit λLi
Multiplier à droite par Di fait Ci reçoit λ*Ci
Matrice de transposition
Pi,j = Ei,j + Ej,i + ∑Ek,k [k≠i,j]
C’est une matrice inversible
Multiplier à gauche par Pi,j fait Li échangée avec Lj
Multiplier à droite par Pi,j fait Ci échangée avec Cj