Fråga 5 - Volatilitetsestimering Flashcards
Hur definieras procentuella vs logaritmetiska avkastningar matematiskt?
Om ui = procentuella avkastningarna i tidpunkt i
ui= Si-S(i-1)/S(i-1)
Om ui = logaritmetiska avkastningarna i tidpunkt i
ui= ln(Si/S(i-1))
Ange för och nackdelar med EqWMA
Fördel:
- Enkel att beräkna
Nackdelar:
- “Ghost effect” uppstår vid stora förändringar i volatilitet. Ovanliga händelser påverkar kraftigt estimaten, för att sedan plötsligt försvinna när de är utanför tidsfönstret
- Vi antar med denna modell implicit att volatiliteten är konstant, vilket ej empirisk data visar
- Ingen mean reversion
- Tar inte hänsyn till trender i datat p.g.a ger all data samma vikt dvs odynamisk vilket gör att uppskattningarna kan inge falsk trygghet .
Hur definieras EqWMA matematiskt
För procentuella avkastningar:
σn^2 = 1/m* ∑ u(n-1)^2
För logaritmetiska avkastningar:
σn = 1/(m-1)* ∑ (u(n-1) - u ̅)^2
Hur definieras EWMA matematiskt och hur påverkar värden på λ volatiliteten?
σn^2 = λσ(n-1)^2 + (1-λ)u(n-1)^2
ƛ = 0,94 (Risk Metrics) ger ofta bra fit till data
Låg ƛ : Vikterna minskar snabbt, mer vikt åt ny data vilket ger en mer responsiv modell. Dvs gammal data fasas ut snabbt.
Hög ƛ : Vikterna minskar långsamt, mindre vikt åt ny data vilket ger en mindre responsiv modell. Dvs gammal data fasas ut långsamt.
OBS! EWMA är ett specialfall av GARCH(1,1), med parametrar ω = 0 , α = 1 − λ , β = λ
Vad finns det för fördelar/nackdelar med EWMA?
Fördelar:
Enkel att beräkna
Tar bort feta svansar
Få parametrar (endast 1)
Nackdelar:
Kan bli numeriska problem vid initiering av metoden.
Ingen mean reversion.
Hur definieras GARCH matematiskt?
Generella GARCH: tar de p senaste avkastningarna och q senaste varianserna enligt
σn^2 = ω + ∑αiu(n-1)^2 + ∑βiσ(n-1)^2
GARCH(1,1):
σn^2 = ω + αu(n-1)^2 + βσ(n-1)^2
där ω=γ*VL och γ+β+α=1
VL = Historisk genomsnittlig volatilitet (Volatility targeting)
Vad innebär mean reversion?
Antagandet att marknadspriserna kommer gå mot medelvärdet över tid
Vad finns för fördelar/nackdelar med GARCH?
Fördelar: - Tar bort feta svansar - Mean reversion Om β+α<1 : Mean revision Om β+α=1 : Ingen mean revision
Nackdelar:
- Fler parametrar, mer komplex
- Kan bli instabil –> Om β+α>1 : Instabil, välj EWMA istället
Beskriv maximum likelihood-estimering generellt
Maximum likelihood-metoden genererar de mest troliga parametrarna för ett dataset.
För en stickprov x1…xn ur de slumpade variablerna X1..Xn med fördelningsfunktionen f(x1,…,xn;Θ) är likelihood-funktionen definierad som:
L(Θ)= f(x1,…,xn;Θ)
Maximum likelihood estimeringen är värdet Θ* som maximerar funktionen ovan, dvs:
Θ*=argmax L(Θ)
Redogör också för hur parametrar till EWMA och GARCH(1,1) kan bestämmas genom
Maximum likelihood-estimering.
f(un,…,u1;Θ) = f(u1;Θ) * ∏f(ui | ui-1,…,u1; Θ )
där,
f(ui | ui-1,…,u1; Θ )= (1 / sqrt(2πσj^2)) e^ (-ui^2/2σj^2)
Vi låter vi=σj^2 och får likelihood funktionen:
L(Θ)= ∏[ (1/sqrt(2πvi))* e^ (-ui^2/2*vi)]
Eftersom den logaritmetiska funktionen strikt stiger kan vi förenkla till:
ln( L(Θ) )= ∑ ln ( (1/sqrt(2πvi))* e^ (-ui^2/2*vi)) =
= ∑ ln(1) - (1/2) * ln(2πvi ) - ui^2 / 2*vi =
= ∑ - (1/2) * ln(2πvi ) - ui^2 / 2*vi
Om vi ignorerar konstanterna får vi:
Θ=argmax ( ∑ - ln(2π*vi ) - ui^2 / vi )
där vi=vi(Θ)=σj(Θ)^2