Lecture 4: Labor Market Policy II Flashcards
Hur ser högern och vänstern på ”Unemployment”?
Unemployment är excess demand givet högerns sätt att se på det hela. Sänker man löneanspråket kommer man tillslut att få jobb. Enligt högerns sätt är det staten som skapar arbetslöshet givet minmimilöner.
Vänstern menar istället att det är en fråga om effektivitet, om det finns personer som skulle kunna jobba men som inte gör det osv, då måste vi se till att skapa matchas mellan dessa och arbetskgivare.
Vad oroar sig Ekonomer för vid arbetslöshet och hur ska privatpersoner lösa det?
Att deras konsumtion är låg! Man consumption-smoothar inte då man är arbetslös.
Hur man löser detta? Genom att personer sparar pengar! Man ska alltså ha privat UI sparingar. Detta gör att när man är arbetslös så konsumerar man från sina egna pengar, det gör att man har har högre incitament att att skaffa sig arbete än om man man får vanlig arbetslöshetsersättning.
En vänsterekonom skulle säga det är socialt effektivt att ha en gemensam försäkring då vi är riskaverta. Problemet är dock den moral hazarden som existerar.
Vad är en fiskal-externalitet?
Om jag får mer benifits så är jag glad, då någon annan betaklar för det. Man internaliserar inte att någon annan betalar för något.
Vi har ekvationen:
(u’(Cl) - u’(Ch))/u’(Ch) = (ε,b)/e
Där C är konsumtion. L = lowstate (arbetslös) och H = highstate (employed)
e = search effort
b = UI benifit
Vad är vänster respektive högersidan och vad är det vi behöver för att studera om vi har lagom nivå på vår benifit?
This equation provides an exact formula for the optimal benefit rate
VL= Benifit of the program (How musch the marginal utility aof concumption change when one is unemployed. HL = Cost of the program
För att beräkna LHS behöver vi bara två saker, nivån av konsumtion för arbetslösa och nivån av konsumtionen för arbetande. Sen behölver vi också veta elasticiteten i högerledet.
Elasticiteten är hur vår search effort förändras när vår UI förändras.
Berätta kortfattat om Nekoei & Weber (2015). Vad de studerar, deras metod och fynd.
I den här studien använder de en RDD för att studera effekten av längre unemployment benifit (för non-employed inte unemployed).
De använder österikisk data där det finns en skarp tröskel då personer som uppfyller vissa kriterier (arbetat viss tid) och är över 40 år får tillgång till 9 veckor mer UI.
De visar att det inte finns någin bunching vid tröskieln (ingen manipulerar sin ålder vid avsked) samt att det inte finns någon diskontinuerlighet vid tröskeln för olika covariat.
I studien hittar de en positiv effekt på lönen av UI, men de ser också att de med förlängd UI var arbetslösa längre!
Detta är unikt då inga tidigare studier har visar positiva effekter.
Vilka två delar kan effekten av UI delas in i enligt Nakoei & Weber (2015)
De visar att Effekten av UI kan delas upp i två delar.
- Unemployment benifit pressar upp reservationslönen och gör att personer får högre löneanspråk och där med kan få ett jobb med relativt bra lön.
- Det finns en negativ duration dependance där man hela tiden sänker sitt löneanspråk ju längre man väntar.
Netto-effekten av unemployment benifit beror på vilken av dessa effekter som dominerar.
I denna studie dominerar den första effekten och när de jämför med andra studier visar de att det att det finns en negativ korrelation mellan lönen och duration dependance. Dvs, ju längre duration depancence manipulation det är i studierna, desto mer dominerar denna.
Vad måste Nekoei & Weber (2015) visa i deras RDD för att den ska vara legit?
Detta visar att det inte finns någon sorting, dvs inga som manipulerade sina ålder, dvs det det finns ingen bunching.
De visar att det inte är någon effekt av running variablen på diverse kovariat som inte borde ha med den att göra.
De visar också att designen inte är känslig för olika fönster eller polynom.
Säg att vi har en nyttofunktion där vi väljer X och vi har preferensparameten θ. Hur kan vi då skriva den indirekta nyttofunktionen?
Vad är endogent respektive exogent?
V(θ) = max_x U(X, θ)
Eller U = V(X*, θ)
X är endogent då det är något individen väljer medan theta är exogent och något som är givet (skulle också kunna vara nivån på en UI i ett annat sammanhang)
Vi har den indirekta nyttofunktionen
V(θ) = max_x U(X, θ)
Och vill veta hur mycket vår nytta påverkas av θ, vad är lösningen då? X beror på θ…
Enligt envelop theorem behöver vi bara veta hur U direkt påverkas av θ. Eftersom individen nyttomaximerar, kommer den ju välja en optimal nivå av X redan.
Såklart påverkas valet av X av theta på marginalen, men det viktiga är hur den totala nyttan förändras, därför är alltså effekten x(theta) sekundär och kan ignoreras. Så det är direkt derivatan som är av betydelse.
Berätta om de två sätten man kan använda för att studera effekterna av parameterförändringar i en ekonomisk model.
När vi har en ekonomisk modell och vill studera vilka effekter den predicerar finns det två sätt att lösa detta.
Det första är ”the structural way” där vi estimerar alla primitivs hos modellen, preferenser, constraints, education functions, barrowing constraints, production functions osv. Sedan mappar man de parametrarna för att studera någon copmparative statics, t.ex dW/dt (där t är någon policy). Man måste alltså specificera och fullt estimera alla parametrarna i modellen, sen kan man då göra simulationer för att studera policyn.
Den andra approachen (som är populär inom public finance) är ”sufficient statistics”.
Iställer för att estimera alla primitives så härleder man en formula som mappar ett mindre antal elasticiteter till dW/dt. Man härleder alltså en formula för dW/dT i termer av elasticiteter. Dessa elasticiteter är då funktioner av alla underliggande strukturella primitiven i modellen. Vi får fram dessa av olika program evalutation methods, dvs olika typer av naturliga kvasiesperiment. Då människor optimerar kommer alla underliggande parametrar i modellen vara optimerade dW/dt med materialet vi har hämtat in.
Detta gör att man alltså kan använda ett simpelt kvasiexperiment för att förstå hur en förändring i en policy kommer påverka ekonomin. Detta är mycket enklare än att försöka ta reda på personers riskaversion eller preferencer är när man ska modellera något.
Vi identifierar alltså β i vår experiment, där dessa är funktioner av struktural primitivs (θ) och policyn (t).
β(θ,t). Vi kommer få två tre elasticiteter, fast med flera hundra underliggande primitives.
Vi böhöver inte förstå de underliggande primitiven och det kommer finnas massor av olika underliggande modeller som matchar elasticiteterna men som ger exakt samma svar för själva policy effekten.
Vad är den underliggande nycken för sufficient statistics?
Nycken här är att när vi maximerar WF funktionen innehåller den alla individers indriekta nyttofunktioner, så dessa är redan i optimum då de maximerar, som nämt ovan. Detta gör att vi pga envelope therorem endast behöver bry oss om direkt derivaten av policyn, inte hur denna skatt påverkar efterfrågan på de andra marknaderna osv, dvs de andra bettendeeffekterna av skatten.
Vi optimerar alltså en funktion som redan är delvis optimerad.
Är en kritik mot Sufficient Statistics?
En svaghet är dock att eftersom β är en funktion av t(t.ex en parameter för skattesatsen) kommer den också vara beroende av de spannet på elasticiteten som man estimerar, dvs man kan bara göra lokla WF-analyser runt domämen på elasticiteten som vi estimerar. Estimerar vi exampelvis en förändring i skatt på 45% - 50% kommer vi förstå vad som händer med WF i det spannet, men vi kommer inte kunna predicera vad som händer med WF om vi ändrar skattesattsen på t.ex 90%. Så man kan inte extrapolera ur samplet. Detta är Lukas kritiken.
Modellernas själva grundantaganden måste fortfarande hålla! Modellens antaganden kommer påverka svart vi får. Kommer vara skillnad om vi antar att skatten är ad valorum eller den andra typen.
En annan nackdel är också att man måste härleda nya SS modelelr för varje policy man vill estimera.
Det går inte heller att göra out of sample predictions.
Hur är SS en mellanväg mellan structural och reduced form?
Denna approace är en mellan väg mellan structural och reduced form. Structural är bökig att estimera men lätt att generaliser, reduced form är enklare att lösa genom olika experiment men kan vara svår att generalisera.
SS har transparans, creadible identification från reduced form men har den bra egenskapen från structural att de går att generallisera hyfsat och göra bra antagenden om WF.
Vilka tre benifits har SS. (Kanske en svår fråga, men kan i alla fall skumma svaret)
The sufficient-statistic method has three benefits. First, it is simpler to implement empirically because less data and variation are needed to identify marginal treatment effects (MTEs) than to fully identify a structural model.
Second, the identification of structural models often requires strong assumptions given available data and variation. As it is unnecessary to identify all primitives, sufficient- statistic formulas can be implemented under weaker assumptions using design-based em- pirical methods. The results are therefore more transparent and empirically credible.
Third, the sufficient-statistic approach can be applied even when one is uncertain about the positive model that generates observed behavior, such as in recent studies in the behavioral economics literature that document deviations from perfect rationality. In such cases, welfare analysis based on a structural model may be impossible, whereas the more agnostic sufficient-statistic approach permits some progress. For instance, Chetty et al. (2009) derived formulas for the deadweight cost of taxation in terms of price and tax elasticities in a model in which agents make arbitrary optimization errors with respect to taxes.