Chapter 16 - Beslutningsanalyse Flashcards
Hva er den “første største” forskjellen mellom hva som skjer her og hva vi gjorde i LP, IP og NLP?
Tidligere så vi på verden som deterministisk, der vi også antar at alt er “kjent”.
Det vi gjør nå, er å se bort ifra i disse antakelsene. Nå skal vi se på beslutninger under usikkerhet.
Hvordan ser vi for oss at prosessen i beslutningsanalyse skal se ut for oss?
Vi her en beslutningstaker som må velge ETT beslutningsalternativ. Beslutningstakeren velger dette alternativet mellom mange ulike alternativer.
Vi ser på en diskret mengde med alternativer. Dermed står dette i kontrast med LP, der divisibility antakelsen gir oss endelig mange kontinuerlige alternativer.
Videre antar vi at utfallet av beslutningen er gitt av tilfeldige faktorer som ligger utenfor beslutningstakerens kontroll.
Hvert utfall har en priori sannsynlighet.
Hver kombinasjon av beslutning/hendelse gir en pay-off.
Oversikten over de ulike alternativene og deres sannsynlighet samt payoff skal gi oss grunnlaget for å bestemme hvilken beslutning vi vil ta.
Se på tabellen. Hvordan tar vi en beslutning på noe slikt?
Det kommer an på hva slags kriterie vi bruker. Det finnes ulike beslutningskriterier. Ex maximin-kriteriet (pessimistiske).
Forklar maximin-kriteriet
maximin handler om å velge den beslutningen som gir oss “best av de værste”. Altså, vi ser på alle beslutninger vi kan ta, og ser på hvilke utfall hver beslutning kan gi. Dermed tar vi med oss det absolutt værste utfallet fra hver beslutning. Deretter velger vi det alternativet/beslutningen som gir den høyste/beste payoff av disse dårlige utfallene.
Maximin blir ofte kalt for pessimistisk siden den tar hensyn til hva som er det jævligste som kan skje. Det er derimot kanskje usannsynlig at dette vil skje, derfor kan det være gunstig å bruke andre beslutningskriterier.
Formell notasjon gitt på bildet.
HVa er maximax-kriteriet?
Maximax handler om å se på beste mulige utfall fra hver individuelle beslutning, og deretter velge det beste av disse. Ekstremt optimistisk.
Hvilket beslutningskriterie er best?
Det gir ikke helt mening å snakke om hva som er best eller dårligst. Alt handler om hva vi som person/beslutningstaker synes er lurt. Noen ganger kan dette være å gå for å sikre høyest laveste gevinst. Andre ganger er det andre strategier.
Forklar “maximum-likelihood-kriteriet”
Vi ser først på hvilket utfall som er mest sannsynlig, og deretter velger vi alternativet som gir høyest payoff innad i gruppen som er mest sannsynlig.
Hva er den største kritikken til maximin, maximax og maximum likelihood?
Vi anvender veldig lite av informasjonen vi har tilgjengelig. Alle metodene handler kun om å se på en liten del av hva som foregår, eks sannsynlighet og velge den mest sannsynlige, men den tar da ikke bruk av ting som payoff på hendelser som bare er litt mindre sannsynlig. Derfor kan vi risikere dårlige beslutninger.
Forklar Bayes kriterium
Handler om å maksimere forventet payoff basert på sannsynlighet. Denne er litt mer robust enn tidligere kriterier (på noen måter).
Bayes metoden er best i tilfeller der vi ser på mange beslutninger i sekvens, siden sannsynlighet fører til at vi maksimerer forventet payoff i det lange løp.
Metoden/kriteriet fungerer ved at vi ser på hver mulige beslutning. Deretter multipliserer vi payoff for beslutningen for et spesifikt utfall med sannsynligheten for utfallet. Dette gjør vi for alle utfall, og summerer sammen.
Dette gjør vi for alle beslutninger.
Deretter velger vi beslutningen som gir høyest forventet payoff.
max {∑payoff x probability, for each beslutning}
Hva gjør vi dersom vi ikke er sikre på at sannsynlighetene våre er korrekte? Eventuelt dersom vi ikke kjenner til dem?
Vi vil da gjøre sensitivitetsanalyse på sannsynlighetene. Det vi gjør da, er å se på hvordan forventet payoff endrer seg for ALLE alternativene/beslutningene vi har tilgjengelig dersom vi varierer sannsynligheten for utfall. Dette forutsetter kun to mulige utfall per beslutning, slik at vi kan få en linear funksjon.
For eksempel:
E[soy] = 35xP + 8x(1-P) = 27p+8
Vi gjør det samme for alle beslutninger, og plotter linjene inn grafisk. Da kan vi se hvorvidt noen blir dominert av andre beslutninger, og vi kan se hva som skjer her. Vi kan også se hvor mye slingring det er mellom linjer i forhold til sannsynlighet. La oss si vi tror utfall P har 40%. Dersom det viser seg at en beslutning av best så lenge P er større enn 30%, så har vi en slingring på 10 prosentpoeng.
Hva er forskjellen mellom betinget sannsynlighet of Bayes teorem?
Betinget sannsynlighet gir bare P(A|B)=P(A U B) / (P(B)
mens Bayes gir oss P(B|A) som et uttrykk av P(A|B).
Dette betyr at dersom vi kjenner til P(A|B), eksempelvis vis sannsynligheten for at en sykdom gir et spesifikt symptom, kan vi bruke dette for å finne ut av sannsynligheten for at person har sykdommen ved å bruke dette. Hvorfor er dette hensiktsmessig? Alternativet vill vært betinget sannsynlighet: Sannsynlgihet for å både ha symtpm mens man har sykdommen, delt på sannsynlighet for å ha symptomet. Problemet med dette er at sannsynligheten for å ha symptomet kan endre seg betydelig.
Med Bayes får man en mer robust modell.
P(B|A) = P(A|B)P(B) / (P(A|B)P(B) + P(A|!B)P(!B))
Altså, sannsynligheten for å ha sykdom gitt symptom, er gitt ved sannsynligheten ved å ha symptom gitt sykdom multiplisert med sannsymnligheten for å ha sykdom, delt på total sannsnlighet for å ha sykdom.
VIKTIG: Vi bruker aldri P(A), som ville vært sannsynlighet for symptom. Detter viktig siden det ville representert sannsynlighet for “effekt”, som er vanskelig å finne. Sannsynligheten for effekt kan ofte endre seg, mens sannsynligheten for effekt gitt sykdom er stabil.
What is experimentaiton?
Experimenting is about doing some sort of testing to gain evidence. The general thought is that we pay a small amount for some extra information, and this information makes us do a decision that is much better than we otherwise would be able to do. In other words, we consider the information to be valuable, and we can in fact put a price on it. More on this later.
The important part is that decision analysis very often considers decisions, and experimenting do make better decisions.
In this chapter, what is “decision making”?
Decision making is about choosing one alternative from a set of discrete alternatives. The decision itself will be chosen based on some criterion.
Why are these decisions subject to uncertainty?
We generally say the “state of nature”. There are very often a lot of factors that are simply outside of our control. We may never be able to know for sure whether there is oil in some field or not, if we dont drill for it. We probably know something about the probabilities though.
A payoff is associated with each …
… with each alternative AND state of nature. Alternative refers to the specific decision we can make, and the state of nature refers to the possible outcomes that can follow if we select the specific decision alternative.
What is the game theory analogy to this chapter?
We can view decision analysis, or the payoff table at least, as a game. We choose an alternative, and the other player (nature) selects one of the possible states that can result from this alternative. There will of course be a specific probability assigned to each of the possible states that “nature” can choose from.
What is Bayes’ decision rule?
Calculate the expected value for each alternative (long run perspective).
Choose the largest of the expected values.
What is the advantage of Bayes’ decision rule?
It incorporates all of the information in the table.
What is the big DISadvantage of Bayes’ decision rule?
It heavily relies on somehow knowing the probabilities. Although past events may be able to provide good estimates for future events, it is not certain. Therefore, the uncertinaty is inherently uncertain. Therefore, we can make benefit from sensitivity analysis of the uncertain variable, which would be the probability.
We do this by creating linear functions with parameter equal to the probability of some event. This only works for binary events though.
ex: 700p - 100(1-p) = 700p - 100 + 100p = 800p - 100
What points are interesting when using sensitivity analysis on probability variables?
The cross-over point. The cross over point refers to the point where the expected profit of one alternative is equal to the expected profit of some other alternative. Therefore, this point gives us the expected value where they are equal, along with the probability of event occurring. This of course means that we can use this probability as a reference. IF we believe the probability of hte event occurring is greater or smaller than the cross-over-point value, then we can quickly understand which option is better.
The purpose of this analysis is to be able to choose some option without actually having to know the exact probability of the event.
Say we perform experimentation. What do we call the new probability estimates?
Posterior
What is probability tree diagram?
It is a tree structure that shows the probability of different alternatives and states of nature. I can follow a structure like “prior –> conditional –> joint –> posterior”. The entire point is being able to find the total probability of each possible outcome, so that we can correctly apply Bayes’ decision rule to it. In other words, this is just a visual tool for the extension of the Bayes decision rule, so that it can include evidence/experiments.
elaborate on the expected value of perfect information
The expected value of perfect information is an upper bound of what we would be willing to pay for some piece of information/testing/experiment/evidence etc.
We find it by treating the experiment as if it removes ALL uncertainty. For instance, performing the seismic tests would be able to 100% tell us whether there are oil present or not. Then we calculate the expected payoff with perfect information. The value of perfect information is the difference between the expected payoff with “perfect informaiton” and without the perfect information. So, payoff with no uncertainty less the payoff with uncertainty.
How much would we at maximum be willing to pay for this piece of evidence? We would pay at max equal to the value we got. If the evidence costs more than the “expected value of perfect information” we would obviously not pay for it. In other words, we would not perform the experiment.
Using the method of “the expected value of perfect information”, what does it tell us? What is th result+
It the expected value of perfect informaiton provides an upper bound greater than the cost of acquiring the evidence, then we definitely want to explore further. We want to calculate “expected value of experimentation”. This is more ‘difficult’, which is why we usually calculate the expected value of perfect information first, with the goal of ruling out the worst cases very quickly.
what kind of probability of used with EVOPI?
priors.
How is EVE calculated?
expected payoff with experiment - expected payoff without experiment.