Eksamen 2016 Flashcards
Forklar independence
To variabler er uavhengige om de ikke påvirker hverandre, Altså, det å vite sannsynligheten for den ene endrer ikke sannsynligheten for den andre.
P(x|y) = P(x)
Forklar conditional independence
To variable, X og Y, er conditional independence gitt en tredje variabel Z, hvis gitt kunnskapen om når Z inntreffer, kunnskapen om når x inntrenger gir ikke noen sannsynlighet for at Y inntreffer. Altså, det at man finner en cavity er uavhengig fra om pasienten har tannpine, men både tannpinen og hendelsen å finne en cavity er avhengig av om tannen har en cavity eller ikke.
P(toothache, catch | cavity) = P(toothache | cavity) * P(catch | cavity)
Explain why independence and conditional independence is useful when reasoning with uncertainty.
Independence and conditional independence are useful when reasoning with uncertainty because they reduce the complexity of the inference and the representation of the domain. Both independence and conditional independence enable the full joint probability tables to be reduced from exponential growth to linear growth, albeith full independene reduce the growth more. Independence allows complete set of variables to be divided into independent subsets and then the full joint distribution can be factored into separate joint distributions on those subsets. For example, the full joint distribution on the outcome of n independent coin flips, P(C1, …, Cn) has 2n entries, but it can be represented as the procuct of n single-variable distributions P(Ci). Hence, when independence assertions are available, they can help in reducing the size of the domain representation and the complexity of the inference problem.
Conditional independence also allows the full joint distribution to be divided into smaller tables that contain the conditional probability distributions. Because the probabilities sum to one the conditional probabilities can be further reduced, and instead of an exponential growth, O(2n), in probabilities, linear growth, O(n2k), can be achieved where k is the maximum number of possible values a variable can have.
What is a transition model ?
Transition model (1p): The transition model specifies the probability distribution over the latest state variables given the previous values: P(Xt|X_0:t-1).
Med andre ord, vi antar at en transition fra en state til en annen er markoviaø, altså at the probability distribution of results given an action is only dependent on the agents current state and not its history. You can think of the transition model as a big three dimensional table for the function:
P(s’ | s,a)
Given the agent is in a state, s, and performs an action, a, it will reach a new state, s’, with the probability of P(s’ | s,a).
What is a sensor model?
Sensor model (1p): The sensor model specifies the the probability distribution over the evidence variables: P(E_t|X_0:t , E_0:t-1).
Med andre ord, sannsynligheten for å fange opp en state med sensorene man har.
Også kalt observasjons modell!
Explain the Markov assumption for a second-order Markov model
Markov assumption for seond-order Markov model (1p): The current state depends only on only on the two previous states: P(X_t | X_0:t-1) = P( X_t | X_t-2, X_t-1).
Explain the sensor Markov assumption
Sensor Markov Assuption (1p): The evidence variables, E_t, depend only on the current state variables and not any of the history of state and evidence variables: P(Et|X0:t,E0:t-1) = P(Et|Xt)
Hva er en Hidden markovian model?
En temporal probabilistic model hvor staten i prosessen er beskrevet av én single discrete random variable. De mulige verdiene til variabelen er de mulige statene i verdenen.
Eks: I regn og paraply eksempelet er det kun én state, regn, og derfor er det en HMM
In temporal inference, what four basic inference tasks do we have for temporal models?
- Filtering ( Task of computing the belief state – the posterior distribution over the most recent state – given all evidence to date. This means computing: P(Xt|e1:t).)
- Prediction (The task of computing the posterior distribution over the future state given all evidence to date. This means computing: P(Xt+k|e1:t).)
- Smoothing (Task of computing the posterior distribution over a past state, given all evidence up to the present. This means computing: P(Xk|e1:t), for som 0 ≤ k < t.)
- Most likely explanation (The task of computig the squence of states that is most likely to have generated a set of observations, given a sequence of observations. This means computing argmaxx1:t P(x1:t|e1:t).
Hva er filtering?
her regner vi ut belief state gitt distribusjonen over de nyeste X_t, gitt alt beviset frem til nå. Det kalles også for state estimation.
Ex. Man regner ut sannsynligheten for regn i dag gitt alle tidligere observasjonene.
P(X | e_1:t)
Hva er smoothing?
Med smoothing regner man ut distribusjonen over en tidligere X_t gitt alt beviset frem til nå.
Ex: Sannsynligheten for at det regnet forrige onsdag gitt alle observasjonene frem til nå.
P( X_k | e_1:t)
Hva er prediction?
Regner ut distribusjonen over fremtidige X_t gitt alt bevis frem til nå.
Ex: Sannsynligheten for at det regner tre dager fra nå gitt beviset frem til i dag.
P(X_t+k | e_1:t)
Hva er most likely explanation?
Gitt sekvensen over observasjoner ønsker vi å finne den sekvensen av X_t som mest sannsynlig gav disse observasjonene.
Ex: Observerer vi at paraplyen tre dager på rad og ikke den fjerde er det mest sannsynlig at det regnet de tre første dagene og ikke den fjerde.
argMax_X1:t P(X_1:t | e_1:t)
What are the steps in the CBR cycle?
- Input case (en beskrivelse av problemet uten løsning)
- retrieve (En prosess hvor tidligere caser lignende til input casen blir hentet fra case-base)
- Reuse(Løsninger fra tidligere lignende caser blir tilpasset problemet. Enten ved å kopiere løsningen fra det som ligner mest eller ved kompleks adapsjon regler for en kombinert løsning)
- Resolve(Valider den foreslåtte løsningen(bruker))
- Retain(Lagre casen I case-base)
Case-base = En database med tidligere problem løst i form av caser med en problem beskrivelse og løsning.
A case is a central concept in CBR, and cases typically have two parts. Which parts are they?
Cases have a problem description and a solution.