2. Individuelle Entscheidungen und Biases Flashcards

1
Q

Homo oeconomicus
- Definition

A

Der homo oeconomicus ist das Modell vom menschlichen Entscheider in der (neo-)klassischen Wirtschaftstheorie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Homo oeconomicus
- Eigenschaften

A
  • Rationalität
  • Feste Präferenzen
  • Pures Eigeninteresse
  • Vollständige Informationen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Soziale Präferenzen

A

Pures Eigeninteresse (selfishness):
→ Nutzen hängt ausschließlich von eigenen Payoff ab: Ui = Ui (π_i)

Soziale Präferenzen:
→ Nutzen hängt von dem eigenen Payoff sowie dem Payoff anderer ab: Ui = Ui (π_i, π_-i)

Beispiele:
- Familie: z.B. Eltern-Kind-Beziehung
- Alltag: z.B. Fremden helfen
- Arbeitsmoral hängt von wahrgenommener Fairness der Firmenpolitik ab
- Ausmaß an Steuerhinterziehung hängt von der wahrgenommenen Fairness des Steuersystems ab

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Reziprozitätsmodelle

A

Struktur von Reziprozitätsmodellen:
Ui = π_i + ρ_i * ΣKindness_j to i * Response i to j
- Wenn anderer Spieler j nett ist (kindness > 0), wählt Spieler i eine
positive Antwort (Response > 0).
- Wenn anderer Spieler j unfreundlich ist (kindness < 0), wählt Spieler i
eine negative Antwort (Response < 0).

Wie definiert man Kindness (Nettigkeit)?
- Hängt von den möglichen Alternativen ab
- Aktion ist vorsätzlich nett, wenn Spieler Alternative hatte weniger nett zu sein
- Aktion ist vorsätzlich unfreundlich, wenn Spieler eine „vernünftige” Alternative hatte netter zu sein

Verändern von Präferenzen (Nutzenfunktion) = Öffnen der Büchse von Pandora. Daher sollte ein Modell…:
- auf alle (ökonomischen) Spiele anwendbar sein
- konstante Parameter haben

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Fazit zu sozialen Präferenzen

A
  • Soziale Präferenzen wie Fairness und Reziprozität spielen eine Rolle
  • Soziale Präferenzen können erfasst werden, indem man diese in die Nutzenfunktion integriert
  • Menschen sind heterogen, d.h. nicht jeder hat soziale Präferenzen in jeder Situation
  • Die Entstehung von Outcomes hängt u.a. ab von
    → Ökonomische Rahmenbedingungen / strategischen Situation
    → Verteilung der versch. Typen von Akteuren (z.B. egoistisch, fair etc.)
  • Fairness wird eher individuell evaluiert
  • Intentionen (Verhaltensabsichten/ Absichten) & Outcomes spielen eine Rolle
  • Im Vergleich zu Outcome-basierten Modellen liefern Reziprozitätsmodelle eine bessere Beschreibung menschlichen Verhaltens, allerdings auf Kosten der Handhabbarkeit.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Kann Fairness/Altruismus die hohen Angebote der Proposer erklären?

A
  • Wie können wir das testen?
    → Antwort: Vergleiche Ergebnisse des Ultimatumspiels mit denen des Diktatorspiels
  • Resultate:
    → Verteilung der Angebote s im Diktatorspiel verschiebt sich relativ zum Ultimatumspiel systematisch Richtung Null (Modalwert s = 0)
    → Ein Teil der hohen Angebote im Ultimatumspiel aus Angst vor Ablehnung.
    → Aber: Auch unter realer Bezahlung gibt es eine Konzentration von Angeboten rum um den „equal split“
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Zwei Ansätze: Outcome-basierte & Intentionsbasierte Modelle

A
  • Gemeinsamkeiten
    → Modelle modifizieren die Nutzenfunktion, d.h. es wird angenommen, dass vollständige Präferenzen nicht allein durch die eigene Auszahlung beschrieben werden können
    → Wichtig: Alle Modelle bewahren die Annahme der vollkommenen Rationalität
  • Unterschiede
    → Während Outcome-basierte Modelle mit Hilfe von Standard-Nutzen-und Spieltheorie analysiert werden können, benötigen Intentionsbasierte meist einen komplexeren Ansatz (-> Psychologische Spieltheorie)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Outcome-basierte Ansätze

A
  1. Altruismus: Mein eigener Nutzen steigt mit dem Wohlergehen anderer
    → δU_i (x_i, x_j) / δx_j > 0
  2. Schadenfreude: Mein eigener Nutzen sinkt mit dem Wohlergehen anderer
    → δU_i (x_i, x_j) / δx_j < 0
  3. Ungleichheitsaversion: Subjekte mögen keine Ungleichheit relativ zu einer relevanten Vergleichsgruppe, d.h. abhängig von einem Referenzpunkt steigt oder fällt mein eigener Nutzen mit dem Wohlergehen anderer
    → δU_i (x_i, x_j) / δx_j > 0 (if x_i > x_j)
    → δU_i (x_i, x_j) / δx_j < 0 (if x_i < x_j)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Outcome-basierte Ansätze
- Theorien

A
  • Fehr&Schmidt (1999): Differenz πi –πj (absolute Unterschiede)
  • Bolton&Ockenfels (ERC, 2000): Anteil π/Σ πj (Mittelwert)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was würde jemand aus der mittleren Gruppe tun?
- Präferenzen nach Fehr & Schmidt
- Präferenzen nach Bolton & Ockenfels

Beispiel: Einkommensklassen
- Hoch (15)
-Mittel (10)
-Niedrig (5)

A

Fehr & Schmidt:
- Einkommen so umverteilen, dass es keinerlei Differenz mehr zwischen seinem und Einkommen der Anderen gibt. (15, 10, 5 => 10, 10, 10)

Bolton & Ockenfels:
- Egal, dass die einen mehr und die anderen weniger als er haben, da er genau im Durchschnitt liegt. (15 + 10 + 5 => 30 / 3 = 10)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Intentionsbasierter Ansatz (Absichten / Verhaltensabsichten)

A
  • Reziproke Präferenzen sind bedingte soziale Präferenzen, d.h. mein eigenes Verhalten hängt von dem Verhalten der Personen ab, mit denen ich interagiere.
  • Handlungsmaxime: „quid pro quo“ / „Auge um Auge, …“ / „Wie du mir so ich dir“
  • Reziprozität:
    → Bereitschaft freundliche Aktionen zu belohnen (positive Reziprozität) und unfreundliche Aktionen zu bestrafen (negative Reziprozität), auch wenn dies Kosten verursachen.
    → D.h. wenn jemand nett zu mir ist, geht sein Payoff positiv in meinen Nutzen ein, und wenn jemand unfreundlich zu mir ist, geht sein Payoff negativ in meinen Nutzen ein
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Simon‘s bounded rationality (Simon’s begrenzte Rationalität)

A

“There can no longer be any doubt that the micro assumptions of the [classic and neoclassical] theory –the assumptions of perfect rationality –are contrary to the fact. It is not a question of approximation; they do not even remotely describe the processes that human beings use for making decisions in complex situations.” Simon (1979)

  • Begrenzte Rationalität heißt, dass…:
    → Entscheidungsträger oft nicht genügend Informationen haben
    → Zeit- und Kostenbeschränkungen die Qualität und Quantität von Informationen limitieren
    → Entscheidungsträger nur kleine Menge an Informationen bereit halten können
    → Es Grenzen der Intelligenz und der Fähigkeit gibt, die optimale Entscheidung zu berechnen

➔ Entscheidungsträger werden statt der besten womöglich eher eine andere akzeptable oder vernünftig erscheinende Lösung wählen.
➔ Man being „intendedly rational, but limited to do so” Simon (1947)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Verfügbarkeitsheuristik (Availability heuristic)

A

“People asses the frequency, probability, or likely cause of an event by the degree to which instances or occurrences of that event are readily available in memory.” Tversky and Kahneman (1973)

➔ Die Leichtigkeit, mit der einem bestimmte Vorfälle und Begebenheiten in den Sinn kommen, beeinflusst die Urteilsfindung.
- kann eine nützliche Entscheidungsregel für Manager sein, da Ereignisse, die häufig vorkommen, einem leichter in den Sinn kommen als weniger häufige Ereignisse
→ Heuristik führt oft zu einem akkuraten Urteil
- Aber: kann auch irreführend sein, da die Verfügbarkeit von Informationen auch von anderen Faktoren abhängt, die mit der objektiven Häufigkeit des Ereignisses nicht zusammenhängt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Verfügbarkeitsheuristik (Availability heuristic)
- Ease of recall

A
  • Individuen beurteilen Ereignisse, an die sie sich leichter erinnern können, z.B. weil sie lebhaft in Erinnerung geblieben sind oder gerade erst geschehen sind, als zahlreicher als Ereignisse, an die sie sich nicht so leicht erinnern können.
  • Experimente durch Tversky und Kahneman (1974)
    → Individuen wurde eine Liste von berühmten Persönlichkeiten beider Geschlechter vorgelesen. Es gab zwei Listen für zwei Gruppen:
    A) Liste, auf der die Frauen berühmter waren als die Männer, aber insgesamt mehr Männer auf der Liste waren;
    B) Liste, auf der die Männer berühmter waren als die Frauen, aber insgesamt mehr Frauen auf der Liste waren.
    → In beiden Gruppen haben die Teilnehmer fälschlicherweise angenommen, dass das Geschlecht mit den berühmteren Namen häufiger vorkommt als das andere.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Verfügbarkeitsheuristik (Availability heuristic)
- Retrievability

A
  • Individuen haben verzerrte Einschätzungen von der Häufigkeit von Ereignissen aufgrund der Art und Weise, wie ihr Gedächtnis den Suchprozess strukturiert
  • Experimente von Tversky und Kahneman (1983):
    → Individuen wurden gefragt:
    A) Wie viele Wörter der folgenden Form _ _ _ _ _ n _ erwarten Sie auf 4 Seiten eines englischsprachigen Romans?
    B) Wie viele Wörter der folgenden Form _ _ _ _ ing erwarten Sie auf 4 Seiten eines englischsprachigen Romans?
    → Die meisten Leute geben bei der Frage B) eine höhere Zahl an als bei A). Aber diese Antwort muss falsch sein.
    → Kahneman und Tversky argumentieren, dass Wörter mit der Endung „ing“ Wörter sind, die leichter aus dem Gedächtnis abgerufen werden können, da es im Englischen das Suffix „ing“ gibt.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Prospekttheorie (Neue Erwartungstheorie):
Wahrscheinlichkeiten und die Π(p) –Funktion

A

Idee: Modifizieren der Erwartungsnutzentheorie so wenig wie möglich, um bestimmte experimentelle Beobachtungen zu erklären
- Voraussetzung: Menschen interpretieren Wahrscheinlichkeiten nicht so, wie sie dargestellt werden.
- Stattdessen ist die Wahrscheinlichkeit p verzerrt und kann durch die Funktion Π(p) beschrieben werden.
→ Statt den Nutzen mit der Wahrscheinlichkeit p zu multiplizieren, schlagen K&T vor, dass Menschen die Nutzen mit Π(p) multiplizieren. Π(p) als die „wahrgenommene Wahrscheinlichkeit“

Beispiel:
Teilnehmer in Experimenten bevorzugen (€30) gegenüber (€45, 80%),
aber sie bevorzugen (€45, 20%) gegenüber (€30, 25%).
- Wendet man die Erwartungsnutzentheorie an, erhält man
→ u(30€) > 0,8 * u(45€)
→ 0,25 * u(30€) < 0,2 * u(45€), was nicht beides gelten kann
- Dieses Verhaltensmuster nennt man „certainty effect“
- Implikationen
→ Menschen reagieren am sensibelsten in der Nähe der Extreme, d.h. von 1 (Sicherheit) und 0 (unmöglich)
→ Sehr kleine Wahrscheinlichkeiten werden übergewichtet
→ Sehr große Wahrscheinlichkeiten werden untergewichtet

17
Q

Prospekttheorie: Die Wertfunktion

A
  • Gemäß der Prospekttheorie bewerten Individuen Zustände wie Wechsel in Bezug zu einem Referenzpunkt (normalerweise ihrem aktuellen Zustand)
  • K&T nehmen an, dass Entscheidungen so getroffen werden, also ob wir eine Wertfunktion für Gewinne und Verluste haben
  • Die Wertfunktion zeigt, dass
    → Verluste schwerer wiegen als äquivalente Gewinne (Verlustaversion)
    → Wir risikoavers sind bei Gewinnen
    → Wir risikoliebend sind bei Verlusten
18
Q

Besitztumseffekt und Status Quo Bias

A

Die Tatsache, dass Menschen meist mehr dafür verlangen ein Objekt aufzugeben als es zu erlangen, nennt man Besitztumseffekt (endowment effect).

  • Konsequenz aus Verlustaversion
  • Im Gegensatz zu der Annahme von Coase, dass der anfängliche Eigentümer irrelevant ist
  • Resultiert im Status Quo Bias: DieStatus-quo-Verzerrung (auch Tendenz zum Status quo genannt) ist eine kognitive Verzerrung, die zu einer übermäßigen Bevorzugung des Status-quo gegenüber Veränderungen führt
    → Menschen wollen, dass die Dinge ungefähr so bleiben, wie sie sind.
19
Q

Anchoring

A
  • Menschen entwickeln Schätzungen, indem sie bei Anfangsanker starten, egal welche Information gegeben wird, und passen vom Anker aus an, um die Antwort zu finden
  • Anpassungen gehen nicht weit genug weg vom Anker
  • Existenz des Ankers veranlasst Menschen Informationen zu suchen, die konsistent sind mit Anker
  • Experiment (Tversky & Kahneman, 1974):
    → Jeder Teilnehmer bekam als Startpunkt Zufallszahl (durch Drehen eines Glückrads)
    → Teilnehmer wurden gefragt, ob der Anteil afrikanischer Länder in der Uno in % höher oder niedriger als die Zufallszahl ist.
    → Dann wurden sie nach ihrer Schätzung gefragt
    → Ergebnis: Die Schätzung waren korreliert mit den Zufallszahlen
20
Q

Mental accounting

A
  • Menschen haben verschiedene „mental accounts“, die sie nutzen, um zu organisieren, bewerten und finanzielle Aktivitäten zu verfolgen. Das beeinflusst ihre Entscheidungen.(Thaler 1999)
    -Beispiel:
    → Teilnehmer wurden gefragt, ob sie eine Theatervorstellung auch noch besuchen würden, wenn sie ihr Ticket im Wert von $10 auf dem Weg zum Theater verlieren
    → Die selbe Frage wurde dann gestellt unter der Annahme, dass kein Ticket im Vorfeld gekauft worden war und das $10 verlorengegangen sind.
    → Tversky und Kahneman zeigen deutlich, dass die Teilnehmer, die ihr Ticket verloren haben, die Vorstellung weniger häufig besuchen würden.
    → Das bedeutet, dass Geld in einem „entertainment account“ oder einem „theater account“ nicht vereinbar ist mit dem „general expenses account“
21
Q

Unrealistischer Optimismus

A
  • Entscheidungsfehler, der Menschen dazu veranlasst zu glauben, dass ihre Zukunft besser und schöner wird als die von anderen Menschen.
  • Menschen neigen dazu ihre eigenen sozialen sowie intellektuellen Fähigkeiten zu überschätzen
  • Auch neigen Menschen dazu ihr eigenes Risiko (z.B. an etwas zu erkranken) unterschätzen
22
Q

Andere positive Illusionen
- Unrealistische positive Sicht auf sich selbst

A

Individuen tendieren dazu sich selbst als besser wahrzunehmen als andere hinsichtlich verschiedener Eigenschaften (Brown 1986)

23
Q

Andere positive Illusionen
- Self-Serving Attribution

A
  • Menschen neigen dazu, sich einen unverhältnismäßig großen Anteil an einem kollektiven Erfolg selbst zuzuschreiben und akzeptieren nur wenig Verantwortung für kollektives Versagen (Kramer 1994)
  • „Victory has a thousand fathers but defeat is an orphan“ J.F. Kennedy
24
Q

Andere positive Illusionen
- Illusion of Control

A
  • Menschen glauben fälschlicherweise, dass sie nicht kontrollierbare Ereignisse unter Kontrolle haben (Crocker 1982)
  • überschätzen Ausmaß, mit dem ihre Handlung ein bestimmtes Ergebnis zu induzieren vermag
    → erfahrene Würfelspieler glauben an „sanfte“ Würfe
25
Andere positive Illusionen - Fluch des Wissens
- Wenn man das Wissen, das andere haben, einschätzen muss, tendieren die Meisten unbewusst dazu, das eigene Wissen, das andere nicht haben, nicht miteinzubeziehen - Das Wissen, das man hat, ist schwer zu vergessen, wenn man sich vorstellen muss, was andere wissen. - Der „Curse of Knowledge“, oder zu Deutsch: der Fluch des Wissens, beschreibt die kognitive Verzerrung einer Situation, in der man annimmt, der gegenüber hätte denselben Wissensstand wie man selbst. Wenn Personen debattieren und nicht zu einer Übereinkunft kommen, kann es gut sein, dass die Argumente der einen Seite ins Leere schießen, da sie von der anderen Person nicht richtig verstanden werden, da diese einen bestimmten Wissensstand voraussetzt den die andere Person schlichtweg nicht erfüllen kann.
26
Andere positive Illusionen - Confirmation trap/ bias („Bestätigungsfehler“)
Ein Bestätigungsfehler ist ein Begriff der Kognitionspsychologie, der die Neigung bezeichnet, Informationen so zu ermitteln, auszuwählen und zu interpretieren, dass diese die eigenen Erwartungen erfüllen.
27
Andere positive Illusionen - Hindsight Bias („Rücksicht“)
- Nachdem Menschen herausgefunden haben, ob ein Ereignis stattgefunden hat oder nicht, tendieren sie dazu, die Wahrscheinlichkeit, mit der sie den Eintritt richtig vorhergesagt hätten, zu überschätzen. - Ergebnisse einer Studie (Fischhoff und Beyth 1975): → Für Ergebnisse, die tatsächlich geschehen sind, lag die erinnerte Wahrscheinlichkeit höher als die tatsächlich genannte. → Für Ereignisse, die tatsächlich nicht geschehen sind, lag die erinnerte Wahrscheinlichkeit niedriger als die tatsächlich genannte. - Hindsight bias scheint mit dem Mangel an alternativen Hypothesen im Gedächtnis zusammenhängen, sobald das Ereignis bekannt ist. - Abhilfe: Ermutigung zum Denken in Alternativen
28
Andere positive Illusionen - Versunkene Kosten und escalation of commitment
- Viele schwierige Managemententscheidungen betreffen eher eine ganze Serie von Entscheidungen als eine einzige Entscheidung. - Dann ist man einem Bias ausgesetzt, bei dem eine Tendenz dazu besteht, das Commitment auf das anfängliche Verhalten zurückzuführen. - Unser Referenzpunkt sollte der aktuellen Zustand sein und wir sollten alle Alternativen abwägen, in dem wir die zukünftigen Kosten und Gewinne betrachten. - Wir treffen häufig Entscheidungen, mit denen wir ein früheres Engagement rechtfertigen, sogar wenn diese früheren Kosten „versunken“ sind.
29
Andere positive Illusionen - Lernen durch Beobachtung in der Gruppe
- Wir nehmen an, dass jedes Individuum ein privates Signal über die gewählte erhält, indem einer der Bälle aus der Urne gezogen wird. Das Signal ist entweder Rot oder Schwarz und Rot ist relativ wahrscheinlicher, wenn Urne A gewählt worden ist. Analog ist Schwarz relativ wahrscheinlicher, wenn Urne B gewählt worden ist. - Jedes Individuum beobachtet Rot mit der Wahrscheinlichkeit p = 2/3, wenn die Urne A gewählt worden ist und mit Wahrscheinlichkeit 1/3, wenn die Urne B gewählt worden ist. Analog beobachtet jedes Individuum Schwarz mit Wahrscheinlichkeit p = 2/3, wenn die Urne B gewählt worden ist und mit Wahrscheinlich 1/3, wenn die Urne A gewählt worden ist. - p(Rot| Urne A) = 2/3 - Bay'sche Regel: p(A|B) = [p(B|A) * p(A)] / p(B) - Satz der totalen Wahrscheinlichkeit: p(B) = p(B|A1) * p(A1) + p(B|A2) * p(A2) - *p(R) = p(R|A) * p(A) + p(R|B) * p(B)= 2/3 * 1/2 + 1/3* 1/2 = ½ - Nachdem Rot beobachtet worden ist, ist die individuelle a posteriori (“Aus der Erfahrung gewonnen) Wahrscheinlichkeit, dass es sich um Urne A handelt, 1/3. Dies kann durch Bayes’sche Regel bestätigt werden (identisch bei der Beobachtung von Schwarz statt Rot)
30
Szenario mit beobachtbaren Signalen
- Angenommen, die private Information über das Signal wird öffentlich - Weil alle vergangenen Signale öffentlich beobachtet werden, werden Information akkumuliert, so dass die Individuen ihre beliefs ständig anpassen können und schließlich die richtige Entscheidung treffen können
31
Szenario mit beobachtbaren Entscheidungen
- Angenommen die privaten Signale sind keine öffentlichen Informationen. Nur die Entscheidungen werden öffentlich getätigt. - Man könnte meinen, dass auch die beobachtbaren Entscheidungen der Vorgänger dazu führen, dass schließlich die wahre Urne gefunden wird. Das ist aber falsch! - Wenn die Entscheidungen beobachtbar sind, konvergieren die Individuen leicht zu einer falschen Entscheidung. Schlimmer noch, einige wenige frühe Fehler können dazu führen, dass alle folgenden Entscheidungen falsch sind. - Der Grund hierfür ist, dass sich im Falle der beobachtbaren Entscheidungen die öffentlichen Informationen irgendwann nicht mehr akkumulieren. - Betrachtet sei folgende Sequenz: → Individuum 1 erhält das private Signal S und wählt “Urne B”. → Individuum 2 erhält das private Signal S und wählt “Urne B”. → Individuum 3 erhält das private Signal R und wählt “Urne B”. → Individuum 4 erhält das private Signal R und wählt “Urne B”. ➔ Individuum 3 (und alle folgenden Individuen) befindet sich in einer Informationskaskade, d.h. seine rational optimale Entscheidung hängt nicht von seinem privaten Signal ab, da mindestens zwei Individuen zuvor das Signal S gehabt haben müssen. (wenn man annimmt, dass im Falle eines Unentschiedens ein Individuum eher auf sein privates Signal vertraut) ➔ Die Gruppe ist nicht in der Lage, die Information zu aggregieren, so dass eine effiziente Entscheidung getroffen werden kann.
32
Beispiele für Informationskaskaden
- Anlegeverhalten auf dem Aktienmarkt - Modeerscheinungen - Investitionen in bestimmte Projekte - Managementpraktiken - Leistungs-und Pontezialbeurteilung - ..
33
Zusammenfassung
- Entgegen des angenommenen Menschenbildes des homo oeconomicus in der neoklassischen Ökonomie wissen wir, dass Menschen von rationalem Verhalten abweichen. - Sie haben soziale Präferenzen bezüglich der Verteilung der Outcomes, aber auch die Intentionen für Handlungen werden einbezogen und beeinflussen den individuellen Nutzen (Reziprozität). - Zudem kennen wir aus vielen experimentellen Arbeiten Entscheidungsfehler (Biases). Zu den wichtigsten zählen: Verlustaversion, Endowment Effect (=Besitztumseffekt), Sunk Cost Fallacy, Overconfidence, Anchoring, Mental Accounting, Hindsight Bias... - Informationskaskaden entstehen, wenn Individuen die Entscheidungen anderer beobachten können, aber nicht die Informationen die zu den Entscheidungen geführt haben. - Zur Reduktion von Biases und für eine angemessene Reaktion darauf hilft es, die Biases zu verstehen