deck_8902147 Flashcards
Was mich nicht umbringt Trugschluss
Was mich nicht umbringt, macht mich stärker. - Nietzsche. Wenn Menschen eine Krise durchlebt haben, reden sie oft davon, dass die Krise sie gestärkt hat. Dies ist jedoch ein Trugschluss, da ein Mensch nach einer Krise meist nur etwas mehr Erfahrung gewonnen hat aber während der Krise dem Tod, Bankrott oder Abgrund sehr nahe war.So ist es z. B.: ein Fehler als Unternehmen zu denken, das man aus einer Krise gestärkt hervorgeht. Man hat Kunden, Aufträge, Mitarbeiter oder sogar Teile des Unternehmens verloren während der Krise. Nach der Krise steht man nun ohne diese da und es benötigt einige Zeit, wieder auf den vorherigen Stand zurückzukehren.Auch ein Motorradfahrer, der in einem Unfall verwickelt war und das Motorradfahren aufgibt, hätte schon im Voraus wissen können, dass Motorradfahren gefährlich ist und hätte diese Erfahrung nicht selbst machen müssen. Die Erfahrung stärkt auch hier den Menschen nicht.
Groupthink
Wenn in einer Gruppe viele ihre Meinung enthalten, da sie nicht der ewige Störenfried sein wollen und dadurch die einheitliche Meinung vereinzelter in der Gruppe bestätigen, entsteht Gruppendenken (Groupthink). So können auch intelligente Menschen zusammen idiotische Entscheidungen treffen, die jeder einzelne nicht so getroffen hätte.Beispiele:- Nationalsozialismus- Schweinebucht-Invasion (Kennedy und all seine Berater stimmten dem Einmarschplan zu, obwohl sämtliche Annahmen für die Invasion falsch waren. Die Berater trauten der starken Führungskraft und äusserten ihre eigene Meinung nicht.)Tipps:- bei Gruppe mit starkem Konsens -> äussern Sie ihre Meinung unbedingt- wenn sie die Gruppe führen -> jemanden bestimmen der die Position der gegenteiligen Meinung einnehmen soll - systematische Methoden anwenden
THE ZERO-RISK BIAS
Der Wunsch für ein Null-Risiko scheint ein Starker zu sein. Gewünscht ist immer das Nullprozent-Risiko zu erreichen, also bei einer Entscheidung kein Risiko eingehen zu müssen, doch dies ist nicht möglich. Gefahren zu 100% zu eliminieren ist nicht möglich, da die Kosten oder Ausmasse der Risiken-Elimination zu umfangreich werden und sämtliche Progression hemmen würden. Alltägliche Beispiele: wir begegnen immer wieder Versicherungsangeboten für geringe Risiken wie Garantieverlängerungen, Annullationsversicherungen oder stornierbare teure Bahn und Flugtickets anstelle von fixen Buchungen und geben dafür Geld aus, das wir bei etwas mehr Risikobereitschaft nicht ausgeben müssten. Nichts ist sicher. Die einzige Sicherheit die erlangt werden kann ist in unserem Gefühl, in unserer Akzeptanz unserer Situation und unserer Erwartungen. Wenn Sie geringe Risiken eingehen, sparen Sie wahrscheinlich Geld.
Forer Effekt
Weshalb funktionieren Pseudowissenschaften wie die Astrologie? Dafür ist der Forer Effekt zuständig, der vom Psychologen Bertrand Forer 1948 beschrieben wurde.Menschen haben die Tendenz, Persönlichkeitsbeschreibungen, die auf viele andere Menschen ebenfalls passen, in Bezug auf sich selbst als höchst zutreffend einzustufen.Der Forer Effekt besteht aus vier Grundbausteinen: Die Aussagen in bspw. Horoskopen sind sehr allgemein gehalten und treffen deshalb auf viele Leute zu. Schmeichelhafte Aussagen, die nicht zutreffen, werden trotzdem gerne akzeptiert. Solche Texte machen kaum Negativaussagen (sagt nicht, wie jemand nicht ist). Das würde schneller zu Widersprüchen führen. Confirmation Bias: Wir akzeptieren, was unserem Selbstbild entspricht, und filtern alles andere unbewusst aus. Dieser Denkfehler kann entlarvt werden, indem folgendes Experiment durchgeführt wird. Ein angeblicher Guru erstellt für 20 Personen je eine Beschreibung. Alle diese Personen wählen daraus diejenige Beschreibung, die am besten auf sie zutrifft. Erst wenn (fast) jede Person jene Beschreibung auswählt, die für sie erstellt wurde, hat man es mit einem wahren Könner zu tun. Die Suche nach einem Könner ist bisher erfolglos.Gedanke zum Schluss: Wenn der Mensch sich selber kaum kennt, wie will er jemanden beschreiben, den er nicht kennt?Quelle: Klar denken, klug handeln
Die Incentive-Superresponse-Tendenz
Menschen reagieren auf Anreizsysteme, weil Menschen tun, was in Ihrem Interesse liegt.Das Anreizsystem ist der Zusammenhang zwischen Belohung bei bestimmtem Ergebnis oder Verhaltensweise.Dabei sind Geld, Schulnoten, Nobelpreise, Spezialbehandlung im nächsten Leben, (…) mögliche Anreize.Menschen ändern ihr Verhalten oft schnell und radikal, wenn Anreize eingeführt oder geändert werden.Dabei reagieren sie direkt auf die Anreize, nicht auf die indirekten Absichten dahinter.Somit bringen gute Anreizsysteme die Absicht und den Anreiz in Deckung (+), schlechte schaffen dies nicht (-):+ Der Ingenieur einer Brücke musste im alten Rom bei der Eröffnung unter dieser stehen, sorgte also für beste Sicherheit.- Ein Banksachbearbeiter, der über die Menge der Kreditverträge belohnt wird, riskiert eher ein miserables Kreditportfolio.- Dienstleister, die nach Aufwand bezahlt werden, interessieren sich dafür, Mehraufwand zu generieren- Wenn das Abgeben von Fundstücken wie alte Pergamente und Dinosaurierknochen nach Anzahl vergütet wird, wurden schon wertvolle Stücke zerteilt- Auch begannen Leute mit der Rattenzucht, um die Anzahl abgegebener toter Tiere bei einer Plage zu erhöhen, anstatt deren Population wirklich zu verringern.Fazit:Wenn Sie das Verhalten eines Menschen oder einer Organisation erstaunt, fragen Sie sich, welches Anreizsystem dahintersteckt. Verhalten von Menschen oder Organisationen lassen sich zu 90% auf ein Anreizsystem zurückführen.Leidenschaft, gesitige Schwäche, psychische Störungen oder Bosheit machen maximal 10% aus!
Ambiguitätsintoleranz
Ambiguität heisst Mehrdeutigkeit oder Unbestimmtheit. Menschen mögen Ambiguität nicht. Darum sind uns bekannte Wahrscheinlichkeiten lieber als unbekannte. Aktuelles Beispiel: Über die Influenzaviren sind viele Statistiken vorhanden und über dem Coronavirus nicht. Darum kommt es zu Hamsterkäufen, da eine Unsicherheit in der Bevölkerung vorhanden ist. Der Bundesrat muss Entscheidungen treffen, bei denen Unbestimmtheit vorhanden ist. Risiko: Die Wahrscheinlichkeit ist bekannt, jedoch entscheidet man selber ob das Risiko zu gross ist oder nicht. Unbestimmtheit (Ambiguität): Eine Entscheidung kann eine bedeutend schwerwiegendere Konsequenz mit sich ziehen. Es ist nicht berechenbar wie beim Risiko.Wie gut ein Mensch die Ambiguität ertragen kann, kommt auf die Amygdala in der Hirnregion an. Je nachdem wie sie gebaut ist, kann man Unbestimmtheit leichter oder schwerer ertragen. Es gibt nur in den wenigsten Bereichen klare Wahrscheinlichkeiten. Das heisst, wenn Ambiguität vorhanden ist, muss man lernen damit umzugehen und sie zu ertragen.
The Confirmation Bias
The Confirmation Bias (Bestätigungsfehler) Unser Gehirn kreiert Muster aus gewonnen Informationen. Unterbewusst neigen wir dazu diese Muster zu bestätigen (Dopamin) oder die Informationen zu verwerfen, wenn diese nicht in das bekannte Muster passen. Der Confirmation Bias entsteht, wenn wir unser Denken in die bereits vorhandenen Muster zwingen. Anders ausgedrückt, unser Bewusstsein denkt wir haben recht, während das Unterbewusstsein uns in die falsche Richtung führt. Beispiele: Flatearth-Theorie: Anhänger dieser Gruppen nehmen nur Fakten wahr, welche ihre absurde Theorie bestätigen. Extremisten: Unabhängig von der Richtung sind ihre Argumente sehr einseitig und von ihren gewohnten Mustern geprägt. Stereotypen: Diese entstehen aus demselben Grund. Aus gesammelter Information in der Vergangenheit kategorisieren wir Menschen nach Stereotypen, ohne diese wirklich zu kennen. Um diesen Fehler zu umgehen sind wir gezwungen uns und unsere Denkweise stets zu hinterfragen.
Das Revidieren der Erinnerungen
Bei diesem Denkfehler geht es darum, dass das Gehirn die Erinnerungen fälscht. Vor allem entsorgt unser Gehirn alte und falsche Ansichten, um die Illusion zu schaffen, dass wir immer schon recht gehabt hatten. Somit passen wir unbewusst die vergangenen Ansichten den heutigen an, weil es emotional schwierig ist uns Fehler einzugestehen. Dabei reicht das Phänomen so weit, dass wir gewisse Erinnerungen fälschlicherweise so fehlerfrei wie eine Fotoaufnahme annehmen. So genannte Flashbulb Memories . Doch diese sind genau so fehlerhaft und das Ergebnis von Rekonstruktion. Beispiel: Laut einer Studie von 1983 vom amerikanischen Politikwissenschaftler Gregory Markus konnten sich die wenigsten eingestehen, dass sie zu kontroversen politischen Thesen eine andere Meinung hatten als vor zehn Jahren. Dabei wurden die gleichen 3000 Menschen in Abstand von zehn Jahren zu ihrer politischen Haltung befragt. Aber zehn später sollten sie ebenfalls angeben, wie ihre Meinung vor zehn Jahren war. Dabei stellte sich heraus, dass die Leute fälschlicherweise angegeben, dass sie vor zehn Jahren die gleichen Meinungen gehabt hatten.
Volunteer’s Folly
Volunteer’s Folly Definition: Die Freiwilligenarbeits Torheit (Volunteer’s Folly) besagt, dass man sich lieber ehrenamtlich betätigt, anstatt sein Geld zu spenden. Es wäre jedoch viel sinnvoller sein Geld zu spenden. Lediglich wenn man die Arbeit effektiv beherrscht oder man eine berühmte Person ist, sollte man die Freiwilligenarbeit selbst ausführen. Dazu ein Beispiel , um die Aussage zu verdeutlichen: Ein Geschäftsleiter welcher 200 Franken in der Stunde verdient wird angefragt bei einem Baumpflanzungsprojekt mitzuwirken. Anstatt dass er nun selbst Hand anlegt würde es mehr Sinn machen einen Gärtner dafür zu beauftragen der in der Stunde 50 Franken verdient und dieses Handwerk auch versteht. Wenn der Geschäftsleiter seinen Stundenlohn spenden würde könnte der Gärtner 4 Stunden lang Bäume pflanzen. Wenn der Geschäftsleiter jedoch eine prominente Person ist, sollte er selbst Bäume pflanzen, da somit das Projekt grosse Aufmerksamkeit bekommt. Diese Aufmerksamkeit hat mehr Wert, als das Geld des Geschäftsleiter. Fazit : Spende Geld, es sei denn du bist berühmt.
Zu viel Denken
Zu viel Denken kann Emotionen mittels Informationsüberfluss unterdrücken. Dadurch kann es passieren, dass Entscheidungen nicht so gefällt werden, wie sie eigentlich müssten. Dies geschieht, weil wir bei Fragen, die wir schon 1000 Mal beantwortet haben oder bei eingeübten, motorischen Fähigkeiten sogenannte Heuristiken (Denkabkürzungen) entwickeln. Auf diese können wir immer wieder zurückgreifen, werden diese Gefühle aber von zu vielem Denken unterdrückt, kann ein Fehlschluss gezogen werden. Es sollte also versucht werden, bei nicht bekannten Fragen gründlich nachzudenken und bei bekannten Fragen auf die Gefühle zu achten. Ein Beispiel für zu vieles Denken ist ein Golfspieler Namens Van de Velde. Er hatte beinahe das British Open 1999 gewonnen. Seine Schläge hatte er als Profi perfekt eingeübt. Am Turnier fing er aber plötzlich an, nachzudenken und verlor schliesslich die Partie. Dies sollte vorerst das Ende seiner Karriere bleiben. Ein weiteres Beispiel mit Studenten, die Marmelade degustieren mussten. Sie hatten keine Informationen zu de Marmeladen, bewerteten aber interessanterweise fast gleich, wie die Marmeladen Experten. Ein anderes Team musste ein Fragebogen ausfüllen während der Bewertung. Durch dieses Nachdenken unterdrückten sie ihre Gefühle und bewerteten komplett anders.
Das Wunder
Der Mensch neigt dazu, an Wunder zu glauben, obwohl es unwahrscheinliche Zufälle sind. Unwahrscheinliche Zufälle sind zwar selten, aber durchaus mögliche Ereignisse. Es ist nicht überraschend, wenn sie vorkommen. Überraschender wäre es, wenn sie nie stattfänden. Der Schweizer Psychiater C.G. Jung sah darin das Wirken einer unbekannten Kraft, die er Synchronizität nannte. Ein passendes Beispiel: Ein Kirchenchor wollte sich zu einer bestimmten Uhrzeit zur Probe treffen. Doch alle Mitglieder waren aus unterschiedlichen Gründen verspätet. Kurz nachdem die Probe starten sollte, explodierte die Kirche. Wie durch ein Wunder kam dabei niemand ums Leben. Der Feuerwehrkommandant führte die Explosion auf ein Gasleck zurück. Doch die Mitglieder des Chors waren überzeugt, ein Zeichen Gottes empfangen zu haben, obwohl es Zufall war.Schlussfolgerung: Gegen Wunder helfen Überlegungen zur Wahrscheinlichkeit und zur Häufigkeit. Dass eine Kirche explodiert, ist sehr selten, dass sie explodiert, wenn der Chor verspätet ist, ist noch seltener. Aber weil jeden Tag in Millionen Kirchen Chöre proben (grosse Häufigkeit), kann das doch einmal vorkommen.
Die andere Seite des Wissens
Wenn von der anderen Seite des Wissens gesprochen wird, meint man damit nicht das Wissen, dass sich in Worte fassen lässt und aufgeschrieben ist, sondern eben das andere. Was ist jedoch das andere?Diese Entscheidungsfalle handelt davon, dass wir die Intellektuellen, die Theoretiker und Akademiker überschätzen und den Praktikern und Machern zu wenig Aufmerksamkeit schenken. Denn die grossartigsten Erfindungen wurden nicht aus Büchern entwickelt, sondern durch versuchen und tüfteln. Das eigentliche Problem dieses Denkfehlers besteht darin, dass Bücher, welche in Worte gefasstes Wissen enthalten, frei von Mehrdeutigkeit und oft nicht repräsentativ sind, da sie nur von einem Autor verfasst wurden. 1893 gelang es Rudolf Diesel seinen entwickelten Dieselmotor zum Laufen zu bringen und dies ohne jeglicher Theorie. Der ganze Motor hat er durch Vorstellungskraft, Erfahrung und Probieren konstruiert und gebaut. Fazit: Das bedeutende Wissen liegt im Praktischen und nicht in der Theorie.
Anfängerglück
Dieser Denkfehler bedeutet, dass man sich nach anfänglichem Glück in einem gewissen Gebiet anschliessend selbst überschätzt und das Gefühl hat, man wisse was man tut, obwohl es sich nur um sogenanntes “Anfängerglück” handelte.—Beispiele:- Börse in den 90er Jahren, welche konstant anstieg und man ohne Fähigkeiten gutes Geld verdienen konnte. Als die Kurse dann kippten verloren viele ihr Geld oder sogar ihr ganzes Erspartes.- Amerikanischer Immobilienboom als Zahnärzte, Anwälte, Lehrer und Taxifahrer ihre Jobs aufgaben, um Häuser zu »flippen« – sie zu kaufen und dann sofort zu einem höheren Preis weiterzuverkaufen. Nach anfänglichen Gewinnen verschuldeten sich viele Menschen auf lange Zeit.- Eine Firma, welche 3 andere kleinere Firmen übernimmt und dann im Hoch ist und denkt es könne alle Firmen aufkaufen. Als sie dann eine 4. grössere Firma aufkaufen wollen gehen sie Konkurs. -> Man hat sich vom Anfängerglück blenden lassen.—“Um sich gegen Selbsttäuschungen zu wappnen, gehen Sie wie ein Wissenschaftler vor: Testen Sie Ihre Annahmen. Versuchen Sie, sie zu falsifizieren.”Beispiel: - Der Autor erzählt von seinem ersten Roman, welchen er nur an einen einzelnen Verlag geschickt hat und welcher dann auch prompt angenommen wurde. Anfängerglück oder nicht? Zum Test hat er nun seinen Roman an weitere 10 Verlage geschickt und von allen 10 eine Absage erhalten.—Fazit:Ich glaube jeder von uns hatte bereits einmal Anfängerglück oder hat es bei anderen erlebt und kann sich ganz genau vorstellen um was für einen Denkfehler es sich dabei handelt. Wichtig ist, dass man sich bewusst ist ob nun Anfängerglück oder tatsächlich Talent / Können dahinter steckt.
The Authority Bias
Der Authority Bias sagt aus, dass viele Personen dazu neigen, einem Experten oder allgemein einer Autoritätsfigur folgen/glauben ohne etwas zu hinterfragen. Beim Authority Bias geht es meistens auch soweit, dass eine Person gegen die eigenen moralischen Werte handelt, wenn es die Autorität befiehlt (siehe zweites Beispiel).Meistens liegt dies an den Gedanken, dass die andere Person als Experte es besser weiss oder man keine negativen Konsequenzen haben will.Ein Beispiel ist, dass viele Co-Piloten Fehler der Piloten entdecken, aber sich nicht getrauen, den Piloten darauf aufmerksam zu machen, da dieser die grössere Autorität hat. (Dem wird seit 17 Jahren aktiv entgegengewirkt durch Schulungen).Ein anderes Beispiel war das Experiment von Stanley Milgram, bei dem er den Teilnehmern befahl, jemanden Stromstösse mit steigender Stärke zu geben. Auch wenn die Testpersonen zuerst zögerten, tödliche Stromstösse zu geben, haben die meisten es trotzdem gemacht, nachdem Milgram sagte: “Machen Sie weiter, das Experiment verlangt es so.” Natürlich war die andere Person ein Schauspieler, der keinen einzigen Stromstoss bekam.Oft wird das auch im Marketing verwendet. Vor allem auffällig ist es zum Beispiel bei Zahnhygieneprodukten, bei denen fast immer “9 von 10 Zahnärzten” das Produkt empfehlen.
The Action Bias
Reagieren statt Abzuwarten. Dies trifft vorallem dann zu, wenn Situationen neu oder unklar sind. Dabei fühlen wir uns besser, selbst wenn sich nichts geändert hat.Dieses Verhalten kommt aus der Vergangenheit. In einer Jäger-und-Sammler-Umgebung zahlt sich Aktivität viel stärker aus als Nachdenken. Der Mensch musste blitzschnell reagieren, um zu überleben.In der heutigen Gesellschaft wird man noch immer für das Handeln geehrt, nicht für das Stehenbleiben. Trotzdem kommt man weiter wenn man die Situation erstmal abwartet, analysiert und anschliessend gegebenenfalls gezielt handelt, statt etwas zu überstürzen.Beispiele für überstürztes Handeln: Der Torwart, der beim Elfmeter-Schiessen zur Seite springt, obwohl in der Theorie 1/3 der Bälle in der Mitte landen. Ein Arzt, der eine Erkrankung nicht richtig einschätzen kann und lieber ein Medikament verschreibt als nichts zu tun.
Die Kontrollillusion
Dieser Denkfehler bedeutet, dass man sich von der Illusion verleiten lässt, alles unter Kontrolle zu haben, auch wenn wir objektiv betrachtet keinen Einfluss darauf haben. Beispiele: Ein Mann stellt sich jeden Morgen auf einen Platz und wedelt mit seiner roten Mütze. Als er gefragt wird, was er da tue, antwortet er, dass er die Giraffen vertreibe. Der andere entgegnet ihm, dass es hier gar keine Giraffen gebe. Darauf meint der Mann stolz: «Eben, ich mache einen guten Job.» In Manhattan gibt es Ampelknöpfe ohne Funktion. Grund dafür ist, dass die Menschen die Wartezeit an der Ampel besser ertragen, wenn sie denken, dass sie auf die Signalsteuerung Einfluss nehmen können. In Grossraumbüros werden teilweise falsche Temperaturregulierungsknöpfe angebracht. Die Anzahl Reklamationen sinkt damit massgeblich. Denn die Mitarbeiter denken, dass sie die Kontrolle über die Temperatur haben. Fazit: Der Mensch neigt grundsätzlich dazu, seinen Einfluss zu überschätzen. Im Normalfall ist dies nicht weiter schädlich und hat keine grösseren Auswirkungen. Doch wenn beispielsweise ein Manager davon ausgeht, dass er alles im Griff hat, dies jedoch nicht den Tatsachen entspricht, kann dies fatale Folgen für den Betrieb haben.
Die Falle des einen Grundes - die steinzeitliche Jagd auf Sündenböcke
Wenn etwas Einschneidendes passiert wie beispielsweise die Wirtschaftskrise oder der Beginn eines Krieges fragt man oft nach dem einen Grund. Dabei sind es jeweils mehrere Gründe und Umstände, welche zu einer Wirtschaftskrise oder dem Beginn eines Krieges führen. Den einen Grund gibt es nicht.Es ist bekannt, dass bei einer Handlung Tausende von Faktoren zusammenspielen. Dazu gehören etwa die genetische Disposition, die Erziehung oder auch die Hormonkonzentration zwischen den einzelnen Hirnzellen. All diese Faktoren zusammen lösen eine Handlung aus. Trotzdem wird am Menschenbild festgehalten, der Mensch sei der Urheber seines eigenen Handelns. Diese Ansicht ist nicht nur veraltet sondern auch gefährlich, denn sie ermöglicht, Triumphe oder Katastrophen auf einen einzelnen Menschen zurückzuführen. Diese Einstellung ist ein hervorragend geeignetes Werkzeug zur Machtausübung, welches auch heute noch gerne gebraucht wird.»Wenn der Apfel reif ist und fällt, warum fällt er? Weil er von der Erde angezogen wird? Weil sein Stängel ausgedörrt ist? Sein Fleisch mürbe? Weil er zu schwer geworden ist? Weil der Wind ihn schüttelt? Oder weil der unten stehende Knabe ihn essen möchte? Nichts davon ist die Ursache, sondern alles zusammen …«, schreibt Tolstoi in “Krieg und Frieden” und trifft damit den Nagel auf den Kopf (Textteil aus dem Kapitel).
Social Loafing
Social Loafing (soziales Faulenzen) beschreibt das Phänomen, dass eine Person als Teammitglied nicht die gleich hohe Leistung erbringt wie als Einzelperson. Beispiel: Beim Tauziehen von zwei Einzelpersonen gegeneinander setzt jeder 100 % seiner Kraft ein. Bildet man auf jeder Seite Teams, so sinkt mit jedem zusätzlichen Teammitglied die eingesetzte Kraft pro Person. Das Phänomen läuft unbewusst ab. Es kann dann beobachtet werden, wenn die Einzelleistung nicht direkt sichtbar ist, sondern in der Gruppenleistung aufgeht (z.B. bei Ruderern oder in Sitzungen). Auf Null sinkt die individuelle Leistung jedoch nicht, sondern sie pendelt sich ab einer gewissen Gruppengrösse auf tiefem Niveau ein.Das Phänomen lässt sich nicht nur bei der Leistung, sondern auch bei der Verantwortung beobachten. Je grösser die Gruppengrösse, desto weniger verantwortlich fühlt sich jeder Einzelne und umso höhere Risiken werden eingegangen. Man nennt dies “Risky Shift”.Ein Entgegenwirken kann erreicht werden durch eine Sichtbarmachung der individuellen Leistungen oder Verantwortungen.
News-Illusion
News sind Nachrichten aus aller Welt. Jedoch werden diese von den News-Konsumenten völlig falsch gewichtet bezüglich der wahren Risken. Es gibt drei Hauptgründe um einen weiten Bogen um News zu machen. Erstens, unser Hirn reagiert unverhältnismässig stark auf skandalöse und schockierende Informationen. News-Produzenten nützen dies aus. Zweitens, News sind irrelevant. Falls News-Konsum Menschen tatsächlich weiterbringen würde, wären Journalisten an erster Stelle der Einkommenspyramide. Sie tun es jedoch nicht, im Gegenteil. Der letzte Hauptgrund ist die Zeitverschwendung. Beispiele zu den Hauptgründen: 1. Zum Beispiel die News: «Mann hält Tochter 30 Jahre lang im Keller gefangen.» wird eher als «Malta – Schöner Ferienort» von den Menschen gelesen. 2. News-Konsumenten lesen etwa 10’000 Kurznachrichten in einem Jahr (30/Tag). Davon können Sie nicht mehr als zwei Nachrichten aufzählen, die es Ihnen erlaubt hat, eine bessere Entscheidung für Ihr Privat- sowie Geschäftsleben zu treffen. 3. Ein durchschnittlicher Mensch verschwendet einen halben Arbeitstag, d.h ca. 4 Stunden, pro Woche mit News. Dies ist eine enorme Verschwendung und Verlust an Produktivität. Nichtdestotrotz kann die News Verbreitung gut bzw. erfolgreich sein, wenn man z.B News von Person zu Person verbreitet. Dadurch werden meist irrelevante News nicht und die wichtigen und interessanten News weiterverbreitet. Dies nennt man natürlichen Nachrichtenfilter. Fazit: An Stelle von News in Zeitungen, Internet oder auf dem Handy zu lesen sollte man stattdessen lange Hintergrundartikel und Bücher, denn es gibt nichts Besseres als Bücher zu lesen, um die Welt zu verstehen. Falls man auf News nicht komplett verzichten kann, dann sollte man sie jedoch kritisch hinterfragen und auf seriöse und glaubwürdige Quellen achten.
Knappheitsirrtum
Wenn etwas knapp ist so erscheint dieses Gut als wertvoller. Dies ist jedoch völlig irrational da sich der Nutzen des Gutes nicht erhöht nur weil dieses Rar ist. Die Werbung und verschiedene Internetplattformen bedienen sich dieser Masche, so verkünden Sie Sätze wie: “Nur solange Vorrat!“, oder „Nur noch wenige Stücke auf Lager“. Somit wird das angepriesene Gut als hochwertiger eingestuft als dies der Fall ist. Diese Tatsache kann mit Wissenschaftlichen Versuchen untermauert werden. Zum Beispiel mussten zwei Gruppen die Qualität von Keksen einschätzen. Dabei erhielt eine Gruppe eine ganze Schachtel und die anderen lediglich zwei Kekse. Das Ergebnis war, dass die Gruppe, welche nur 2 Kekse erhalten hatte, die Qualität der Kekse höher einstufte als die die eine ganze Packung erhalten hatten. Unsere Reaktion auf Knappheit ist der Verlust des klaren Denkens. Dabei sollte eine Sache nur nach dem Nutzen und dem Preis beurteilt werden. Ob das Gut knapp ist oder nicht darf bei der Entscheidung keine Rolle spielen.
Das Chauffeur-Wissen
Nachdem Max Planck den Physik-Nobelpreis erhalten hatte, war auf einer Tournee durch ganz Deutschland. Er hielt immer denselben Vortrag über die Quantenmechanik. Nach einigen Lesungen kannte der Chauffeur den Vortrag auswendig und schlug Plank vor, dass er zur Belustigung den nächsten Vortrag hält. Somit sass Plank beim nächsten Vortrag mit einer Chauffeur-Mütze in der vordersten Reihe. Eine Frage aus dem Publikum leitete der Chauffeur mit einer herablassenden Bemerkung an den in der vordersten Reihe sitzenden Chauffeur, dem verkleideten Plank, weiter.Es gibt zwei Arten von Wissen, das echte Wissen und das Chauffeur-Wissen. Das echte Wissen wurde unter grossem Aufwand erarbeitet. Beim Chauffeur-Wissen wird das Wissen von den «Chauffeuren» vorgespielt. Die «Chauffeure» wissen mit Oberflächlichkeiten zu überzeugen, ohne das nötige tiefe Verständnis des Themas zu besitzen. Es gibt ein klares Signal um Chauffeure von echten Kompetenzträger zu unterscheiden. Während ein Kompetenzträger auf eine Frage ausserhalb seines Kompetenzbereichs mit «ich weiss es nicht» antwortet, würde ein Chauffeur dies niemals eingestehen. Fazit: Misstraue dem Showman mit der kommunikativen Kompetenz und suche nach dem seriösen Schaffer.
Omission Bias (deutsch: Unterlassungsirrtum, Unterlassungseffekt)
Der Omission Bias tritt immer dort auf, wo sowohl eine Unterlassung als auch eine Handlung zu Schaden führen können. Dann wird meist die Unterlassung gewählt, weil dieso verursachten Schäden subjektiv harmloser scheinen.Kurz: Führen Handeln und nicht Handeln zum selben Schaden, wird das nicht Handeln als harmloser empfunden.Beispiel: Zwei Bergsteiger. Der erste fällt in eine Gletscherspalte. Sie könnten ihn retten, indem Sie Hilfe organisieren, tun es aber nicht, und folglich stirbt er. Den zweiten stoßen Sie aktiv in die Gletscherspalte. Auch er stirbt nach kurzer Zeit. Das Bauchgefühl sagt uns, die erste Tat war weniger schlimm als die zweite, auch wenn beide gleich schlimm sind.Ausführliches Beispiel: Sie stehen vor der Entscheidung, ob ein Medikament für Todkranke zugelassen werden soll. Das Medikament hat starke Nebeneffekte. Es tötet 20 % der Patienten auf der Stelle, rettet aber das Leben von 80 % in kurzer Frist. Wie entscheiden Sie? Wenn Sie so ticken wie die meisten, verbieten Sie die Zulassung. Ein Medikament, das jeden Fünften auf der Stelle hinrafft, empfinden Sie als schlimmer als die Tatsache, dass 80 % der Patienten, die hätten gerettet werden können, nun eben nicht gerettet werden. Eine absurde Entscheidung, aber im Einklang mit dem Omission Bias. Angenommen, Sie sind sich des Omission Bias bewusst und entschließen sich im Namen der Vernunft und der Moral dazu, das Medikament doch zuzulassen. Was passiert, wenn, wie vorausgesehen, der erste Patient daran stirbt? Ein Aufschrei geht durch die Presse, und Sie sind Ihren Job los. Als Beamter oder Politiker tun sie gut daran, den Omission Bias im Volk ernst zu nehmen – und selbst zu pflegen.
Die Tragik der Allmende
Die Tragik der Allmende lauert überall dort, wo der Nutzen beim Einzelnen anfällt, die Kosten aber zulasten der Gemeinschaft wirken (es handelt sich hierbei übrigens nicht um einen Denkfehler im klassischen Sinne). Der rational denkende Mensch fragt sich ständig, wie kann ich meinen Gewinn maximieren? Aus diesem Grund möchte jeder Bauer immer eine Kuh mehr als alle anderen auf der öffentlichen Weide grasen/fressen lassen, damit er eine Kuh mehr verkaufen kann. Da jeder so denkt, kollabiert das ökologische Gleichgewicht der Weide schlussendlich. Die zwei einzigen wirksamen Mittel gegen diese Tragik sind: Privatisierung oder Management der Weide (regelt den Zugang). Weitere Beispiele auf welche die Tragik der Allmende ausgeweitet werden kann, sind der CO2-Ausstoß, die Abholzung der Wälder, Wasserverschmutzung, Bewässerung, Übernutzung der Radiofrequenzen, öffentliche Toiletten und Weltraumschrott.
Der Endownment Effekt (Der Besitztumseffekt)
Klammern Sie sich nicht an die Dinge. Der Mensch schätzt den Wert von seinem Besitz höher ein als derjenige von anderen Personen. Der Grund dafür ist einfach und zwar, weil der Gegenstand in unserem Besitz ist. Der Effekt wurde 1980 erstmals vom Psychologen Richard Thaler entdeckt. Ein Beispiel für diesen Effekt fiel Ihm bei einem seiner Kollegen, Professor Rosett auf. Dieser war als ein grosser Weinliebhaber bekannt. Weine aus seiner Sammlung verkaufte er nur sehr ungerne, auch wenn Ihm ziemlich viel Geld (mehrere Hundert Dollar) dafür geboten wurde. Auf der anderen Seite wollte er für Weine derselben Qualität nicht mehr als 35 Dollar ausgeben. Fazit: Der Besitz steigert den Wert eines Gegenstandes. Wenn dieser nicht in unserem Besitz ist, schätzen wir den Wert des Gegenstandes tiefer ein.
The Hedonic Treadmill (dt: Zufriedenheits-Hamsterrad)
Dieser Fehlschluss beschreibt eine Reaktion des Menschen, bei welcher plötzlich eintreffende positive als auch negative Ereignisse nur einen kurzfristigen Einfluss auf das Glücksniveau eines Menschen haben. Nach einer bestimmten Zeitdauer fällt man i.d.R wieder auf den ursprünglichen Glückslevel zurück. Positives Ereignis: Lottogewinn Der Happiness-Effekt nach der Banküberweisung eines Lottogewinns verpufft durchschnittlich nach ca. 3 Monaten. Die Lottogewinner sind nach dieser Zeitspanne wieder gleich glücklich als sie vor dem Gewinn waren. Negatives Ereignis: Beziehungsende Nachdem eine Liebe in die Brüche gegangen ist, sind die Betroffen davon überzeugt, dass sie nie wieder einen Hauch von Glückseligkeit verspüren werden. Auch hier ändert sich dieses Gefühl nach einer gewissen Zeitdauer und die Betroffen können wieder anfangen zu lachen.
FEATURE-POSITIVE EFFECT
Absenz ist viel schwieriger zu erkennen als Präsenz. Aus diesem Grund fällt uns eher etwas auf, was da ist als etwas, was nicht hier ist. Wenn auf der Lebensmittelverpackung alle gesunden Nährwerte aufgelistet sind, die ungesunden Inhaltsstoffe aber nicht, so fällt das dem Konsumenten kaum auf. Für unser Entscheidungsverhalten bedeutet dies, dass wir auf positive Empfehlungen anfälliger sind als auf negative (« Bewege dich » ist also wirksamer als « Sitze nicht so faul herum »). Um die Absenz zu erkennen, werden oft Checklisten erstellt, wobei die Vorhandenen Punkte mit den Geforderten verglichen werden. Ein aktuelles Beispiel: Wir realisieren, wenn eine Pandemie herrscht, die Abwesenheit einer Pandemie fällt uns als solches nicht auf. Philosophisches am Rande: wenn man sich ein bisschen mehr darauf achten würde, was nicht hier ist, kann man unter Umständen glücklicher durch das Leben gehen und schätzen, was man hat bzw. nicht hat.
Social Comparison Bias
Der Social Comparison Bias beschreibt das Phänomen, wonach wir dazu tendieren eine meidende oder gar missachtende Haltung gegenüber Menschen einzunehmen, die besser sind als wir oder es zu werden drohen, obwohl eine Annäherung bzw. Anfreundung in solchen Fällen meist umgekehrt viel vorteilhafter wäre. Dies wird dadurch ausgelöst, dass wir uns in einem solchen Fall sowohl in unserem Selbstwertgefühl als auch in der sozialen Stellung bedroht fühlen. Beispiel: Wir sind Unternehmer und möchten Mitarbeiter für unsere Firma anstellen. Die bestqualifizierten Leute anzustellen, umsomehr wenn sie talentierter sind als wir, ist hier klar die objektiv beste Wahl. Nicht nur können bessere Arbeiter unserer Firma (und somit auch uns) eher zum Erfolg verhelfen, sind sie tatsächlich fähiger, können wir von Ihnen lernen und uns sogar persönlich höherheben.Doch die Vorstellung mit jemanden zu arbeiten der besser ist als wir gefällt uns nicht und so treffen wir eine deutlich schlechtere Wahl beim Anwerbungsprozess.
Prognoseillusion
Die Prognoseillusion ist der Effekt, dass Vorhersagen unterschiedlich gewichtet werden. Trifft eine Vorhersage oder Vermutung zu, wird demjenigen, der diese Vorhersage getroffen hat, grosse Beachtung geschenkt. Trifft eine Vorhersage aber nicht zu, so geht dies oft in Vergessenheit und niemand verurteilt denjenigen, der die Vorhersage getroffen hat. Es gibt also ein “Upside” an Aufmerksamkeit, wenn die Vorhersage zutrifft aber kein “Downside” von der Aufmerksamkeit, wenn nichts zutrifft. Beispiele: Es gab Meldungen, dass Kanada, Nigeria, China, Indien, Indonesien, Südafrika, Belgien oder sogar die ganze EU auseinander brechen soll. Bekanntermassen existieren sämliche Länder und die EU noch. An einen Auseinanderbruch, resp. Bürgerkrieg in Lybien und Syrien hat jedoch leider kein Experte gedacht. Solche Experten, auch Untergangspropheten in diesem Zusammenhang genannt, werden als besonders schlechte Prognostiker gemäss Berkley-Professor Philip Tetlock gehandelt. Er untersuchte über 80’000 Voraussagen von 284 Experten über 10 Jahre und kam zum Schluss, dass ein Zufallsgenerator diese Voraussagen ebenso gut getätigt hätte. Aus diesem Grund soll man vorsichtig mit solchen Voraussagen sein und hinterfragen, was für ein Anreiz der Autor der Vorhersage wohl hat. Hat er einen persönlichen Nutzen? Hat er eine neutrale Sichtweise? Wie viele Prognosen von ihm stimmten bisher? Leider ist bei gewissen Medien nicht ganz klar, von wo die Prognosen kommen von dem her ist dies auch schwer zu beurteilen.Quelle: Dobelli, Ralph, “Klar denken, klug handeln”, 2015.
Der Anker
Wenn wir etwas uns unbekanntes Abschätzen, so fangen wir mit einem Anhaltspunkt (Anker) an. Wenn wir beispielsweise eine Fläche schätzen sollen, können wir uns an der Grösse eines Fusballfeldes orientieren. Die Falle, welche zum Denkfehler führt ist, wenn bei einer Entscheidung unbewusst ein falscher Anker gewählt wird. Diese Ankerung kann auch provoziert werden. Eine höhere Unbestimmbarkeit des Objektes führt zu einer erhöten Anfälligkeit auf einen zufälligen Anker. Als Beispiel: Der Psychologe Amos Tversky stellte ein Glücksrad auf und liess die Teilnehmer eines Experiments daran drehen. Danach wurden sie gefragt, wie viele Staaten Mitglied bei der UNO seien. Personen, bei denen das Glücksrad auf einer hohen Zahl stehen blieb, gaben eine höhere Anzahl Mitgliedsstaaten an als Personen, bei denen das Rad auf einer tiefen Zahl stehen blieb. Ein Beispiel aus dem Alltag sind hier die reduziert Aufkleber in den Einkaufsmärkten. Diese geben einen höheren Preis an, der angeblich nicht mehr gezahlt werden muss (durchgestrichen). Dies Ankert den Wert der Ware bei diesem Preis. Daneben steht nun der tatsächliche Preis, meist noch mit einer Angabe um wieviel die Ware reduziert wurde. Dies wird nun vom Käufer als Ersparnis aufgefasst und entsprechend mehr gekauft.
Die Induktion
Die Induktion ist die Verzerrung der Meinung durch nur positive Aktionen. Wenn man immer nur Positives mit der Aktion/Person verbindet, glaubt man gar nicht mehr, dass etwas Negatives von der Aktion/Person kommen könnte. Ein Beispiel ist mit einer Gans: Der Bauer kommt und gibt der Gans Futter. Die Gans getraut sich nicht wirklich und hat Angst vor dem Bauer, dass er ihr was Böses möchte. Am nächsten Tag bringt er der Gans wieder Futter. Dies geht so weiter, bis die Gans sich denkt, der Bauer ist ihr gutgesinnt. Eines Tages holt sich der Bauer die Gans und schlachtet sie. Die Gans war erstaunt, dass der Bauer ihr so etwas antut. Ein weiteres Beispiel aus dem Arbeitsalltag wäre: Ein Mitarbeiter wird immer für seine gute Arbeit gelobt. In einer Krisensituation, in der die Firma sich befindet, kündigt ihm sein Chef. Der Mitarbeiter war sich seinen Arbeitsplatz sicher, weil er nur positives von dem Chef hörte.
Die Verlustaversion
Negative Dinge fallen viel mehr ins Gewicht als positive. Wir reagieren auf negative Dinge viel extremer als auf positive Dinge, auch wenn beide Dinge etwa von gleichem Wert sind. Beispiele: - Um jemanden bei einer Argumentation zu überzeugen gilt es, anstatt die möglichen Gewinne zu präsentieren, die möglichen Verluste zu erläutern. - Nachrichtendienste schreiben häufiger über negative Events, weil Menschen sensibler auf negative Dinge reagieren und somit eher den Artikel lesen.