Denkfehler, Scheinargumente und Denkverzerrungen

Unser Gehirn kann sich auf unzählige Arten irren. Das passiert besonders dann, wenn wir…

  • schnell handeln müssen / wollen
  • mit mehr Information konfrontiert sind, als wir verarbeiten können
  • mit mehr Information konfrontiert sind, als wir im Gedächtnis behalten können
  • unsere emotionalen Bedürfnisse (z.B. nach Sinn) das Streben nach Wahrheit übertrumpfen

     

Wenn man die Denkfallen kennt, kann man sie besser vermeiden und in Argumenten identifizieren. Sie sind elementares Grundwissen für jede wahrheitsliebende Person.

Die coolen Icons stammen übrigens vom Noun Project.

Logische Fehlschlüsse

Argument der Popularität

„X ist wahr, weil viele Leute dieser Meinung sind.“

Beliebtheit ist kein Garant für Wahrheit. Früher war etwa die große Mehrheit der Menschen der Ansicht, die Erde sei im Zentrum des Universums und die Sonne drehe sich um sie oder Aderlass sei eine gute Heilmethode.

Argument der Tradition

„X ist wahr, weil das schon lange geglaubt wird.“

Tradition garantiert keine Wahrheit. Dass die Menschen über Jahrhunderte Sklaven hielten oder Hexen verbrannten, bedeutet etwa nicht automatisch, dass das gute Bräuche auf Basis wahrer Überzeugungen waren.

Argument der Autorität

„X ist wahr, weil Autorität Y das gesagt hat.“

Auch Autorität ist kein zwingender Beweis für Wahrheit. Wenn man das Autoritätsargument benutzt, setzt man voraus, dass die jeweilige Autorität gute Gründe für ihre Behauptung haben wird. Das kann zwar durchaus wahrscheinlich sein, aber man muss es erst demonstrieren.

Argument der Ignoranz

„X ist wahr, weil wir Y nicht wissen.“

Eine Wissenslücke deutet auf nichts hin. Dass wir nicht sicher wissen, woher das Universum kam, ist etwa kein Argument dafür, dass der Schöpfergott Brahma es geschaffen hat.

Falsches Dilemma

„Entweder ist X wahr oder Y.“ (ignoriert A, B, C etc…)

Ein falsches Dilemma entsteht, wenn jemand behauptet, es gebe nur zwei Möglichkeiten, obwohl es weitere gibt. Wenn also zum Beispiel jemand sagt, entweder sei man für völlig offene Grenzen oder für einen Mauerbau, ist das ein falsches Dilemma.

Fehlschluss der goldenen Mitte

„Die Wahrheit liegt immer zwischen den Extremen.“

Beim Fehlschluss der goldenen Mitte wird der Kompromiss zum Patentrezept erhoben, das immer zur optimalen Lösung führe, obwohl er nicht immer sinnvoll und nicht immer möglich ist. Wenn z.B. jemand für Alternativmedizin und jemand für evidenzbasierte Medizin argumentiert, ist es nicht sinnvoll, zu 50 % auf Alternativmedizin und zu 50 % auf evidenzbasierte Medizin zu setzen.

Und in manchen Fragen ist ein Kompromiss schlicht nicht möglich. Auf die Frage „Glaubst du an Brahma?“ gibt es etwa nur zwei mögliche Antworten und keine Mittelposition.

Falsches Gleichgewicht

„Es gibt Möglichkeit X und Möglichkeit Y. Folglich sind beide Möglichkeiten gleich wahrscheinlich.“

Ein falsches Gleichgewicht wird suggeriert, wenn man nur deswegen, weil es zwei mögliche Antworten gibt, von einer 50:50-Plausibilität ausgeht. Manche Wissenschaftler sagen, der Klimawandel sei menschengemacht, andere nicht – aber das heißt nicht automatisch, dass das eine ausgeglichene Debatte wäre.

Falsche Gleichheit

„X hat die Eigenschaften A und B. Y hat Eigenschaft A ebenfalls. Also muss Y auch Eigenschaft B haben.“

Falsche Gleichheit wird suggeriert, wenn man davon, dass zwei Dinge sich eine Eigenschaft teilen, darauf schließt, dass sie sich auch eine weitere Eigenschaft teilen müssen. Ein ganz banales Beispiel: „Vogelbeeren sind Früchte und giftig. Eine Banane ist auch eine Frucht. Folglich sind Bananen auch giftig.“

Strohmann-Argument

„Du sagtest X, und das ist falsch wegen Y.“ (Gegenüber hat X nicht gesagt)

Das Strohmann-Argument ist eine verzerrte oder komplett erfundene Haltung, die man einem Gegner unterstellt. Es kann absichtlich als rhetorische Taktik verwendet werden, um gegen angreifbarere Versionen der Aussagen des Gegenübers Scheinsiege zu erringen, oder unabsichtlich, weil man die Aussagen des Gegenübers nicht genau verstanden hat oder nicht gut genug kennt.

Ad Hominem-Argument

„Person X ist im Unrecht, weil sie die negative Eigenschaft Y hat.“

Beim Ad Hominem lässt man die gemachten Aussagen links liegen und greift stattdessen die Person des Gegenübers an, damit niemand ihre Argumente ernst nimmt. Allerdings spielt es für die Gültigkeit eines Arguments keine Rolle, wer es geäußert hat. Wenn ein dummes Arschloch an einem schönen Tag sagt, dass die Sonne scheint, hat es Recht.

Fehlschluss vom falschen Schotten

„Kein X tut Y.“ „Es gibt aber X, die Y tun.“ „Dann sind das keine wahren X.“

Bei der No True Scotsman Fallacy definiert man die notwendigen Merkmale für eine Gruppe von Personen nach Belieben um, damit die Gruppe von einem Vorwurf unbehelligt bleibt.

Im Ursprungsbeispiel fällt die Aussage, kein Schotte würde Zucker auf sein Porridge streuen. Es wird die allgemein akzeptierte, korrekte Definition eines Schotten angenommen: jemand, der die schottische Staatsbürgerschaft besitzt. Nun entgegnet jemand, dass es aber Leute mit schottischer Staatsbürgerschaft gebe, die sehr wohl Zucker auf ihr Porridge streuen. Darauf wird entgegnet, dass aber keine wahren Schotten das täten. Hier wird nun eine veränderte Definition von „Schotte“ verwendet: jemand, der die schottische Staatsbürgerschaft besitzt und kein Zucker auf sein Porridge streut. Das ist inkonsistent und vor allem falsch.

Mehrdeutigkeits-Fehlschluss

„X ist Y (mit Definition A) . Y (mit Definition B) ist Z. Also ist X = Z.“

Bei der Equivocation Fallacy wird ähnlich wie bei „Kein wahrer Schotte“ die Definition eines Wortes im Verlauf einer Argumentation ausgetauscht. Wenn es etwa heißt „Wissenschaftler glauben an die Wissenschaft, Gläubige glauben an Brahma“, so wird so getan, als wäre dieses „glauben“ in beiden Fällen gleich definiert, was nicht der Fall ist.

Verschieben der Beweislast

„Ich muss nicht beweisen, dass X wahr ist. Du musst widerlegen, dass X wahr ist.“

Wenn jemand etwas behauptet, so ist es dadurch noch nicht automatisch wahr. Der Behauptende ist in der Pflicht, Belege und Argumente für die Wahrheit seiner Behauptung zu liefern. Dass bislang niemand die Behauptung widerlegt hat, bedeutet nicht, dass sie wahr sein muss.

Zirkelschluss

„X ist wahr wegen Y, und Y ist wahr wegen X.“

Ein Zirkelschluss setzt die Wahrheit dessen, was er beweisen will, schon in den Prämissen voraus. Das kann zum Beispiel so aussehen: „Das Buch Mormon ist wahr, weil es das Wort Gottes ist, und es ist das Wort Gottes, weil es das sagt, und das stimmt, weil es wahr ist, und es ist wahr, weil es das Wort Gottes ist…“

Naturalistischer Fehlschluss

„X liegt in der Natur der Sache, deswegen ist X gut und richtig.“

Hier wird vorausgesetzt, dass alles, was in der Natur einer Sache liegt bzw. „natürlich“ ist, deswegen automatisch gut und richtig sein müsse – und im Umkehrschluss alles Unnatürliche schlecht und falsch. Voraussetzung dafür ist eine unkritische, selektive, romantisierte Betrachtung der Natur. Dass auch schlechte Dinge in der Natur einer Sache liegen können und etwa auch Schwefelsäure, Lava, Mord, Vergewaltigung und Kannibalismus sehr natürlich sind, wird dabei geflissentlich übersehen.

Korrelation ist Kausalität

„X passierte vor oder während Y. Deswegen hat X Y verursacht.“

Hier wird nur deswegen eine Sache als Ursache einer anderen Sache angenommen, weil sie gleichzeitig oder davor aufgetreten ist. Hierin finden sich die Wurzeln so ziemlich allen Aberglaubens: Wenn mir am Freitag, dem 13., etwas Schlechtes passiert, muss das wegen dem Datum passiert sein. Wenn ich nach der Einnahme von Globuli gesund werde, muss das wegen der Homöopathie passiert sein. Wenn jemand Serienmörder ist und einen Schnurrbart trägt, müssen Schnurrbärte Mord auslösen. Es wird eine Kausalbeziehung vorausgesetzt, die aber erst demonstriert werden muss.

Kompositions-Argument

„Ein Teil von X hat Eigenschaft Y. Deswegen hat ganz X die Eigenschaft Y.“
oder
„X als Ganzes hat Eigenschaft Y. Deswegen haben alle Teile von X die Eigenschaft Y“.

Hier wird unzulässigerweise vom Einzelfall auf das Ganze oder umgekehrt geschlossen. Wenn ein Wissenschaftler korrupt ist, ist deswegen nicht die Wissenschaft an sich korrupt. Und wenn ein Auto Benzin braucht, heißt das nicht, dass auch ein Autoreifen Benzin braucht.

Whataboutism

„X ist nicht kritikwürdig, weil Y auch kritikwürdig ist.“

Whataboutism ist eine Technik, bei der als Antwort auf Kritik entweder der Kritiker (tu quoque) oder irgendwelche anderen Personen oder Dinge kritisiert werden. Dabei wird impliziert, dass Kritik an einzelnen Personen oder Dingen unberechtigt sei, solange andere Personen und Dinge auch kritikwürdig sind. Doch nur weil Cholera auch übel ist, ist die Pest nicht okay.

Vergleichsfehlschluss

„X ist nicht so schlimm wie Y, also ist X gut.“
oder
„X ist nicht so gut wie Y, also ist X schlecht.“

Beim Vergleichsfehlschluss, einer besonderen Variante von Whataboutism, bewertet man etwas im Vergleich zu etwas anderem statt isoliert und kommt so zu einem verzerrten Urteil. Nur weil zum Beispiel unsere Gesellschaft gerechter ist als früher, heißt das nicht, dass es nichts mehr zu verbessern gäbe. Und nur, weil ich nicht so gut Gitarre spielen kann wie Tommy Emmanuel, heißt das nicht, dass ich nicht gut bin.

Perfektions-Fehlschluss

„X ist nicht perfekt. Also ist X nicht besser als anderes.“

Dieser Denkfehler besteht darin, zu suggerieren, dass alles, was nicht perfekt ist, deswegen nicht besser sei als irgendetwas anderes. Man sagt z.B. „Die Wissenschaft macht auch Fehler, also ist sie persönlicher Erfahrung nicht überlegen“ oder „Wenn wir ein Grundeinkommen einführen, wird das nicht magisch alle unsere Probleme lösen, also sollten wir beim aktuellen System bleiben“.

Man vergleicht hierbei etwas mit einem unerreichbaren Ideal, damit es schlecht aussieht (siehe „Kontrasteffekt“). Es werden Nuancen und Abstufungen ignoriert.

Galileo-Argument

„Meinung X gilt der Mehrheit als lächerlich. Galileos Meinungen galten der Mehrheit als lächerlich und waren wahr. Folglich ist Meinung X wahr.“

Natürlich sind Argumente nicht nur deshalb falsch, weil sie von der Mehrheit als lächerlich betrachtet werden. Nutzer des Galileo-Arguments gehen aber ins gegenüberliegende Extrem und behaupten, weil gewisse wahre Meinungen einmal als lächerlich galten, müsse auch ihre spezifische als lächerlich geltende Meinung wahr sein. Das ist genauso falsch.

Bestätigung durch Konsequenz

„Wenn X wahr ist, dann tritt Konsequenz Y ein. Y ist eingetreten. Also muss X wahr sein.“

Hier deutet man auf einen Umstand Y hin, der die Konsequenz eines anderen Umstands X sein könnte, und sagt, weil dieser Umstand Y Tatsache ist, müsse der Umstand X ebenfalls Tatsache sein – obwohl auch andere Umstände zu Umstand Y hätten führen können.

Das sieht dann etwa so aus: „Wenn die Sonne näher an die Erde herankäme, würde es wärmer werden. Es wird wärmer. Also muss die Sonne näher an die Erde herankommen.“ Man merke: Nur weil eine bestimmte Annahme einen bestimmten Umstand erklären würde, heißt das nicht, dass es sich dabei um eine korrekte Annahme handelt.

Gefühlsargument

„Es wäre besser, wenn X wahr wäre. Also muss X wahr sein.“
oder
„Es wäre schlimm, wenn X wahr wäre. Also muss X falsch sein.“

Hier verwechselt man – meist unbewusst – ganz einfach, was man gern hätte, mit dem, was tatsächlich ist. Die Wahrheit schert sich nicht um unsere Präferenzen. Auch etwas, das wir sehr gerne glauben würden, kann falsch sein, und auch etwas, das wir gar nicht gern glauben würden, kann richtig sein.

Eine besonders verbreitete Spielart davon ist das Konsequenz-Argument: „Wenn X stimmen würde, würde Schlimmes passieren. Deswegen ist X falsch.“

Anekdotischer Beweis

„Ich habe die Erfahrung X gemacht, daraus kann ich auf das allgemeingültige Fakt Y schließen.“

Beim anekdotischen Beweis beantwortet man auf Basis des subjektiven Erinnerungsvermögens und der persönlichen Interpretation von Erlebnissen objektive Fragen, die so nicht zu klären sind.

Wenn man einen tollen Vater hatte, heißt das nicht, dass die meisten Väter toll sind. Wenn man Millionär und nie drogenabhängig geworden ist, heißt das nicht, dass das jeder genauso kann. Wenn man das Gefühl hat, ein Medikament habe einem eine Erkrankung eingebrockt, dann ist das kein guter Beleg dafür, dass dieses Medikament diese Krankheit generell verursacht.

Wissenschaftliche Studien wurden ersonnen, weil die anekdotische Beweisführung sehr fehleranfällig und für sich allein nicht repräsentativ ist.

Erklärungen sind Entschuldigungen

„X erklärt Y. Also soll X Y entschuldigen.“

Hier wird angenommen, dass eine Erklärung gleichzeitig eine Entschuldigung bzw. Rechtfertigung oder Relativierung sei. Wenn z.B. Psychologen die Motive eines Straftäters untersuchen und darlegen, wird ihnen oft vorgeworfen, sie würden damit die Schwere des Vergehens kleinreden.

Banales Beispiel: „Ihr Sohn hat meiner Tochter ein Bein gestellt!“ „Er mag sie nicht besonders.“ „Das entschuldigt sein Verhalten aber nicht!“ „Ich weiß, ich wollte es nur erklären.“

Möglichkeit ist Plausibilität

„X ist möglich, also ist X wahrscheinlich.“

Hier wird impliziert, dass etwas wahrscheinlich sei, indem darauf hingewiesen wird, dass es möglich ist. Es sollte aber nicht vielen Nachdenkens bedürfen, dass sehr viele Dinge theoretisch möglich, deswegen aber noch lange nicht plausibel sind.

Spielerfehlschluss

„Ergebnis X ist längere Zeit nicht eingetreten, deswegen ist es beim nächsten Fall wahrscheinlicher. Ergebnis Y ist erst gerade eingetreten, deswegen ist es beim nächsten Fall unwahrscheinlicher.“

Die Gambler’s Fallacy passiert, wenn wir annehmen, dass Wahrscheinlichkeiten verschiedener Resultate bei einem Ereignis von vorherigen Ereignissen abhängen. So entsteht zum Beispiel die Illusion, dass sich eine Glück- oder Pechsträhne auf das weitere Spielen auswirke. Wenn ich würfle, ist die Chance auf jede Zahl bei jedem Wurf 1/6, egal, ob ich vorher drei Einsen oder drei Sechsen oder sonstwas gewürfelt habe.

Spezialfall-Plädoyer

„Regel X trifft immer zu – außer bei Y.“ (ohne hinreichende Begründung)

Hierbei wird eine allgemeine Regel akzeptiert, dann aber eine einzelne Person oder Sache ohne gute Rechtfertigung willkürlich von dieser Regel ausgenommen. Man sagt zum Beispiel „Alles, was existiert, muss eine Ursache haben – außer Brahma. Der ist unverursacht, weil er Brahma ist.“

Fehlschluss der bedingungslosen Loyalität/Feindschaft

„X hat ein Argument für Y kritisiert. Also ist X gegen Y.“
oder
„X hat ein Argument gegen Y kritisiert. Also ist X für Y.“

Hier wird einem Kritiker unzulässigerweise nur wegen seiner Skepsis/Kritik eine Haltung untergeschoben. Beispiel: „Nicht alle AfD-Wähler sind Nazis.“ „Du rechtes Schwein!“ Dass man ein Argument schlecht oder eine Äußerung unzutreffend findet, lässt keine Schlüsse darüber zu, welcher Gruppe man angehört.

Vorschnelles Abhaken

„Da X der Fall ist, folgt Y.“ (Die Debatte dreht sich eigentlich darum, ob X überhaupt der Fall ist)

Wer in einer Diskussion seine Sicht der Dinge als gegeben voraussetzt und dann vor diesem Hintergrund weiter argumentiert, ist des vorschnellen Abhakens schuldig. Man kann z.B. in einer Debatte über die Existenz Gottes seine Argumente nicht mit „Da es Gott nicht gibt“ beginnen.

Wenn über Probleme diskutiert wird, ist es eine beliebte Strategie, der das Problem bestreitenden Seite „Verharmlosung“ vorzuwerfen. Man befasst sich unter Voraussetzung der eigenen Prämissen mit den Aussagen des Gegners, statt auf die Debatte über diese Prämissen einzugehen.

Dieses Manöver erlaubt es, von demjenigen Teil des Publikums, das den eigenen Prämissen zustimmt, Applaus zu bekommen. Man begeht aber einen logischen Fehler, da man der Debatte über diese Prämissen ausweicht und versucht, unredlich zu punkten. So argumentiert man zudem am Gegenüber vorbei und macht das Gespräch unproduktiv.

Fangfrage

„Warum ist X der Fall?“ (es wird unrechtmäßig vorausgesetzt, dass X der Fall ist)

Vorschnelles Abhaken in Frageform: Eine Fangfrage ist ein absichtliches oder unabsichtliches rhetorisches Manöver, das das Gegenüber dazu bringt, Prämissen implizit zu akzeptieren, die eigentlich zur Diskussion stehen. Sie ist ein logischer Fehlschluss, da sie auf der ungerechtfertigten Annahme aufbaut, dass Dinge klar sind, die in Tat und Wahrheit nicht klar sind.

Das klassische Beispiel ist „Wann haben Sie aufgehört, Ihre Frau zu schlagen?“. Ein unschuldiger Ehemann, der diese Frage beantwortet, hat verloren. Er muss die Prämisse identifizieren und darauf aufmerksam machen: „Sie setzen voraus, dass ich meine Frau geschlagen habe. Das ist nicht richtig.“

Burg und Siedlung

„X ist der Fall.“ „Nein, X ist nicht der Fall.“ „Ich habe doch nur Y gesagt!“

Das Manöver „Burg und Siedlung“ ermöglicht es, sich vor der Verteidigung eines Arguments zu drücken. Man nennt ein schwierig zu verteidigendes Argument (Siedlung) und zieht sich dann bei einem Angriff auf ein sehr leicht zu verteidigendes Argument (Burg) zurück.

Wenn man zum Beispiel sagt „Alle Migranten sollten abgeschoben werden“, dann kann man bei Angriffen auf diese Aussage entgegnen: „Wollen Sie etwa keine vernünftige Migrationspolitik?“ Das ist ein Argumentationsfehler, da ignoriert wird, dass die beiden gemachten Aussagen nicht zwingend inhaltlich identisch sind.

Nichtglaubensfehlschluss

„Ich glaube X nicht.“ „Also glaubst du Y.“

Daraus, was jemand nicht glaubt, kann man nicht schließen, was er glaubt. Wenn ich nicht davon überzeugt bin, dass die Einwohnerzahl von China gerade ist, bin ich nicht automatisch überzeugt, dass sie ungerade ist. Wenn ich kein Schokoladeneis will, will ich nicht zwingend Vanilleeis.

Den Brunnen vergiften

„X ist Y, und wer etwas anderes sagt, ist ein Spinner.“

Wer mit einer Aussage bestimmte Meinungen, Menschen, Optionen oder anderes von Vornherein unzulässig diskreditiert/ausschliesst, vergiftet metaphorisch gesprochen den Brunnen.

Wer das Konzept von „white fragility“ kritisiert, beweist es, wer eine Verschwörungstheorie kritisiert, steckt mit den Verschwörern unter einer Decke – mit solchen Mitteln wird versucht, auf unredliche Weise die Diskussion präventiv zu manipulieren und sich gegen Kritik zu immunisieren.

Schuld durch Assoziation

„Argument/Position X wird auch von Gruppe/Person Y verwendet und ist somit unglaubwürdig.“

Eine Ad Hominem-Taktik: Das rhetorische Manöver „Schuld durch Assoziation“ besteht darin, vom Inhalt eines Arguments abzulenken, indem auf eine ungeliebte Gruppe/Person verwiesen wird, die es ebenfalls verwendet.

Das wird von Menschen, die diese Gruppe/Person ebenfalls nicht leiden können, oft als schlagkräftig angesehen, von Andersdenkenden richtigerweise als unredliches Ausweichmanöver. Argumente werden nicht falscher oder wahrer, je nachdem, wer sie verwendet.

Fehlschluss-Fehlschluss

„Argument X für Behauptung Y ist fehlerhaft. Deswegen ist Behauptung Y falsch.“

Hier wird aufgrund einer fehlerhaften Verteidigung einer Behauptung darauf geschlossen, dass die verteidigte Behauptung falsch sein müsse. Das folgt aber nicht, da man auch wahre Behauptungen falsch verteidigen kann.

Man kann z.B. sagen: „Der Himmel ist blau, weil 2+2= 4 ist.“ Dass eine Behauptung falsch ist, kann man erst schließen, wenn man gute Gründe gegen ihre Wahrheit gefunden hat, nicht bloß, wenn einer ihrer Vertreter schlecht argumentiert.

Kognitive Verzerrungen

Bestätigungsfehler

Der Bestätigungsfehler ist unser Bestreben, unsere Ansichten zu bestätigen. Menschen streben generell danach, bestätigende Informationen zu suchen und anzunehmen und allem anderen aus dem Weg zu gehen und es wegzurationalisieren.

Effekt des bloßen Kontakts

Vertrautheit kann täuschen: Wenn wir einer Sache oft begegnen, halten wir sie eher für wahr und gut, wie Studien zeigen.

Effekt der ungelesenen Bibliothek

Weil viele andere Leute (Experten, Spezialisten) Dinge wissen, wir von vielen Wissensquellen umgeben sind und über vieles schon einmal ein klein wenig gehört haben, gehen wir bisweilen instinktiv davon aus, dass wir Dinge wissen / in der Tiefe verstehen, obwohl das nicht der Fall ist.

Ein Beispiel aus einer Studie: Viele Leute denken instinktiv, sie wüssten ziemlich genau, wie eine Toilette funktioniert. Müssen sie es dann erklären, realisieren sie, dass sie eigentlich sehr wenig darüber wissen. Eine starke Triebfeder für den Dunning-Kruger-Effekt.

Dunning-Kruger-Effekt

Wer inkompetent ist, dem fehlt die Kompetenz, zu erkennen, dass er inkompetent ist. Gleichzeitig halten sich sehr kompetente Leute oft für inkompetenter, als sie sind, da ihnen bewusst ist, dass sie vieles nicht wissen.

Halo-Effekt

Wenn jemand eine positive Eigenschaft auf einem Gebiet (Schönheit, Kompetenz o.ä.) aufweist, neigen wir dazu, ihm auch positive Eigenschaften auf anderen Gebieten zuzuschreiben, obwohl diese vielleicht gar nicht vorhanden sind. Funktioniert auch mit negativen Eigenschaften.

Überlebens-Fehler

Wenn wir z.B. herausfinden wollen, was unternehmerischen Erfolg ausmacht, neigen wir dazu, nur erfolgreiche Unternehmer, also die „Überlebenden“ des unternehmerischen Wettbewerbs, zu untersuchen. So werden wir aber keine verlässlichen Resultate erhalten, weil wir alle gescheiterten Unternehmer ignorieren.

Barnum-Effekt

Der Barnum-Effekt beschreibt unsere Tendenz, sehr offen und vage formulierte, banale Aussagen als spezifisch zutreffend zu interpretieren. Mit einem Satz wie „Sie sind ein eigenständig denkender Mensch, der manchmal gerne im Mittelpunkt steht, aber auch gerne Zeit für sich hat“ werden sich nahezu alle Menschen identifizieren.

Pareidolie

Pareidolie beschreibt die menschliche Tendenz, Muster zu sehen, wo keine sind, und hinter Zufällen nicht vorhandene Absichten zu vermuten. Forscher Peter Brugger fand zum Beispiel heraus, dass Menschen, die an Übersinnliches glauben, eher eine falsche Vorstellung von Zufall haben: Wenn sie Reihen zufällig gewürfelter Zahlen erfinden sollen, generieren sie im Gegensatz zu anderen Menschen kaum „Muster“ (selbe Zahl mehrmals hintereinander, Zahlen in richtiger Reihenfolge o.ä.), da sie denken, dass Muster keine Zufälle sein können, obwohl die genau gleich wahrscheinlich sind wie jede andere Kombination. Auch Apple machte hochspannende Erfahrungen mit der Pareidolie.

Verfügbarkeitsheuristik

Was uns schneller einfällt, halten wir intuitiv für häufiger / bedeutender. Wenn man zum Beispiel Jugendliche fragt, wie viele Jugendliche in Deutschland wohl rauchen, dann basieren viele von ihnen ihre Schätzung auf ihrem persönlichen Freundeskreis, obwohl der nicht zwingend repräsentativ ist.

In einer Studie wurden Ehepartner gefragt, wie hoch ihr Anteil bei der Hausarbeit, beim Initiieren von gemeinsamen Aktivitäten oder beim Auslösen von Streitigkeiten war. Da man sich an die eigenen Handlungen besser erinnern kann, kam bei der Addition der angegebenen Werte immer mehr als 100 % heraus.

Ankereffekt

Wenn wir Zahlenwerte festlegen oder bewerten sollen, lässt sich uns eine Zahl als „Anker“ unterjubeln, an der wir uns dann ohne guten Grund orientieren.

In einem Experiment wurden Leute gefragt, ob der höchste Mammutbaum der Welt höher oder niedriger als 1200 Fuß sei, und dann nach der Höhe des höchsten Mammutbaums gefragt. Sie schätzten ihn viel höher ein als diejenigen, die zuerst gefragt wurden, ob er höher oder niedriger als 180 Fuß sei.

Backfire-Effekt

Wenn wir mit Information konfrontiert werden, die unseren meistgeschätzten Glaubenssätzen widerspricht, tendieren wir dazu, noch stärker an unseren Glaubenssätzen festzuhalten.

Überzeugungsfehler

Wenn wir die Schlussfolgerung eines Arguments plausibel finden, bewerten wir intuitiv das gesamte Argument besser. Dabei übersehen wir, dass man auch für eine plausible Schlussfolgerung falsch argumentieren kann.

Kontrasteffekt

Der Kontrasteffekt ist unsere Tendenz, Dinge anhand eines Vergleichs zu anderen Dingen verzerrt zu bewerten. Sie führt zum oben diskutierten Vergleichsfehlschluss.

Der Effekt zeigt sich zum Beispiel, wenn wir ein Produkt für 40 Euro teuer finden, aber dasselbe Produkt für 40 statt 50 Euro plötzlich als ein Schnäppchen beurteilen.

Er zeigt sich, wenn wir in eine andere Stadt fahren, um Auto-Zubehör für 200 statt 300 Euro zu kriegen, aber die Reise nicht antreten, wenn wir ein Auto für 20’400 statt 20’500 Euro kriegen könnten.

Man kann den Kontrasteffekt auch mit einem sogenannten „Decoy“ ausnutzen: Wenn drei Weine für 10, 25 und 40 Euro im Regal stehen, verkauft sich der für 25 am besten. Stellen wir einen Decoy-Wein für 75 Euro daneben, verkauft sich der für 40 besser.

Unterlassungseffekt

Wir finden es weniger schlimm, durch Nichtstun etwas Negatives herbeizuführen, als durch eine aktive Handlung. Das führt dazu, dass wir es manchmal vorziehen, nichts zu tun und dadurch sichere negative Folgen zu verursachen, statt aktiv zu handeln und dadurch möglicherweise negative Folgen zu verursachen.

Wenn etwa ein Arzt Patienten mit einer tödlichen Erkrankung hat und es ein Medikament gibt, das wegen seiner Nebenwirkungen einige Patienten töten wird, wird er starke Hemmungen haben, das Medikament zu verabreichen. Für einen aktiv verursachten Tod fühlt er sich stärker verantwortlich als für einen nicht verhinderten.

Maslows Hammer

„Ich glaube, es ist verlockend, wenn das einzige Werkzeug, das man hat, ein Hammer ist, alles zu behandeln, als ob es ein Nagel wäre.“ -Abraham Maslow

Wir neigen dazu, Methoden, mit denen wir gut vertraut sind, die wir mögen oder die in der Vergangenheit zum Erfolg geführt haben, auch dann zu benutzen, wenn anderes besser geeignet wäre.

Manche Philosophen versuchten zum Beispiel, die ganze Welt anhand eines einzigen Prinzips zu erklären. Ärzte und Therapeuten schwören manchmal auf eine bestimmte Heilmethode und ziehen diese auch dann vor, wenn eine andere besser wäre.

Mitläufereffekt

Der Mitläufereffekt beschreibt unsere Neigung, auf der Gewinnerseite sein zu wollen und bei Entscheidungen auf soziale Erwünschtheit zu achten. Er äußert sich etwa darin, dass manche Leute bei einer Abstimmung eher für die Seite abstimmen, von der sie erwarten, dass sie die Siegerseite sein wird. Man will nicht zu den Verlierern gehören.

Der Mitläufereffekt kann zu einer sogenannten Schweigespirale führen: Wenn Leute den Eindruck haben, dass ihre Meinung unpopulär ist, ist ihre Hemmung größer, sie zu äußern, wodurch der Eindruck der Unpopularität in der Gesellschaft steigt.

Moralische Lizenzierung

Wenn wir etwas „Gutes“ getan haben, sehen wir das manchmal als Freifahrtschein dafür, ohne Schuldgefühle etwas „Schlechtes“ zu tun. Wir belohnen uns etwa mit einem Cupcake dafür, dass wir uns an unseren Diätplan gehalten haben, oder wir lassen unsere Energiesparlampen so lange brennen, dass am Ende der Spareffekt gegenüber herkömmlichen Lampen kompensiert wird.

Truthahn-Illusion

Bei der Truthahn-Illusion halten wir einen Trend für eine andauernde Gesetzmäßigkeit und werden dann vom Trendbruch überrascht. Wenn wir die Ursachen für den Trend gekannt hätten, hätte uns das Ende des Trends nicht überrascht.

Im namensgebenden Beispiel geht es um einen Truthahn, der jeden Tag gefüttert und umsorgt wird, daraus einen andauernden Trend ableitet und sich dessen mit jedem Tag sicherer wird. Seine Schlachtung kommt als völlige Überraschung, da er nicht verstanden hatte, weswegen er gefüttert und umsorgt wird.

Der Truthahn-Illusion erliegen zum Beispiel Banker, die sich von der Euphorie einer Spekulationsblase mitreißen lassen und dann vom Börsencrash überrascht werden – oder Leute, die Sicherheitsmassnahmen im Rahmen einer Pandemie als „übertrieben“ beschreiben, weil die Infektionen zurückgehen.

Risiko-/Verlustaversion

Wir tendieren dazu, Risiken und Verluste stärker zu gewichten als Chancen und Gewinne. In Experimenten konfrontierte zum Beispiel Daniel Kahneman Leute mit einer Lotterie, in der sie 100 Dollar verlieren konnten. Die meisten sagten, sie würden erst mitspielen, wenn der mögliche Gewinn bei mindestens 200 Dollar liegt.

Kontrollillusion

Manchmal neigen wir dazu, uns einzubilden, dass wir unkontrollierbare Vorgänge kontrollieren könnten. Wir würfeln zum Beispiel anders, wenn wir eine besonders hohe oder besonders niedrige Zahl würfeln wollen, oder denken, unsere Chancen beim Lotto seien höher, wenn wir unsere Lottozahlen selbst auswählen, als wenn sie uns zufällig zugeteilt werden – oder wir beten.

Verzerrungsblindheit

Wenn Sie beim Durchlesen dieser Liste gedacht haben „Irre, wie irrational die Leute sind“ und sich selbst nicht einbezogen haben, sind Sie der Verzerrungsblindheit auf den Leim gegangen. Wir tendieren dazu, uns für unbeeinflusste, völlig rational handelnde Individuen zu halten, obwohl niemand von uns sich vom Einfluss kognitiver Verzerrungen freimachen kann.

 

Eine umfassende Sammlung kognitiver Verzerrungen gibt es hier.