Denkfehler, Täuschungsmanöver und Denkverzerrungen

„Das Wissen um die Denkfehler machte mich ruhiger und besonnener: Ich erkannte meine eigenen Denkfehler frühzeitig und konnte ihnen ausweichen, bevor sie grossen Schaden angerichtet hatten. Und ich verstand zum ersten Mal, wenn andere unvernünftig handelten, und konnte ihnen gewappnet begegnen – vielleicht sogar mit einem Vorteil. (…) Blitz und Donner sind seit Benjamin Franklin nicht seltener, schwächer oder leiser geworden, aber weniger angsteinflössend – und so geht es mir seither mit der eigenen Unvernunft.“ -Rolf Dobelli

 

Unser Gehirn kann sich auf unzählige Arten irren. Das passiert besonders dann, wenn wir…

  • schnell handeln müssen / wollen
  • mit mehr Information konfrontiert sind, als wir verarbeiten können
  • mit mehr Information konfrontiert sind, als wir im Gedächtnis behalten können
  • unsere emotionalen Bedürfnisse (z.B. nach Sinn) das Streben nach Wahrheit übertrumpfen

Logische Fehlschlüsse und Denkverzerrungen sind oft ökonomische Abkürzungen im Denken, die evolutionäre Vorteile brachten und deren Logik oft nicht vollkommen an den Haaren herbeigezogen ist. Leider sind sie aber oft sehr unzuverlässig, wenn es darum geht, der Wahrheit auf die Spur zu kommen.

Logische Fehlschlüsse

Argument der Popularität

„X ist wahr, weil viele Leute dieser Meinung sind.“

Beliebtheit ist kein Garant für Wahrheit. Früher war etwa die große Mehrheit der Menschen der Ansicht, die Erde sei im Zentrum des Universums und die Sonne drehe sich um sie oder Aderlass sei eine gute Heilmethode.

Argument der Tradition

„X ist wahr, weil das schon lange geglaubt wird.“

Tradition garantiert keine Wahrheit. Dass die Menschen über Jahrhunderte Sklaven hielten oder Hexen verbrannten, bedeutet etwa nicht automatisch, dass das gute Bräuche auf Basis wahrer Überzeugungen waren.

Argument der Autorität

„X ist wahr, weil Autorität Y das gesagt hat.“

Auch Autorität ist kein zwingender Beweis für Wahrheit. Wenn man das Autoritätsargument benutzt, setzt man voraus, dass die jeweilige Autorität gute Gründe für ihre Behauptung haben wird. Das kann zwar durchaus wahrscheinlich sein, aber man muss es erst demonstrieren.

Argument der Ignoranz

„X ist wahr, weil wir Y nicht wissen.“

Eine Wissenslücke deutet auf nichts hin. Dass wir nicht sicher wissen, woher das Universum kam, ist etwa kein Argument dafür, dass der Schöpfergott Brahma es geschaffen hat.

Falsches Dilemma

„Entweder ist X wahr oder Y.“ (ignoriert A, B, C etc…)

Ein falsches Dilemma entsteht, wenn jemand behauptet, es gebe nur zwei Möglichkeiten, obwohl es weitere gibt. Wenn also zum Beispiel jemand sagt, entweder sei man für völlig offene Grenzen oder für einen Mauerbau, ist das ein falsches Dilemma.

Fehlschluss der goldenen Mitte

„Die Wahrheit liegt immer zwischen den Extremen.“

Beim Fehlschluss der goldenen Mitte wird der Kompromiss zum Patentrezept erhoben, das immer zur optimalen Lösung führe, obwohl er nicht immer sinnvoll und nicht immer möglich ist. Wenn z.B. jemand für Alternativmedizin und jemand für evidenzbasierte Medizin argumentiert, ist es nicht sinnvoll, zu 50 % auf Alternativmedizin und zu 50 % auf evidenzbasierte Medizin zu setzen.

Und in manchen Fragen ist ein Kompromiss schlicht nicht möglich. Auf die Frage „Glaubst du an Brahma?“ gibt es etwa nur zwei mögliche Antworten und keine Mittelposition.

Falsches Gleichgewicht

„Es gibt Möglichkeit X und Möglichkeit Y. Folglich sind beide Möglichkeiten gleich wahrscheinlich.“

Ein falsches Gleichgewicht wird suggeriert, wenn man nur deswegen, weil es zwei mögliche Antworten gibt, von einer 50:50-Plausibilität ausgeht. Manche Wissenschaftler sagen, der Klimawandel sei menschengemacht, andere nicht – aber das heißt nicht automatisch, dass das eine ausgeglichene Debatte wäre.

Falsche Gleichheit

„X hat die Eigenschaften A und B. Y hat Eigenschaft A ebenfalls. Also muss Y auch Eigenschaft B haben.“

Falsche Gleichheit wird suggeriert, wenn man davon, dass zwei Dinge sich eine Eigenschaft teilen, darauf schließt, dass sie sich auch eine weitere Eigenschaft teilen müssen. Ein ganz banales Beispiel: „Vogelbeeren sind Früchte und giftig. Eine Banane ist auch eine Frucht. Folglich sind Bananen auch giftig.“

Verschieben der Beweislast

„Ich muss nicht beweisen, dass X wahr ist. Du musst widerlegen, dass X wahr ist.“

Wenn jemand etwas behauptet, so ist es dadurch noch nicht automatisch wahr. Der Behauptende ist in der Pflicht, Belege und Argumente für die Wahrheit seiner Behauptung zu liefern. Dass bislang niemand die Behauptung widerlegt hat, bedeutet nicht, dass sie wahr sein muss.

Ad Hominem-Argument

„Person A ist im Unrecht, weil sie die negative Eigenschaft X hat.“

Beim Ad Hominem lässt man die gemachten Aussagen links liegen und greift stattdessen die Person des Gegenübers an, damit niemand ihre Argumente ernst nimmt. Allerdings spielt es für die Gültigkeit eines Arguments keine Rolle, wer es geäußert hat. Wenn ein dummes Arschloch an einem schönen Tag sagt, dass die Sonne scheint, hat es Recht.

Naturalistischer Fehlschluss

„X liegt in der Natur der Sache, deswegen ist X gut und richtig.“

Hier wird vorausgesetzt, dass alles, was in der Natur einer Sache liegt bzw. „natürlich“ ist, deswegen automatisch gut und richtig sein müsse – und im Umkehrschluss alles Unnatürliche schlecht und falsch. Voraussetzung dafür ist eine unkritische, selektive, romantisierte Betrachtung der Natur. Dass auch schlechte Dinge in der Natur einer Sache liegen können und etwa auch Schwefelsäure, Lava, Mord, Vergewaltigung und Kannibalismus sehr natürlich sind, wird dabei geflissentlich übersehen.

Mehrdeutigkeits-Fehlschluss

„X ist Y (mit Definition A) . Y (mit Definition B) ist Z. Also ist X = Z.“

Bei der Equivocation Fallacy wird ähnlich wie bei „Kein wahrer Schotte“ die Definition eines Wortes im Verlauf einer Argumentation ausgetauscht. Wenn es etwa heißt „Wissenschaftler glauben an die Wissenschaft, Gläubige glauben an Brahma“, so wird so getan, als wäre dieses „glauben“ in beiden Fällen gleich definiert, was nicht der Fall ist.

Fehlschluss vom falschen Schotten

„Keine Person aus Gruppe A tut Y.“ „Es gibt aber Personen aus Gruppe A, die Y tun.“ „Dann gehören sie nicht wirklich zu Gruppe A.“

Ähnlich wie beim Mehrdeutigkeitsfehlschluss definiert man bei der No True Scotsman Fallacy die Merkmale für eine Gruppenzugehörigkeit von Personen nach Belieben um, damit die Gruppe von einem Vorwurf unbehelligt bleibt.

Im Ursprungsbeispiel fällt die Aussage, kein Schotte würde Zucker auf sein Porridge streuen. Es wird die allgemein akzeptierte, korrekte Definition eines Schotten angenommen: jemand, der die schottische Staatsbürgerschaft besitzt. Nun entgegnet jemand, dass es aber Leute mit schottischer Staatsbürgerschaft gebe, die sehr wohl Zucker auf ihr Porridge streuen. Darauf wird entgegnet, dass aber keine wahren Schotten das täten. Hier wird nun eine veränderte Definition von „Schotte“ verwendet: jemand, der die schottische Staatsbürgerschaft besitzt und kein Zucker auf sein Porridge streut. Das ist inkonsistent und vor allem falsch.

Zirkelschluss

„X ist wahr wegen Y, und Y ist wahr wegen X.“

Ein Zirkelschluss setzt die Wahrheit dessen, was er beweisen will, schon in den Prämissen voraus. Das kann zum Beispiel so aussehen: „Das Buch Mormon ist wahr, weil es das Wort Gottes ist, und es ist das Wort Gottes, weil es das sagt, und das stimmt, weil es wahr ist, und es ist wahr, weil es das Wort Gottes ist…“

Kompositions-Argument

„Ein Teil von X hat Eigenschaft Y. Deswegen hat ganz X die Eigenschaft Y.“
oder
„X als Ganzes hat Eigenschaft Y. Deswegen haben alle Teile von X die Eigenschaft Y“.

Hier wird unzulässigerweise vom Einzelfall auf das Ganze oder umgekehrt geschlossen. Wenn ein Wissenschaftler korrupt ist, ist deswegen nicht die Wissenschaft an sich korrupt. Und wenn ein Auto Benzin braucht, heißt das nicht, dass auch ein Autoreifen Benzin braucht.

Korrelation ist Kausalität

„X passierte vor oder während Y. Deswegen hat X Y verursacht.“

Hier wird nur deswegen eine Sache als Ursache einer anderen Sache angenommen, weil sie gleichzeitig oder davor aufgetreten ist. Hierin finden sich die Wurzeln so ziemlich allen Aberglaubens: Wenn mir am Freitag, dem 13., etwas Schlechtes passiert, muss das wegen dem Datum passiert sein. Wenn ich nach der Einnahme von Globuli gesund werde, muss das wegen der Homöopathie passiert sein. Wenn jemand Serienmörder ist und einen Schnurrbart trägt, müssen Schnurrbärte Mord auslösen. Es wird eine Kausalbeziehung vorausgesetzt, die aber erst demonstriert werden muss.

Vergleichsfehlschluss

„X ist nicht so schlimm wie Y, also ist X gut.“
oder
„X ist nicht so gut wie Y, also ist X schlecht.“

Beim Vergleichsfehlschluss, einer besonderen Variante von Whataboutism, bewertet man etwas im Vergleich zu etwas anderem statt isoliert und kommt so zu einem verzerrten Urteil. Nur weil zum Beispiel unsere Gesellschaft gerechter ist als früher, heißt das nicht, dass es nichts mehr zu verbessern gäbe. Und nur, weil ich nicht so gut Gitarre spielen kann wie Tommy Emmanuel, heißt das nicht, dass ich nicht gut bin.

Whataboutism

„X ist nicht kritikwürdig, weil Y auch kritikwürdig ist.“

Whataboutism ist eine Technik, bei der als Antwort auf Kritik entweder der Kritiker (tu quoque) oder irgendwelche anderen Personen oder Dinge kritisiert werden. Dabei wird impliziert, dass Kritik an einzelnen Personen oder Dingen unberechtigt sei, solange andere Personen und Dinge auch kritikwürdig sind. Doch nur weil Cholera auch übel ist, ist die Pest nicht okay.

Galileo-Argument

„Meinung X gilt der Mehrheit als lächerlich. Galileos Meinungen galten der Mehrheit als lächerlich und waren wahr. Folglich ist Meinung X wahr.“

Natürlich sind Argumente nicht nur deshalb falsch, weil sie von der Mehrheit als lächerlich betrachtet werden. Nutzer des Galileo-Arguments gehen aber ins gegenüberliegende Extrem und behaupten, weil gewisse wahre Meinungen einmal als lächerlich galten, müsse auch ihre spezifische als lächerlich geltende Meinung wahr sein. Das ist genauso falsch.

Perfektions-Fehlschluss

„X ist nicht perfekt. Also ist X nicht besser als anderes.“

Dieser Denkfehler besteht darin, zu suggerieren, dass alles, was nicht perfekt ist, deswegen nicht besser sei als irgendetwas anderes. Man sagt z.B. „Die Wissenschaft macht auch Fehler, also ist sie persönlicher Erfahrung nicht überlegen“ oder „Wenn wir ein Grundeinkommen einführen, wird das nicht magisch alle unsere Probleme lösen, also sollten wir beim aktuellen System bleiben“.

Man vergleicht hierbei etwas mit einem unerreichbaren Ideal, damit es schlecht aussieht (siehe „Kontrasteffekt“). Es werden Nuancen und Abstufungen ignoriert.

Gefühlsargument

„Es wäre besser, wenn X wahr wäre. Also muss X wahr sein.“
oder
„Es wäre schlimm, wenn X wahr wäre. Also muss X falsch sein.“

Hier verwechselt man – meist unbewusst – ganz einfach, was man gern hätte, mit dem, was tatsächlich ist. Die Wahrheit schert sich nicht um unsere Präferenzen. Auch etwas, das wir sehr gerne glauben würden, kann falsch sein, und auch etwas, das wir gar nicht gern glauben würden, kann richtig sein.

Eine besonders verbreitete Spielart davon ist das Konsequenz-Argument: „Wenn X stimmen würde, würde Schlimmes passieren. Deswegen ist X falsch.“

Bestätigung durch Konsequenz

„Wenn X wahr ist, dann tritt Konsequenz Y ein. Y ist eingetreten. Also muss X wahr sein.“

Hier deutet man auf einen Umstand Y hin, der die Konsequenz eines anderen Umstands X sein könnte, und sagt, weil dieser Umstand Y Tatsache ist, müsse der Umstand X ebenfalls Tatsache sein – obwohl auch andere Umstände zu Umstand Y hätten führen können.

Das sieht dann etwa so aus: „Wenn die Sonne näher an die Erde herankäme, würde es wärmer werden. Es wird wärmer. Also muss die Sonne näher an die Erde herankommen.“ Man merke: Nur weil eine bestimmte Annahme einen bestimmten Umstand erklären würde, heißt das nicht, dass es sich dabei um eine korrekte Annahme handelt.

Erklärungen sind Entschuldigungen

„X erklärt Y. Also soll X Y entschuldigen.“

Hier wird angenommen, dass eine Erklärung gleichzeitig eine Entschuldigung bzw. Rechtfertigung oder Relativierung sei. Wenn z.B. Psychologen die Motive eines Straftäters untersuchen und darlegen, wird ihnen oft vorgeworfen, sie würden damit die Schwere des Vergehens kleinreden.

Banales Beispiel: „Ihr Sohn hat meiner Tochter ein Bein gestellt!“ „Er mag sie nicht besonders.“ „Das entschuldigt sein Verhalten aber nicht!“ „Ich weiß, ich wollte es nur erklären.“

Anekdotischer Beweis

„Ich habe die Erfahrung X gemacht, daraus kann ich auf das allgemeingültige Fakt Y schließen.“

Beim anekdotischen Beweis beantwortet man auf Basis des subjektiven Erinnerungsvermögens und der persönlichen Interpretation von Erlebnissen objektive Fragen, die so nicht zu klären sind.

Wenn man einen tollen Vater hatte, heißt das nicht, dass die meisten Väter toll sind. Wenn man Millionär und nie drogenabhängig geworden ist, heißt das nicht, dass das jeder genauso kann. Wenn man das Gefühl hat, ein Medikament habe einem eine Erkrankung eingebrockt, dann ist das kein guter Beleg dafür, dass dieses Medikament diese Krankheit generell verursacht.

Wissenschaftliche Studien wurden ersonnen, weil die anekdotische Beweisführung sehr fehleranfällig und für sich allein nicht repräsentativ ist.

Spielerfehlschluss

„Ergebnis X ist längere Zeit nicht eingetreten, deswegen ist es beim nächsten Fall wahrscheinlicher. Ergebnis Y ist erst gerade eingetreten, deswegen ist es beim nächsten Fall unwahrscheinlicher.“

Die Gambler’s Fallacy passiert, wenn wir annehmen, dass Wahrscheinlichkeiten verschiedener Resultate bei einem Ereignis von vorherigen Ereignissen abhängen. So entsteht zum Beispiel die Illusion, dass sich eine Glück- oder Pechsträhne auf das weitere Spielen auswirke. Wenn ich würfle, ist die Chance auf jede Zahl bei jedem Wurf 1/6, egal, ob ich vorher drei Einsen oder drei Sechsen oder sonstwas gewürfelt habe.

Möglichkeit ist Plausibilität

„X ist möglich, also ist X wahrscheinlich.“

Hier wird impliziert, dass etwas wahrscheinlich sei, indem darauf hingewiesen wird, dass es möglich ist. Es sollte aber nicht vielen Nachdenkens bedürfen, dass sehr viele Dinge theoretisch möglich, deswegen aber noch lange nicht plausibel sind.

Fehlschluss der bedingungslosen Loyalität/Feindschaft

„Person A hat ein Argument für Y kritisiert. Also ist A gegen Y.“
oder
„Person A hat ein Argument gegen Y kritisiert. Also ist A für Y.“

Hier wird einem Kritiker unzulässigerweise nur wegen seiner Skepsis/Kritik eine Haltung untergeschoben. Beispiel: „Nicht alle AfD-Wähler sind Nazis.“ „Du rechtes Schwein!“ Dass man ein Argument schlecht oder eine Äußerung unzutreffend findet, lässt keine Schlüsse darüber zu, welcher Gruppe man angehört.

Spezialfall-Plädoyer

„Regel X trifft immer zu – außer bei Y.“ (ohne hinreichende Begründung)

Hierbei wird eine allgemeine Regel akzeptiert, dann aber eine einzelne Person oder Sache ohne gute Rechtfertigung willkürlich von dieser Regel ausgenommen. Man sagt zum Beispiel „Alles, was existiert, muss eine Ursache haben – außer Brahma. Der ist unverursacht, weil er Brahma ist.“

Juristischer Fehlschluss

„X ist gut und richtig, weil es erlaubt ist. / Y ist schlecht und falsch, weil es verboten ist.“

Der juristische Fehlschluss liegt vor, wenn etwas allein damit gerechtfertigt oder kritisiert wird, ob es erlaubt ist. Es ist vergleichbar mit dem Autoritätsfehlschluss.

Nur weil jemand juristisch gesehen das Recht zu etwas hat, muss es nicht zwingend gut und richtig sein. Und nur weil etwas unter der aktuellen Gesetzgebung verboten ist, ist es nicht unbedingt schlecht und falsch, wie Gesetzgebungen aus verschiedensten Gegenden und Zeiten zeigen.

Schuld durch Assoziation

„Argument/Position X wird auch von Gruppe/Person B verwendet und ist somit unglaubwürdig / unmoralisch.“

Eine Ad Hominem-Taktik: Der Fehlschluss „Schuld durch Assoziation“ besteht darin, vom Inhalt eines Arguments abzulenken, indem auf eine ungeliebte Gruppe/Person verwiesen wird, die es ebenfalls verwendet.

Das wird von Menschen, die diese Gruppe/Person ebenfalls nicht leiden können, oft als schlagkräftig angesehen, von Andersdenkenden richtigerweise als unredliches Ausweichmanöver. Argumente werden nicht falscher oder wahrer, je nachdem, wer sie verwendet.

Nichtglaubensfehlschluss

„Ich glaube X nicht.“ „Also glaubst du Y.“

Daraus, was jemand nicht glaubt, kann man nicht schließen, was er glaubt. Wenn ich nicht davon überzeugt bin, dass die Einwohnerzahl von China gerade ist, bin ich nicht automatisch überzeugt, dass sie ungerade ist. Wenn ich kein Schokoladeneis will, will ich nicht zwingend Vanilleeis.

Fehlschluss der versunkenen Kosten

„Aufgrund meiner Investitionen in X sollte ich das aussichtslose Vorhaben X fortführen.“

Wir neigen manchmal dazu, falsche Meinungen nicht zu ändern und gescheiterte Projekte fortzuführen, weil wir viel investiert haben. Es kann gute Gründe dafür geben, mit etwas weiterzumachen, doch versunkene Kosten sind keine.

Wenn ich zum Laden laufe und mir auf halber Strecke einfällt, dass er heute zu ist, dann sollte ich umkehren und nicht die Strecke zu Ende laufen, weil ich ja jetzt schon so weit gelaufen bin – das macht nur alles noch schlimmer. Unser Stolz und unser Wunsch, konsistent zu sein, spielen uns hier manchmal einen Streich.

Methodenfehlschluss

„Person A hat Methode X zur Lösung von Problem Y kritisiert. Also ist A dagegen, dass Problem Y gelöst wird/glaubt Person A nicht, dass Problem Y existiert.“

Dieser Fehlschluss passiert, wenn jemand eine Strategie zur Lösung eines Problems kritisiert und daraus geschlossen wird, dass er das Problem nicht lösen will oder gar nicht glaubt, dass es das Problem gibt.

Dass es zu diesem Fehler kommt, ist verständlich: Natürlich würde jemand, der nicht will, dass ein Problem gelöst wird oder nicht an dessen Existenz glaubt, sich gegen Lösungsansätze aussprechen. Doch manch einer, der eine Methode kritisiert, will das Problem ebenfalls lösen und hat vielleicht sogar wertvolle Kritik und bessere Lösungsansätze im Gepäck.

Bedingungsfehlschluss

„X ist eine notwendige Bedingung für Y, also ist X eine hinreichende Bedingung für Y.“ „X ist eine hinreichende Bedingung für Y, also ist X eine notwendige Bedingung für Y.“

Eine Bedingung kann notwendig und hinreichend sein, oder weder noch – oder nur eins von beidem. Finger zu haben, ist etwa eine notwendige Bedingung, um Beethoven auf dem Klavier spielen zu können, aber keine hinreichende, da man auch noch die Stücke kennen und üben muss. Und Beethoven auf dem Klavier spielen zu lernen, ist zwar hinreichend, damit man Beethoven spielen kann, aber nicht notwendig, da es auch noch andere Instrumente gibt.

Es gilt, genannte Bedingungen unter die Lupe zu nehmen und darauf zu achten, ob sie richtigerweise als notwendig und/oder hinreichend dargestellt werden oder ob das eine vielleicht mit dem anderen verwechselt wird.

Fehlschluss-Fehlschluss

„Argument X für Behauptung Y ist fehlerhaft. Deswegen ist Behauptung Y falsch.“

Hier wird aufgrund einer fehlerhaften Verteidigung einer Behauptung darauf geschlossen, dass die verteidigte Behauptung falsch sein müsse. Das folgt aber nicht, da man auch wahre Behauptungen falsch verteidigen kann.

Man kann z.B. sagen: „Der Himmel ist blau, weil 2+2= 4 ist.“ Dass eine Behauptung falsch ist, kann man erst schließen, wenn man gute Gründe gegen ihre Wahrheit gefunden hat, nicht bloß, wenn einer ihrer Vertreter schlecht argumentiert.

Rhetorische Täuschungsmanöver

Den Brunnen vergiften

„X ist Y, und wer etwas anderes sagt, ist ein Spinner.“

Wer mit einer Aussage bestimmte Meinungen, Menschen, Optionen oder anderes von Vornherein unzulässig diskreditiert/ausschliesst, vergiftet metaphorisch gesprochen den Brunnen.

Wer das Konzept von „white fragility“ kritisiert, beweist es, wer eine Verschwörungstheorie kritisiert, steckt mit den Verschwörern unter einer Decke – mit solchen Mitteln wird versucht, auf unredliche Weise die Diskussion präventiv zu manipulieren und sich gegen Kritik zu immunisieren.

Burg und Siedlung

„X ist der Fall.“ „Nein, X ist nicht der Fall.“ „Ich habe doch nur Y gesagt!“

Das Manöver „Burg und Siedlung“ ermöglicht es, sich vor der Verteidigung eines Arguments zu drücken. Man nennt ein schwierig zu verteidigendes Argument (Siedlung) und zieht sich dann bei einem Angriff auf ein sehr leicht zu verteidigendes Argument (Burg) zurück.

Wenn man zum Beispiel sagt „Alle Migranten sollten abgeschoben werden“, dann kann man bei Angriffen auf diese Aussage entgegnen: „Wollen Sie etwa keine vernünftige Migrationspolitik?“ So versucht man, eine angreifbarere Position unter dem Deckmantel einer schwer angreifbaren Position durchzuschmuggeln.

Vorschnelles Abhaken

„Da X der Fall ist, folgt Y.“ (Die Debatte dreht sich eigentlich darum, ob X überhaupt der Fall ist)

Wer in einer Diskussion seine Sicht der Dinge als gegeben voraussetzt und dann vor diesem Hintergrund weiter argumentiert, ist des vorschnellen Abhakens schuldig. Man kann z.B. in einer Debatte über die Existenz Gottes seine Argumente nicht mit „Da es Gott nicht gibt“ beginnen.

Wenn über Probleme diskutiert wird, ist es eine beliebte Strategie, der das Problem bestreitenden Seite „Verharmlosung“ vorzuwerfen. Man befasst sich unter Voraussetzung der eigenen Prämissen mit den Aussagen des Gegners, statt auf die Debatte über diese Prämissen einzugehen.

Dieses Manöver erlaubt es, von demjenigen Teil des Publikums, das den eigenen Prämissen zustimmt, Applaus zu bekommen. Man kann so der Debatte über diese Prämissen ausweichen und versuchen, unredlich zu punkten. So argumentiert man zudem am Gegenüber vorbei und macht das Gespräch unproduktiv.

Fangfrage

„Warum ist X der Fall?“ (es wird unrechtmäßig vorausgesetzt, dass X der Fall ist)

Vorschnelles Abhaken in Frageform: Eine Fangfrage ist ein absichtliches oder unabsichtliches rhetorisches Manöver, das das Gegenüber dazu bringt, Prämissen implizit zu akzeptieren, die eigentlich zur Diskussion stehen.

Das klassische Beispiel ist „Wann haben Sie aufgehört, Ihre Frau zu schlagen?“. Ein unschuldiger Ehemann, der diese Frage beantwortet, hat verloren. Er muss die Prämisse identifizieren und darauf aufmerksam machen: „Sie setzen voraus, dass ich meine Frau geschlagen habe. Das ist nicht richtig.“

Nebelkerze

„Blablabla“ (irrelevante Aussage)

Die faulste rhetorische Taktik überhaupt: Eine Nebelkerze ist eine zusammenhanglose Aussage, die während einer Diskussion eingeworfen wird, um den Verlauf des Gesprächs unzulässig zu brechen und vom Thema abzulenken.

Gish-Galopp

„Was ist mit Argument A? Und Einwand B? Und Behauptung C? Und…“ (mehr, als das Gegenüber beantworten kann)

Diese rhetorische Taktik ist benannt nach dem Kreationisten Duane Gish, der seine Debattengegner unter so vielen Argumenten, Einwänden und Behauptungen zu begraben pflegte, dass sie nie auf alles antworten konnten. So versuchte Gish, den Eindruck zu erwecken, das Gegenüber habe keine Antworten auf seine Thesen.

Eine beliebte Variante des Gish-Galopps besteht darin, direkt nach der Entkräftung eines Arguments durch das Gegenüber schnell weitere Argumente nachzuschieben, um davon abzulenken, dass gerade ein Argument entkräftet wurde. Dies kann dazu führen, dass Menschen widerlegte Argumente immer wieder verwenden, weil sie sich beim Galoppieren nie die Zeit nehmen, sich einzugestehen, dass ein Argument gerade als Pseudoargument entlarvt wurde.

Rhetorische Impfung

„Mein Gegenüber wird wahrscheinlich Argument X bringen, zudem Argument Y und Argument Z.“

Um dem Gegenüber in einer Debatte schon vor dessen erstem Auftritt den Wind aus den Segeln zu nehmen, kann man versuchen, aufzuzählen, welche Argumente das Gegenüber wahrscheinlich verwenden wird. Das hat z.B. Eminem im Film 8 Mile erfolgreich gemacht.

Besonders effektiv kann es sein, schwache Argumente für die andere Seite aufzuzählen und gleich zu zerpflücken. Dadurch kann das Publikum nachweislich resistenter gegenüber Überzeugungsversuchen für die andere Seite werden. Ein sprachlich und intellektuell kompetentes Gegenüber kann seine besseren Argumente allerdings eventuell dennoch plausibel machen, und es ist nicht immer garantiert, dass Argumente nicht mehr wirken, nur weil sie vorhergesagt wurden.

Strohmann-Argument

„Du sagtest X, und das ist falsch wegen Y.“ (Gegenüber hat X nicht gesagt)

Das Strohmann-Argument ist eine verzerrte oder komplett erfundene Haltung, die man einem Gegner unterstellt. Es kann absichtlich als rhetorische Taktik verwendet werden, um gegen angreifbarere Versionen der Aussagen des Gegenübers Scheinsiege zu erringen, oder unabsichtlich, weil man die Aussagen des Gegenübers nicht genau verstanden hat oder nicht gut genug kennt.

Kognitive Verzerrungen

Bestätigungsfehler

Der Bestätigungsfehler ist unser Bestreben, unsere Ansichten zu bestätigen. Menschen streben generell danach, bestätigende Informationen zu suchen und anzunehmen und allem anderen aus dem Weg zu gehen und es wegzurationalisieren.

Effekt des bloßen Kontakts

Vertrautheit kann täuschen: Wenn wir einer Sache oft begegnen, halten wir sie eher für wahr und gut, wie Studien zeigen.

Effekt der ungelesenen Bibliothek

Weil viele andere Leute (Experten, Spezialisten) Dinge wissen, wir von vielen Wissensquellen umgeben sind und über vieles schon einmal ein klein wenig gehört haben, gehen wir bisweilen instinktiv davon aus, dass wir Dinge wissen / in der Tiefe verstehen, obwohl das nicht der Fall ist.

Ein Beispiel aus einer Studie: Viele Leute denken instinktiv, sie wüssten ziemlich genau, wie eine Toilette funktioniert. Müssen sie es dann erklären, realisieren sie, dass sie eigentlich sehr wenig darüber wissen. Eine starke Triebfeder für den Dunning-Kruger-Effekt.

Dunning-Kruger-Effekt

Wer inkompetent ist, dem fehlt die Kompetenz, zu erkennen, dass er inkompetent ist. Gleichzeitig halten sich sehr kompetente Leute oft für inkompetenter, als sie sind, da ihnen bewusst ist, dass sie vieles nicht wissen.

Halo-Effekt

Wenn jemand eine positive Eigenschaft auf einem Gebiet (Schönheit, Kompetenz o.ä.) aufweist, neigen wir dazu, ihm auch positive Eigenschaften auf anderen Gebieten zuzuschreiben, obwohl diese vielleicht gar nicht vorhanden sind. Funktioniert auch mit negativen Eigenschaften.

Überlebens-Fehler

Wenn wir z.B. herausfinden wollen, was unternehmerischen Erfolg ausmacht, neigen wir dazu, nur erfolgreiche Unternehmer, also die „Überlebenden“ des unternehmerischen Wettbewerbs, zu untersuchen. So werden wir aber keine verlässlichen Resultate erhalten, weil wir alle gescheiterten Unternehmer ignorieren.

Barnum-Effekt

Der Barnum-Effekt beschreibt unsere Tendenz, sehr offen und vage formulierte, banale Aussagen als spezifisch zutreffend zu interpretieren. Mit einem Satz wie „Sie sind ein eigenständig denkender Mensch, der manchmal gerne im Mittelpunkt steht, aber auch gerne Zeit für sich hat“ werden sich nahezu alle Menschen identifizieren.

Pareidolie

Pareidolie beschreibt die menschliche Tendenz, Muster zu sehen, wo keine sind, und hinter Zufällen nicht vorhandene Absichten zu vermuten.

Forscher Peter Brugger fand zum Beispiel heraus, dass Menschen, die an Übersinnliches glauben, eher eine falsche Vorstellung von Zufall haben: Wenn sie Reihen zufällig gewürfelter Zahlen erfinden sollen, generieren sie im Gegensatz zu anderen Menschen kaum „Muster“ (selbe Zahl mehrmals hintereinander, Zahlen in richtiger Reihenfolge o.ä.), da sie denken, dass Muster keine Zufälle sein können, obwohl die genau gleich wahrscheinlich sind wie jede andere Kombination. Auch Apple machte hochspannende Erfahrungen mit der Pareidolie.

Verfügbarkeitsheuristik

Was uns schneller einfällt, halten wir intuitiv für häufiger / bedeutender. Wenn man zum Beispiel Jugendliche fragt, wie viele Jugendliche in Deutschland wohl rauchen, dann basieren viele von ihnen ihre Schätzung auf ihrem persönlichen Freundeskreis, obwohl der nicht zwingend repräsentativ ist.

In einer Studie wurden Ehepartner gefragt, wie hoch ihr Anteil bei der Hausarbeit, beim Initiieren von gemeinsamen Aktivitäten oder beim Auslösen von Streitigkeiten war. Da man sich an die eigenen Handlungen besser erinnern kann, kam bei der Addition der angegebenen Werte immer mehr als 100% heraus.

Ankereffekt

Wenn wir Zahlenwerte festlegen oder bewerten sollen, lässt sich uns eine Zahl als „Anker“ unterjubeln, an der wir uns dann ohne guten Grund orientieren.

In einem Experiment wurden Leute gefragt, ob der höchste Mammutbaum der Welt höher oder niedriger als 1200 Fuß sei, und dann nach der Höhe des höchsten Mammutbaums gefragt. Sie schätzten ihn viel höher ein als diejenigen, die zuerst gefragt wurden, ob er höher oder niedriger als 180 Fuß sei.

Backfire-Effekt

Wenn wir mit Information konfrontiert werden, die unseren meistgeschätzten Glaubenssätzen widerspricht, tendieren wir dazu, noch stärker an unseren Glaubenssätzen festzuhalten.

Überzeugungsfehler

Wenn wir die Schlussfolgerung eines Arguments plausibel finden, bewerten wir intuitiv das gesamte Argument besser. Dabei übersehen wir, dass man auch für eine plausible Schlussfolgerung falsch argumentieren kann.

Kontrasteffekt

Der Kontrasteffekt ist unsere Tendenz, Dinge anhand eines Vergleichs zu anderen Dingen verzerrt zu bewerten. Sie führt zum oben diskutierten Vergleichsfehlschluss.

Der Effekt zeigt sich zum Beispiel, wenn wir ein Produkt für 40 Euro teuer finden, aber dasselbe Produkt für 40 statt 50 Euro plötzlich als ein Schnäppchen beurteilen.

Er zeigt sich, wenn wir in eine andere Stadt fahren, um Auto-Zubehör für 200 statt 300 Euro zu kriegen, aber die Reise nicht antreten, wenn wir ein Auto für 20’400 statt 20’500 Euro kriegen könnten.

Man kann den Kontrasteffekt auch mit einem sogenannten „Decoy“ ausnutzen: Wenn drei Weine für 10, 25 und 40 Euro im Regal stehen, verkauft sich der für 25 am besten. Stellen wir einen Decoy-Wein für 75 Euro daneben, verkauft sich der für 40 besser.

Unterlassungseffekt

Wir finden es weniger schlimm, durch Nichtstun etwas Negatives herbeizuführen, als durch eine aktive Handlung. Das führt dazu, dass wir es manchmal vorziehen, nichts zu tun und dadurch sichere negative Folgen zu verursachen, statt aktiv zu handeln und dadurch möglicherweise negative Folgen zu verursachen.

Wenn etwa ein Arzt Patienten mit einer tödlichen Erkrankung hat und es ein Medikament gibt, das wegen seiner Nebenwirkungen einige Patienten töten wird, wird er starke Hemmungen haben, das Medikament zu verabreichen. Für einen aktiv verursachten Tod fühlt er sich stärker verantwortlich als für einen nicht verhinderten.

Maslows Hammer

„Ich glaube, es ist verlockend, wenn das einzige Werkzeug, das man hat, ein Hammer ist, alles zu behandeln, als ob es ein Nagel wäre.“ -Abraham Maslow

Wir neigen dazu, Methoden, mit denen wir gut vertraut sind, die wir mögen oder die in der Vergangenheit zum Erfolg geführt haben, auch dann zu benutzen, wenn anderes besser geeignet wäre.

Manche Philosophen versuchten zum Beispiel, die ganze Welt anhand eines einzigen Prinzips zu erklären. Ärzte und Therapeuten schwören manchmal auf eine bestimmte Heilmethode und ziehen diese auch dann vor, wenn eine andere besser wäre.

Mitläufereffekt

Der Mitläufereffekt beschreibt unsere Neigung, auf der Gewinnerseite sein zu wollen und bei Entscheidungen auf soziale Erwünschtheit zu achten. Er äußert sich etwa darin, dass manche Leute bei einer Abstimmung eher für die Seite abstimmen, von der sie erwarten, dass sie die Siegerseite sein wird. Man will nicht zu den Verlierern gehören.

Der Mitläufereffekt kann zu einer sogenannten Schweigespirale führen: Wenn Leute den Eindruck haben, dass ihre Meinung unpopulär ist, ist ihre Hemmung größer, sie zu äußern, wodurch der Eindruck der Unpopularität in der Gesellschaft steigt.

Moralische Lizenzierung

Wenn wir etwas „Gutes“ getan haben, sehen wir das manchmal als Freifahrtschein dafür, ohne Schuldgefühle etwas „Schlechtes“ zu tun. Wir belohnen uns etwa mit einem Cupcake dafür, dass wir uns an unseren Diätplan gehalten haben, oder wir lassen unsere Energiesparlampen so lange brennen, dass am Ende der Spareffekt gegenüber herkömmlichen Lampen kompensiert wird.

Truthahn-Illusion

Bei der Truthahn-Illusion halten wir einen Trend für eine andauernde Gesetzmäßigkeit und werden dann vom Trendbruch überrascht. Wenn wir die Ursachen für den Trend gekannt hätten, hätte uns das Ende des Trends nicht überrascht.

Im namensgebenden Beispiel geht es um einen Truthahn, der jeden Tag gefüttert und umsorgt wird, daraus einen andauernden Trend ableitet und sich dessen mit jedem Tag sicherer wird. Seine Schlachtung kommt als völlige Überraschung, da er nicht verstanden hatte, weswegen er gefüttert und umsorgt wird.

Der Truthahn-Illusion erliegen zum Beispiel Banker, die sich von der Euphorie einer Spekulationsblase mitreißen lassen und dann vom Börsencrash überrascht werden.

Risiko-/Verlustaversion

Wir tendieren dazu, Risiken und Verluste stärker zu gewichten als Chancen und Gewinne. In Experimenten konfrontierte zum Beispiel Daniel Kahneman Leute mit einer Lotterie, in der sie 100 Dollar verlieren konnten. Die meisten sagten, sie würden erst mitspielen, wenn der mögliche Gewinn bei mindestens 200 Dollar liegt.

Kontrollillusion

Manchmal neigen wir dazu, uns einzubilden, dass wir unkontrollierbare Vorgänge kontrollieren könnten. Wir würfeln zum Beispiel anders, wenn wir eine besonders hohe oder besonders niedrige Zahl würfeln wollen, oder denken, unsere Chancen beim Lotto seien höher, wenn wir unsere Lottozahlen selbst auswählen, als wenn sie uns zufällig zugeteilt werden.

Verzerrungsblindheit

Wenn Sie beim Durchlesen dieser Liste gedacht haben „Irre, wie irrational die Leute sind“ und sich selbst nicht einbezogen haben, sind Sie der Verzerrungsblindheit auf den Leim gegangen. Wir tendieren dazu, uns für unbeeinflusste, völlig rational handelnde Individuen zu halten, obwohl niemand von uns sich vom Einfluss kognitiver Verzerrungen freimachen kann.

 

Eine umfassende Sammlung kognitiver Verzerrungen gibt es hier.