Replications & Reversals: Die Dissonanz in der kognitiven Dissonanzforschung
Kelly (2025)
Eine neue Studie über einen der ganz großen Namen der Psychologie aus den 50er Jahren macht derzeit ihre Runde in den englischsprachigen Medien, z.B. im
. Und leider, wie so oft, findet sich mein Studienfach hier massiv in der Kritik. Und wieder einmal kommt ein Konzept, zu dem ich noch Anfang der 2000er noch Klausuren schreiben musste, ins Kreuzfeuer der Replikationskrise.Ein Gründungsmythos der Sozialpsychologie
Stellen Sie sich vor: Eine Gruppe von Menschen glaubt fest daran, dass am 21. Dezember 1954 eine apokalyptische Flut die Erde verwüsten wird. Nur sie, die Gläubigen, werden von fliegenden Untertassen gerettet. Der Tag kommt, aber weder die Flut noch die Außerirdischen erscheinen. Was passiert nun? Geben die Anhänger*innen ihre Überzeugung auf?
Nach Leon Festinger, Henry Riecken und Stanley Schachter lautet die Antwort: Nein. In ihrem 1956 erschienenen Buch „When Prophecy Fails“ behaupteten die drei Psychologen, dass die Gruppe nach dem Scheitern der Prophezeiung ihre Überzeugungen sogar noch verstärkte und begann, aktiv neue Mitglieder zu werben. Dies war für sie der Beweis eines neuen psychologischen Mechanismus: der kognitiven Dissonanz.
Die Geschichte wurde zum Gründungsmythos einer der einflussreichsten Theorien der Psychologie. Ein Jahr später veröffentlichte Festinger „A Theory of Cognitive Dissonance“ , und die Theorie eroberte nicht nur die Psychologie , sondern auch die Religionswissenschaft, Soziologie und sogar die Bibelforschung. Manche Wissenschaftler*innen argumentierten, dass sich so auch die Ursprünge des Christentums erklären ließen: Die Kreuzigung Jesu hätte bei den Jüngern kognitive Dissonanz ausgelöst, die sie durch verstärkte Missionierung zu bewältigen versuchten.
Was die Studie behauptete
Die zentrale These von „When Prophecy Fails“ war klar: Wenn tief überzeugte Gläubige mit unwiderlegbaren Beweisen konfrontiert werden, die ihre Weltanschauung widerlegen, und wenn sie dabei soziale Unterstützung von anderen Gläubigen haben, dann:
Behalten sie ihre Überzeugungen bei – statt sie aufzugeben
Verstärken sie ihren Glauben sogar – durch Rationalisierung
Beginnen sie aktiv zu missionieren – um sich selbst von der Richtigkeit ihrer Überzeugung zu überzeugen
Die Forscher behaupteten, genau dieses Muster bei Dorothy Martin und ihren Anhängern beobachtet zu haben. Vor dem Scheitern der Prophezeiung sei die Gruppe zurückhaltend gewesen, habe nur zweimal Pressemitteilungen verschickt und ansonsten kaum versucht, neue Mitglieder zu gewinnen . Nach dem Ausbleiben der Flut jedoch – so die Darstellung – habe die Gruppe eine neue „Weihnachtsbotschaft“ empfangen: Ihr Glaube habe so viel „Licht“ verbreitet, dass Gott der Menschheit gnädig war und die Katastrophe abwendete. Mit neuem Eifer wandten sich die Gläubigen an die Presse und versuchten, ihre Botschaft zu verbreiten.
Was die Archive enthüllen
Fast 70 Jahre lang galt diese Geschichte als gesichert. Doch nun zeigt eine neue Studie von Thomas Kelly, veröffentlicht im „Journal of the History of the Behavioral Sciences“ (2025), dass praktisch jede zentrale Behauptung des Buches falsch war und die Autoren dies wussten.
Kelly hatte Zugang zu bisher versiegelten Archivmaterialien aus dem Nachlass von Leon Festinger. Was er dort fand, ist zermürbend:
1. Die Gruppe missionierte aktiv vor dem Scheitern der Prophezeiung
Entgegen der Darstellung in „When Prophecy Fails“ war die Gruppe keineswegs zurückhaltend. Dorothy Martin:
Veröffentlichte bereits im Mai 1954 in der Zeitschrift „Roundhouse Magazine“ Botschaften, in denen ein Außerirdischer („Elder Brother“) sie aufforderte, „Menschen so oft wie möglich zu versammeln und ihnen die Wahrheit über das kommende Erscheinen der Untertassen-Menschen zu erzählen“ .
Schrieb einen Artikel für „Mystic Magazine“ über ihre UFO-Sichtungen.
Versandte „eine Serie von Botschaften der Weltraummenschen an jeden, der interessiert schien“.
Plante ein Buch mit ihren Lehren.
Versuchte aktiv, Schüler*innen zu bekehren (was zu Konflikten mit Polizei und Eltern führte) .
Die Forscher selbst dokumentierten in ihren Notizen, dass Charles Laughead am 18. Dezember 1954, also drei Tage VOR der gescheiterten Prophezeiung, sagte: „Stell dir vor, wenn ein Typ eine Million Dollar hätte, könnte er diese Art von Publicity nicht kaufen.“ Er war „sehr erfreut“ über die Medienaufmerksamkeit . Ein Forscher notierte: „Es ist ziemlich offensichtlich, dass die Zeitungspublizität zu sehr viel Proselytisierung geführt hat“.
2. Die Gruppe löste sich nach dem Scheitern auf
Die dramatische Geschichte der Weihnachtsbotschaft und des erneuerten Eifers? Eine kurzlebige Episode, die von den Forschern selbst herbeigeführt wurde. Dorothy Martin widerrief ihre Prophezeiung bereits wenige Wochen später:
In einem Interview für die UFO-Zeitschrift „The Saucerian“ (1955) sagte sie, „sie habe wirklich nicht erwartet, physisch von den Untertassen-Menschen abgeholt zu werden“.
1957 erklärte sie öffentlich, dass niemand die Stunde einer Katastrophe kennen könne – unter Berufung auf das Neue Testament.
In ihrem späteren Leben als „Sister Thedra“ lehrte sie über Jahrzehnte spirituelle Botschaften, erwähnte aber die gescheiterte Prophezeiung oder die „Weihnachtsbotschaft“ mit keinem Wort .
Ihre späteren Schüler*innen erklären in ihren Schriften: „Die meisten von uns waren entweder zu jung, um sich zu erinnern, oder noch nicht geboren, als all dies geschah, sodass wir sehr wenig Verständnis davon haben, was damals passierte“.
Die Gruppe löste sich auf. Die Laugheads und andere Anhänger*innen blieben zwar an UFOs und Spiritualität interessiert, aber niemand versuchte jemals, die gescheiterte Prophezeiung oder die Weihnachtsbotschaft zu verteidigen oder zu verbreiten .
3. Die „Forscher“ manipulierten die Ereignisse massiv
Das vielleicht Befremdlichste: Die Psycholog*innen waren keine neutralen Beobachter*innen. Sie gestalteten aktiv die Ereignisse, die sie angeblich nur dokumentierten:
„Brother Henry“ – Der verehrte Forscher: Henry Riecken wurde von Dorothy Martin als spirituelle Autorität verehrt. Sie nannte ihn „den liebsten Sohn des Höchsten Gottes“ und wartete bei Treffen auf sein Erscheinen, bevor man begann. Riecken schrieb selbst: „Ich glaube, ich hätte die Bewegung übernehmen können, wenn ich irgendeine Art von Botschaft für diese Gruppe gehabt hätte“.
Die fabrizierte Weihnachtsbotschaft: Als die Prophezeiung scheiterte und Dorothy Martin verzweifelt war , begann Riecken, die Gruppe herauszufordern und zu verspotten. Er verließ demonstrativ das Haus, gefolgt von Charles Laughead. Draußen bat Riecken Laughead um Hilfe mit seinem „Glaubensmangel“ . Daraufhin hielt Laughead eine dramatische Rede über die Wichtigkeit, den Glauben zu bewahren – genau das, was Riecken als Bestätigung der Dissonanztheorie interpretierte.
Riecken kehrte ins Haus zurück, erklärte, seine Zweifel seien verschwunden , und erst DANACH – ermutigt durch „Brother Henrys“ erneuerten Glauben – schrieb Dorothy Martin die Weihnachtsbotschaft . Festinger notierte: „Bei Henrys Wiedererscheinen hellte sich Dorothy Martin fantastisch auf, ihre Augen leuchteten, und sie begann zu schreiben“ .
Weitere Manipulationen:
Beobachterin „Liz“ Williams erfand prophetische Träume und führte gefälschte „automatische Schreibsessions“ durch, um Gruppenmitglieder zu beeinflussen .
Riecken erfand die Rolle des „irdischen Verifizierers“ und interviewte alle Mitglieder unter diesem Vorwand .
Die Forscher*innen mischten sich in eine Kindeswohlgefährdungs-Untersuchung ein, indem sie Sozialarbeiter davon überzeugten, Nachforschungen einzustellen .
Widersprüche im eigenen Werk
Besonders aufschlussreich: Leon Festinger erzählte in „A Theory of Cognitive Dissonance“ (1957) – nur ein Jahr nach „When Prophecy Fails“ – eine völlig andere Version der Geschichte :
In „When Prophecy Fails“ (1956):
Von 33 Personen in East Lansing waren nur 8 stark überzeugt, 7 zweifelten, und 18 waren kaum als Mitglieder zu bezeichnen.
Viele Mitglieder verließen die Gruppe nach dem Scheitern .
Die Überzeugungen reichten von teilweiser Akzeptanz bis „fast vollständiger Skepsis“.
In „A Theory of Cognitive Dissonance“ (1957):
Die Gruppe zählte „25 bis 30 Personen, die vollständig an die Gültigkeit dieser Botschaften glaubten“.
Skepsis sei „ziemlich selten“ gewesen.
„Im Großen und Ganzen, wenn man den Grad der Überzeugung in der Gruppe als Ganzes charakterisieren würde, war es vollständiger Glaube“.
Nach dem Scheitern schien die Überzeugung „überhaupt nicht zu wanken, zumindest oberflächlich“.
Welche Version stimmt? Und warum änderte Festinger seine Darstellung so dramatisch?
Warum fiel das nicht früher auf?
Die Fragwürdigkeit von „When Prophecy Fails“ hätte eigentlich schon in den 1950er Jahren auffallen müssen:
Replikationen scheiterten systematisch: Bereits kurz nach der Veröffentlichung versuchten andere Forscher, die Befunde zu replizieren:
Hardyck & Braden (1962) untersuchten eine apokalyptische Pfingstgemeinde – keine verstärkte Überzeugung oder Missionierung nach gescheiterter Prophezeiung.
Balch et al. (1983) studierten eine Bahai-Gruppe – die gescheiterte Prophezeiung untergrub Größe, Überzeugung und Enthusiasmus.
Zygmunt (1970) und Singelenberg (1989) fanden bei den Zeugen Jehovas, dass gescheiterte Prophezeiungen zu reduzierter Missionierung führten .
Wie reagierte das Feld auf diese gescheiterten Replikationen? Mit Ad-hoc-Erklärungen: Die Gruppen seien nicht isoliert genug gewesen, die Überzeugung nicht stark genug, die soziale Unterstützung nicht ausreichend. Jeder Negativbefund wurde wegerklärt.
Die Quellen waren zugänglich: Zeitungsartikel über Dorothy Martin, ihre eigenen Publikationen, Interviews: all das war verfügbar. Aber niemand schaute nach.
Die ethischen Probleme waren offensichtlich: Auch damals gab es ethische Standards für Forschung. Die massiven Manipulationen hätten Alarm schlagen müssen.
Warum passierte das nicht? Vermutlich aus demselben Grund, aus dem viele methodisch fragwürdige Studien Jahrzehnte überdauerten: Confirmation Bias. Die Geschichte passte zu gut zur Theorie. Sie war zu elegant, zu überzeugend, um sie zu hinterfragen.
Die experimentelle Evidenz: Auch hier bröckelt die Grundlage
Aber selbst wenn „When Prophecy Fails“ problematisch war, die Dissonanztheorie wurde doch in Hunderten von Laborexperimenten bestätigt, oder?
Das klassischste Paradigma ist das induced-compliance Experiment: Versuchspersonen werden gebeten, etwas zu tun, das ihrer Überzeugung widerspricht (z.B. einen Aufsatz für höhere Studiengebühren schreiben, obwohl sie dagegen sind) . Die Vorhersage der Dissonanztheorie: Wenn sie dies freiwillig tun (hohe Wahlfreiheit), erleben sie kognitive Dissonanz und ändern ihre Einstellung, um diese zu reduzieren .
Das wurde in Dutzenden von Studien “bestätigt”. Aber:
Die große Replikation (2024)
David Vaidis und Kollegen führten die bisher größte Replikation des induced-compliance Paradigmas durch: 4.898 Teilnehmer aus 39 Laboren in 19 Ländern .
Das Design war einfach :
Teilnehmer sollten einen Aufsatz für höhere Studiengebühren schreiben (kontraattitudinal).
Hohe Wahlfreiheit: „Es ist völlig Ihre Entscheidung“ + Einverständniserklärung + Betonung, dass sie ablehnen können .
Niedrige Wahlfreiheit: „Sie müssen den Essay schreiben“ + keine Einverständniserklärung.
Kontrollgruppe: Neutraler Essay über das Universitätsleben.
Die Vorhersage der Dissonanztheorie war klar: In der Bedingung mit hoher Wahlfreiheit sollten die Teilnehmer*innen ihre Einstellung zu Studiengebühren stärker in Richtung „dafür“ ändern als in der Bedingung mit niedriger Wahlfreiheit.
Das Ergebnis:
Der klassische Dissonanz-Effekt ließ sich nicht replizieren.
Konkret:
Die Wahlfreiheit machte keinen Unterschied: Ob Teilnehmer*innen „freiwillig“ oder auf Anweisung schrieben, hatte keinen Effekt auf ihre spätere Einstellung .
Es zeigte sich zwar ein Effekt des Schreibens gegen die eigene Überzeugung im Vergleich zu einem neutralen Essay aber dieser war unabhängig von der Wahlfreiheit.
Die Teilnehmer*innen berichteten zwar mehr Unbehagen und Konflikt (z.B. Items „uncomfortable“, „conflicted“) beim Schreiben gegen ihre Überzeugung , aber dies führte nicht zur vorhergesagten Einstellungsänderung in Abhängigkeit von der Wahlfreiheit.
Was bedeutet das?
Die Wahlfreiheit – lange als der entscheidende Faktor der kognitiven Dissonanz betrachtet – spielte keine Rolle. Das widerspricht fundamentalen Annahmen der Theorie.
Die Forscher*innen schreiben:
„Die Ergebnisse stellen in Frage, ob das induced-compliance Paradigma robuste Evidenz für kognitive Dissonanz liefert“.
Alternative Erklärungen
Was könnte die beobachteten Effekte (unabhängig von Wahlfreiheit) erklären? Es gibt mehrere plausible Mechanismen, die nicht notwendigerweise die Dissonanztheorie widerlegen, aber zeigen, dass die Evidenz mehrdeutig ist:
1. Selbstüberzeugung
Möglicherweise überzeugen sich Menschen einfach selbst, wenn sie Argumente für eine Position generieren – egal ob freiwillig oder nicht . Das ist ein bekannter Effekt aus der Persuasionsforschung und benötigt keine Dissonanztheorie.
2. Selbstwahrnehmung
Die Selbstwahrnehmungstheorie von Daryl Bem (1967) – ein alter Konkurrent der Dissonanztheorie – würde vorhersagen: Menschen beobachten ihr eigenes Verhalten („Ich habe für höhere Studiengebühren argumentiert“) und schließen daraus auf ihre Einstellung („Dann bin ich wohl nicht völlig dagegen“). Aber: Diese Theorie sagt KEINE besondere Rolle für Unbehagen oder Konflikt voraus – und genau das fanden Vaidis et al.: Die Teilnehmer*innen berichteten zwar Unbehagen, aber es führte nicht zur vorhergesagten Einstellungsänderung .
3. Kognitive Dissonanz – aber anders
Vielleicht gibt es kognitive Dissonanz, aber die Wahlfreiheit ist nicht der entscheidende Faktor. Vielleicht reicht die Inkonsistenz selbst – das Widersprüchliche zwischen Überzeugung und Verhalten . Das würde eher zu Leon Festingers (1957) Originalversion der Theorie passen, die Inkonsistenz betonte, während spätere Versionen (Cooper, 2007; Beauvois & Joule, 1996) die Wahlfreiheit in den Mittelpunkt stellten.
Die Replikationskrise in der Sozialpsychologie
Die Vaidis-Studie ist kein Einzelfall. Die Sozialpsychologie durchlebt seit etwa 2011 eine Replikationskrise. Viele klassische Befunde, die ich noch aus Lehrbüchern lernten durfte, erwiesen sich als nicht replizierbar. Viele davon habe ich hier im Blog auch schon beschrieben, unter anderem:
Stereotype Threat: Die Befunde sind heterogener und der Effekt kleiner als ursprünglich berichtet.
Mikroaggresionen: Sind auch nach 50 Jahren Forschung noch immer einen soliden Beweis schuldig.
Schwarze Ärzt*innen reduzieren das Sterberisiko schwarzer Babys im Gegensatz zu weißen Ärzt*innen (nicht).
Unconscious Bias Trainings: In der Regel wirkungslos.
Implizite Vorurteile (Implicit Bias) beeinflussen Verhalten nicht nachweislich.
Diverse Teams sind in der Regel nicht produktiver als homogene Teams.
Was haben diese Fälle gemeinsam?
Kleine Stichproben in den Originalstudien (oft n = 20 pro Bedingung).
Überraschend große Effektstärken (Cohen’s d > 0.8, oft sogar > 1.5).
Researcher degrees of freedom – Flexibilität bei der Datenanalyse.
Fehlende Replikationen über Jahrzehnte.
Publikationsbias – nur positive Ergebnisse wurden veröffentlicht.
All das trifft auch auf die klassischen Dissonanzstudien zu :
Croyle & Cooper (1983): n = 10 pro Bedingung, d = 2.40
Elliot & Devine (1994): n ≈ 20 pro Bedingung, d > 1.5
Simon et al. (1995): n ≈ 20 pro Bedingung, d > 1.5
Solche riesigen Effekte in so kleinen Stichproben sind statistisch extrem unwahrscheinlich, es sei denn, der wahre Effekt wäre tatsächlich gigantisch. Die Vaidis-Replikation mit 4.898 Teilnehmer*innen zeigt: Der Effekt ist viel kleiner (und strukturell anders) als behauptet.
Was bleibt von der kognitiven Dissonanz?
Bedeutet das, dass kognitive Dissonanz nicht existiert?
Nicht unbedingt. Aber es bedeutet, dass:
Die Evidenzbasis viel schwächer ist als gedacht.
Die Theorie weniger klar ist als behauptet – verschiedene Versionen machen unterschiedliche Vorhersagen.
Die Paradigmen methodische Probleme haben – wie die Manipulationen in „When Prophecy Fails“ oder die fragwürdigen Kontrollgruppen im induced-compliance Paradigma.
Die Effekte (wenn sie existieren) kleiner sind als ursprünglich berichtet.
Alternative Erklärungen oft genauso plausibel sind.
Leon Festinger würde vielleicht sagen: Die Sozialpsychologie erlebt gerade selbst kognitive Dissonanz. Wir sind konfrontiert mit Evidenz, die unseren etablierten Überzeugungen widerspricht. Wie reagieren wir?
Wie Dorothy Martin und ihre Anhänger*innen, die ihre gescheiterte Prophezeiung ignorierten? Oder wie gute Wissenschaftler*innen, die bereit sind, ihre Theorien zu revidieren? Für mich bedeutet es erstmal, dass ich die Cognitive Dissonanz mental von meinem “Ja, das ist bestätigt” zu in meinen “Abwarten, ob es je bestätigt wird” Ablageordner verschiebe.
Die Ironie der Geschichte
Es gibt eine tiefe Ironie in dieser Geschichte:
Die Theorie der kognitiven Dissonanz wurde begründet mit einer manipulierten und verfälschten Studie über eine UFO-Sekte, deren Verhalten das Gegenteil von dem war, was behauptet wurde.
Und nun zeigt sich, dass sogar die saubersten und besten Paradigmen der Theorie nicht so robust sind wie gedacht.
Vielleicht ist die eigentliche Lektion von „When Prophecy Fails“ nicht die, die Festinger beabsichtigte. Vielleicht ist die Lektion: Wissenschaft braucht Transparenz, Replikation und die Bereitschaft, etablierte Wahrheiten zu hinterfragen.
Das ist unbequem. Es bedeutet, dass viele Lehrbücher umgeschrieben werden müssen. Dass Theorien, die Generationen von Studierenden lernten, komplexer oder sogar falsch sind.
Aber genau das ist der Kern guter Wissenschaft: Die Bereitschaft, sich selbst zu korrigieren.
Für Lehrbuchautor*innen und Dozent*innen bedeutet das konkret: Nicht „Dissonanz existiert nicht“, sondern „Die Evidenz ist komplexer und mehrdeutiger, als wir dachten“ – und genau diese Ehrlichkeit über die Grenzen unseres Wissens macht gute Wissenschaftsvermittlung aus. Sie zeigt Studierenden, wie Wissenschaft wirklich funktioniert: nicht als Sammlung unverrückbarer Wahrheiten, sondern als fortlaufender Prozess der kritischen Überprüfung und Revision.
Literatur:
Vaidis, D. C., Sleegers, W. W. A., van Leeuwen, F., et al. (2024). A Multilab Replication of the Induced-Compliance Paradigm of Cognitive Dissonance. Advances in Methods and Practices in Psychological Science, 7(1), 1–26.
Kelly, T. (2025). Debunking “When Prophecy Fails”. Journal of the History of the Behavioral Sciences.
Festinger, L. (1957). A Theory of Cognitive Dissonance. Stanford University Press.
Festinger, L., Riecken, H. W., & Schachter, S. (1956). When Prophecy Fails. University of Minnesota Press.


Leider dauert es aktuell ewig bis sich derartige Erkenntnisse durchgesetzt haben. Das wissenschaftliche System gehört revolutioniert.