28. Januar 2011

Die Studie, welche angeblich belegt, dass es «PSI» gibt (Teil 1)

Das Rauschen um eine Studie des Psychologen Daryl J. Bem, in welcher dieser zum Schluss gelangt, es gebe «PSI»-Phänomene (konkret: «Präkognition»), war bisher erstaunlich verhalten; Erwähnung findet Bem z.B. bei Tagesanzeiger-Online.
Die Studie erscheint demächst in «Journal of Personality and Social Psychology»; eine Vorab-Version (welche im Wesentlichen dem zu veröffentlichenden Text entsprechen wird) ist kostenlos auf Daryl Bems Homepage herunterladbar.

An dieser Studie ist Vieles zu kritisieren; meinen Kommentar möchte ich in folgende Punkte gliedern:
  1. Vorwort
  2. Explorative und hypothesenprüfende Forschung
  3. Falsche Kritik? Die Sache mit der Statistik
  4. Die neun Experimente
  5. Quantenmystik
  6. Fazit
Wie diese Auflistung vermuten lässt, ist das Ganze eine etwas längere Angelegenheit. Darum behandle ich in Teil 1, diesem Blogeintrag, die Punkte 1 bis 3, welche eher allgemeine Dinge besprechen. Teil 2, in welchen ich mich konkreteren Aspekten der Studie widme, folgt in Kürze.

Wer wenig Lust zum weiterlesen hat, kann sich glücklich schätzen: Daryl Bem, der Studienautor, fasst (wohl ungewollt) im ersten Satz der Studie zusammen, warum deren Schlussfolgerungen ungültig sind:
The term psi denotes anomalous processes of information or energy transfer that are currently unexplained in terms of know physical or biological mechanisms.
Auf den ersten Blick klingt diese Definition harmlos: Dinge wie «Präkognition», um welche es in Bems Studie geht, sind Informations- oder Energietransfer, für welche kein Erklärungsmechanismus vorliegt. Bei genauerer Überlegung zeigt sich aber rasch, dass derartige Aussagen in leichter Variation auch anderswo vorkommen, z.B. bei Kreationisten: Es gibt einen Schöpfergott, weil Evolutionstheorie nicht alles erklärt; was Evolutionstheorie nicht erklärt, ist Beweis für den Schöpfergott. Oder bei UFO-Anhängerinnen und Anhängern: Was fliegt und unbekannt ist, ist ausserirdischen Ursprungs.

Daryl Bem beschreibt in dem ersten Satz seiner Studie, dass das Konzept des «PSI» ein einziger «appeal to ignorance»-Fehlschluss ist.

1. Vorwort
Skeptiker sind Menschen wie andere auch, und als solche grundsätzlich verzerrenden, das rationale Argument vernebelnden Einstellungen und Emotionen ausgeliefert. Skeptisch Eingestellte wissen allerdings um diese Gefahren, sind sie doch einer der Hauptgründe, warum sich Irrationales aller Couleur, von Astrologie über Wunderheilerei bis hin zu Reiki-Schwurbelei, reger Beliebtheit erfreut.

Skeptizismus meint, die Qualität der Argumente für bestimmte Behaputungen, z.B. für «PSI», zu prüfen, wendet also kritisches Denken an. Es ist denn auch nicht viel Arbeit nötig, um die Aussagen von vermeintlichen Wahrsagern wie den Begrügern Pascal Voggenhuber oder Kim-Anne Jannes in ihrer Ungültigkeit zu entlarven. Ähnlich ist es mit anderen Bereichen, für welche längst eindeutig erwiesen ist, dass das, was behauptet wird, nicht vorhanden ist - klassisches Beispiel ist Homöopathie, ein wissenschaftlich rundum obsoletes Konzept.

Einerseits sind skeptische Abwehrreflexe gegen altebekannten Humbug nachvollziehbar, andererseits sollten angebliche Beweise, wie sie eben Bem für «PSI» vorzulegen meint, einigermassen seriös geprüft werden - nicht zuletzt, weil in diesem Fall vermutlich Menschen mit dem Thema «Parapsychologie» in Berührung kommen, welche damit ansonsten wenig zu tun haben. Wenn nun auf der einen Seite ein Wissenschaftler mit einer empirischen Untersuchung steht, auf der anderen die hämische Skeptikergemeinschaft, kann durchaus der Eindruck entstehen, der sanftmütige Wissenschaftler habe Recht, die Spötter Unrecht.
In z.B. diesem Artikel wird Bems Studie verlacht, ähnlich lapidar geht das «Skeptic's Guide to the Universe»-Team im Podcast #288 vor. Auch Der Spiegel argumentiert schwach, die GWUP pauschalisiert (hier und hier).

Mir scheint, dass in dem Fall der Studie Bems bisweilen emotionale und skeptische Reaktionen vermischt werden. Mit diesem Blogeintrag möchte ich einen kleinen Beitrag zum kritischen Umgang mit Bems studie leisten, ohne diesen a priori abzulehnen.
Womöglich spricht hier aber nur der Philip K. Dick- und Stephen King-Leser in mir, der es ein ganz klein wenig geil fände, wenn es endlich Mal einigermassen gute Gründe gäbe, anzunehmen, dass es «PSI» wirklich gibt. Bems Studie aber, so ein Vorgriff auf das Fazit, liefert keine solche Gründe.

2. Explorative und hypothesenprüfende Forschung
Ein grosses, wenn nicht gar das wesentliche Problem dieser Studie ist etwas abstrakterer Art: Der Unterschied zwischen explorativer und hypothesenprüfender Forschung.

Grob eingeteilt, hat wissenschaftliche Forschung einen von zwei Zwecken, Exploration oder Hypothesenprüfung. Der Unterschied dieser zwei Ansätze ist simpel: Exploration meint das Beobachten eines eher schwach bis gar nicht erforschten Gebietes, um erste Informationen zu gewinnen, um erste Orientierung zu schaffen. Hypothesenprüfung findet anschliessend statt, wenn nämlich genügend Information vorliegt, um sinnvolle Annahmen zu treffen und durch Messung zu prüfen.

Mit einer kleinen Metapher ist diese Unterscheidung klarer fassbar.
Angenommen, irgendwo in den Alpen gebe es eine dunkle Höhle. Noch ist unbekannt, was es mit dieser Höhle auf sich hat. Um etwas darüber zu erfahren, macht sich Forscherin A auf den Weg dorthin, nimmt Lampen und Fotoapparate mit und sammelt erste deskriptive Informationen zur Höhle. Auf diesen gesammelten Informationen aufbauend, stellt Forscher B plausible Hypothesen auf, z.B., dass die von Forscherin A beobachteten Kotrückstände in der Höhle bedeuten, dass die Höhle als Winterbehausung für bestimmte Tierarten dient. Auf in Exploration gründenden Daten beruht die zu prüfende Hypothese.

Unzulässig wäre aber folgendes Szenario: Ohne vorherige Exploration der Höhle, also ohne Wissen über die Höhle, stellt Forscher B die Hypothese auf, dass in der Höhle keine Tiere leben (vorhandenes Wissen aus z.B. Geografie und Geologie sei an dieser Stelle ausgeblendet).
Auch wenn sich herausstellen sollte, dass diese Hypothese zutrifft, ist ein solches Vorgehen grundsätzlich sinnlos: Warum soll ausgerechnet diese Hypothese untersucht werden? Es gibt in diesem Szenario keinen Grund, diese Hypothese als prüfenswert zu erachten, ist doch jede andere denkbare Hypothese ebenso (un-)plausibel: In der Höhle leben Tiere, die Höhle ist nur eine optische Täuschung, die Höhle hat rosa Wände, in der Höhle ist Staub, in der Höhle ist kein Staub - und undendlich viele mehr.

Genau diesen Fehler begeht Bem: Er prüft Hypothesen, wo bestenfalls explorative Grundlagenforschung angebracht ist. Was Bem damit effektiv macht, ist, vollkommen willkürliche Ad Hoc-Hypothesen zu prüfen. Zu keinem Zeitpunkt ist auch nur ansatzweise erklärt, warum Bem eigentlich macht, was er macht. Ad Hoc-Hypothesen sind banal, da sie auf nichts beruhen: Wenn eine zu prüfende Hypothese nicht ausreichend gut begründet wird, sind die Ergebnisse praktisch irrelevant.

Dieses Vorgehen, Hypothesen zu prüfen, welche unbegründet sind - also der Form nach hypothesenprüfend, dem Sinn nach explorativ zu forschen - ist oft Kennzeichen von Pseudowissenschaft. Nicht selten ist dies z.B. bei Forschung zu gewalthaltigen Videospielen zu beobachten: Studien, welche angeblich belegen, dass «Killerspiele» zu realen Aggressionen und Aggressivität führen, sind nicht selten frei von seriöser Einbettung in Theoriegerüste. Das ist insofern problematisch, als solche «Killerspiel»-Studien in der Regel das aus Sicht der Medienwirkungsforschung primitive und schlicht falsche «Stimulus-Response»-Modell anwenden.

Dieser gravierende Fehlschluss der unsinnigen Hypothesenprüfung ist das wesentliche Merkmal von «tooth fairy science»: So tun, als ob die Hypothesen, welche geprüft werden, plausibel sind.
Derart erarbeitete Ergebnisse sind nicht aussagekräftig: Ad Hoc-Hypothesen können bestätigt werden, aber trotzdem falsch sein. Klassisches Beispiel ist die Annahme, dass Storche Kinder bringen, weil an Orten, wo mehr Storche leben, auch überdurchschnittlich viele Menschenkinder anzutreffen sind. Statistisch kann dieser Zusammenhang gegeben sein, die kausale Ad Hoc-Erklärung bleibt aber Unsinn (ob diese Korrelation tatsächlich existiert, weiss ich nicht; vielleicht wohnen Familien tatsächlich öfter in eher ländlichen Gegenden).

Insbesondere Sozial- und Geisteswissenschaften sind auf die rigorose Unterscheidung zwischen Exploration und Hypothesenprfung angewiesen. In diesem Blogeintrag spreche ich das Thema der Validität an: Wenn Wissenschaftlerinnen und Wissenschaftler aus sozial- und geisteswissenschaftlichen Disziplinen (wie eben Psychologie) abstrakte, nur indirekt messbare Konzepte vorschlagen, ist die Begründung der vermeintlichen Validität der Messkonstrukte für solche Konzepte der Kern der Forschung. Bei Bem fehlt dies gänzlich - das ist nicht Wissenschaft, sondern irrelevante Spekulation.

Diese Kritik expliziere ich in Teil 2 zu Bems Studie, in welchem ich die einzelnen Experimente kommentiere.

3. Falsche Kritik? Die Sache mit der Statistik
In dieser empirischen Studie nutzt Bem bestimmte Statistik-Werkzeuge, um die Frage der «Signifikanz» seiner Beobachtungen zu messen. Gegen ein derartiges Vorgehen ist grundsätzlich nichts einzuwenden: Es ist ein gängiges Verfahren, bei geeigneter Datenlage zu prüfen, wie es mit der sogenannten Irrumswahrscheinlichkeit steht. Das bedeutet schlicht, dass berechnet wird, wie wahrscheinlich es ist, dass die Beobachtungen zufällig sind.

Eine allgemein verwendete Daumenregel ist, dass das 5%-Signifikanzniveau relevant ist: Wenn die Wahrscheinlichkeit, dass die gemessene Verteilung zufällig ist, bei 5% oder weniger liegt, ist die Rede von «signifikanten» Werten.
Im Kontext der Hypothesenprüfung bedeutet dies in etwa folgendes: Die zu prüfende Hypothese ist H1, und es gilt, die sogenannte Nullhypothese H0 zu verwerfen. Eine einfache Nullhypothese wäre z.B. «Es besteht kein Zusammenhang zwischen Alter und Einkommen», die zu prüfende Alternativhypothese H1 «Je älter Menschen sind, desto höher ist ihr Einkommen». Nun kann versucht werden, mittels bestimmter statistischer Verfahren, z.B. einer einfachen Korrelationsmessung, zu erörtern, ob die Hypothese H1 gestützt wird, was bedeutet, dass die Nullhypothese H0 verworfen würde. Angenommen, es ergibt sich für dieses Fantasiebeispiel ein starker Korrelationskoeffizient von r=0.83 mit einer unter 1% liegenden Irrtumswahrscheinlichkeit. In diesem Fall wäre es zulässig, zu sagen, dass für die vorliegende Untersuchung die Hypothese H1 gestützt wird, die Nullhypothese H0 verworfen werden kann.
Dieses Beispiel zeigt auch auf, dass die Frage, ob die jeweilige Nullhypothese tatsächlich verworfen werden kann und ob die zu prüfende Hypothese gestützt wird, eine Sache der Interpretation ist. Statistische Kennzahlen liefern bloss schweigende Zahlen - es ist immer argumentativ zu begründen, was diese Zahlen bedeuten sollen.

Im Falle Bems ist das Problem, wie ich im Abschnitt 2 auszuführen suchte, dass keine vernünftige Grundlage für seine Hypothesenprüfung vorhanden ist. Das Verfahren selber aber ist unproblematisch; statistische Werte wie eben Signifikanzniveaus sind neutrale Werkzeuge. Dennoch gibt es zwei Dinge im Zusammenhang mit Bems statistischem Vorgehen zu besprechen:

3.1 Bayes'sche Hypothesentests
Das Paper «Why Psychologists Must Change the Way They Analyze Their Data: The Case of Psi» ist eine Kritik an Bems Studie, in welcher im Wesentlichen gefordert wird, klassische statistische Hypothesentests mittels dem oben beschriebenen «Signifikanz»-Ansatz durch Bayes'sche Wahrscheinlichkeitsrechnungen zu ersetzen.
Das Bayes-Theorem wird bei der Berechnung bedingter Wahrscheinlichkeiten verwendet: Was ist die Wahrscheinlichkeit für B, wenn A. Dieser Ansatz mag etwas kompliziert klingen, an Beispielen wie dem Berühmten Monty Hall-Problem («Ziegenproblem») lässt sich dieser letztlich elegante Ansatz veranschaulichen.

Die Autoren dieser Studie fordern, dass klassische Hypothesenprüfung durch die Bayes'sche Variante ersetzt werden soll, damit die Beurteilung einer Hypothese nicht isoliert stattfindet, sonder «prior probabilities» einschliesst. Dieses Modell zeigen die Autoren auf Seite 7 in übersichtlicher Form:
Das klingt soweit gut - diese Berechnung hat den eindeutigen Vorteil, auch Aussagen zur Nullhypothese und nicht nur zur Alternativhypothese zu machen (bei klassischen Hypothesenthests wird ja nur die Irrtumswahrscheinlichkeit der Alternativhypothese gemessen, nicht aber der Nullyhpothese selber).
Diese Kritik der Bayes-Statistikerinnen und -Statistiker ist aber, so meine ich, letztlich unangebracht und möglicherweise gar problematischer als Bems «PSI»-Studie selber.

Es drängt sich bei dieser Berechnung die Frage auf, woher der Wert für «prior odds» kommt. Die «prior odds» müssen, könnte man meinen, irgendwie unabhängig vorhanden sein. In vielen Fällen ist dem auch so; beispielsweise eben beim Monty Hall-Problem. Im Bereich der Geistes- und Sozialwissenschaften ist dieser Wert hingegen letztlich oft eine subjektive Schätzung der Person, welche die Berechnung durchführt.
Zwar gibt es Methodenstreite zwischen «Subjektivisten», welche sich auf explizit subjektiv geschätzte «prior probabilities» stützen, einerseits, und «Objektivisten», welche den «prior probability»-Wert aus empirischen und theoretischen Daten zu berechnen suchen. «Objective priors» bedingen aber, dass schlüssige Annahmen im Voraus überhaupt machbar sind. Das ist oft der Fall, oft aber auch nicht.

In dem Paper «Bayesian t tests for accepting and rejecting the null hypothesis» wird ein Vorgehen vorgeschlagen, mit welchem «prior probabilities» «objektiv» einbindbar sind. Das Problem des bisweilen fehlenden Vorwissens ist damit aber, scheint mir, nicht gelöst, lediglich der Bereich der Willkür eingeschränkt; diese «priors» bleiben «noninformative». In Betreff des Bayes-Ansatzes bin ich wohl gleichermassen skeptisch wie unwissend, aber auch jenseits der Gefahr der «prior probabilities» sehe ich die Bayes'sche Kritik an Bems Studie als unnötig:

  • Statistics mining: Die Resultate gefallen nicht, darum wird anders gerechnet. Et voilà, statistisch doch alles irrelevant.
  • Pseudoproblem: Klassische Hypothesenprüfung als reines Werkzeug ist grundsätzlich unproblematisch. Derartige Zählverfahren geben lediglich Werte für die konkret vorliegende Untersuchung an. Wie ich weiter oben ausführte, sagt ein Signifikanzwert, sagt eine Effektstärkte allein nichts aus; die Interpretation interessiert. Nach meinem Dafürhalten gibt Bayes'sche Hypothesenprüfung hier falsche Sicherheit: Die Interpretation mag einfacher ausfallen, die Grundlagen der Berechnung sind dafür problematisch.
Bei klassischer Hypothesenprüfung ist folgender Satz ein guter Leitfaden: Garbage in, garbage out. Das Problem ist nicht so sehr die Statistik, sondern das, was auf der einen Seite rein- (theoretische Begründung für das empirische Vorgehen), auf der anderen rauskommt (Interpretation). 


3.2 «One-tailed»- und «two-tailed»-Tests: Billige Statistik-Tricks
Unter dem Punkt 3.1 erkläre ich, dass klassische Statistikverfahren, wie sie Bem anwendet, nicht per se problematisch sind. Das bedeutet aber nicht, dass Manipulation ausgeschlossen ist. Ein kleines, aber nicht unerhebliches Detail ist mir aufgefallen, welches mich zum Schäumen gebracht hat. Dazu ist ein kurzer Exkurs nötig.

Bem wendet sogenannte «t-tests» als Verfahren an, um die Signifikanz seiner Messungen zu bestimmen; ein gängiger Test, wenn die Standardabweichung der Population unbekannt ist.
Um Bems Einsatz dieser an sich harmlosen t-Tests zu kritisieren, ist das «central limit theorem», der zentrale Grenzwertsatz, kurz zu erwähnen: Werden von beliebigen Merkmalen Stichproben gezogen, kann davon ausgegangen werden, dass die Mittelwerte der Stichproben normalverteilt sind.
Diese Eigenschaft erlaubt es, einen Mittelwert erhobener Merkmalsausprägungen durch Standardisierung umzuwandeln. Im Falle des hier interessierenden t-Tests wird der erhaltene Wert mit der relevanten, durch sogenannte Freiheitsgerade bestimmten t-Verteilung verglichen. Die Alternativhypothese besagt, dass sich der gemessene Mittelwert vom, in diesem Fall geschätzten, Populationsmittelwert unterscheidet. Wenn nun die Irrtumswahrscheinlichkeit bei z.B. 5 % liegen soll, bedeutet das, grafisch ausgedrückt, Folgendes (Quelle):
Der gemessene Wert muss in einer der dunkelblauen Flächen liegen: 95% aller Werte liegen in dem hellblauen Teil der Fläche. Mit 1.96 und -1.96 sind die kritischen t-Werte gegeben: Der t-Test berechnet, ob der t-Wert (=Anzahl der Standardabweichungen) für die erhobenen Daten für das gewünschte Signifikanzniveau genügt.
Wenn also der t-Wert für die durchgeführte Messung ergibt, dass 95% der Fläche «abgeschnitten» werden, bedeutet das Folgendes: Die Wahrscheinlichkeit, dass die gemessenen Werte Teil der t-Verteilung sind, beträgt nur 5% - mit 95%-iger Wahrscheinlichkeit entsprächen die gemessenen Daten also nicht der anzunehmenden Zufallsverteilung.

Obige Grafik ist zur Illustration wichtig, weil die Fläche beim gleichen 5%-Signifikanzniveau auch anders «abgeschnitten» werden kann (Quelle):
Im ersten Bild wird nur links, im Negativbereich 5% weggeschnitten, im zweiten Bild nur rechts, im Positivbereich. Es fällt auf, dass der t-Wert in diesen beiden Fällen jeweils grösser bzw. kleiner ist: Die Signifikanz bleibt bei 95%, die gemessenen Daten werden aber weniger streng beurteilt. Es ist also möglich, dass für bestimmte erhobene Daten keine 5%-Signifikanz vorliegt, wenn mit einem «two-tailed»-Test kontrolliert wird, für dieselben Daten aber eine 5%-Signifikanz vorliegt, wenn nur mit einem «one-tailed»-Test kontrolliert wird.

Die drei Bilder zeigen also den Unterschied zwischen «one-tailed» und «two-tailed»-Tests: «One-tailed»-Test können Signifikanz nur in eine bestimmte Richtung zeigen. «Two-tailed»-Test messen Signifikanz in beide Richtungen.
«Two-tailed»-Tests sind strenger und de facto Standard in Sozial- und Geisteswissenschaften. «One-tailed»-Tests sind nur selten zulässig: Liegen genügend gute, bombenfeste Gründe vor, davon auszugehen, dass die Signifikanz definitiv nur in eine Richtung verlaufen kann, können «one-tailed»-Tests verwendet werden. Solche Gründe sind selten.

Bem verwendet in seiner «PSI»-Studie standardmässig «one-tailed»-Tests, wie er in einer Fusszeile auf Seite 9 bemerkt:
Bei Bem ist die Verwendung von «one-tailed»-Tests reinste Statistik-Trickserei und völlig unzulässig. Unter Abschnitt 2 führe ich aus, dass Bems Studie jeder theoretischen Grundlage entbehrt, er letztlich irrelevante Ad Hoc-Hypothesen prüft. Gerade angesichts des Umstandes, dass er kein theoretisches Fundament hat, ist die Verwendung von «one-tailed»-Tests unhaltbar: Es gibt absolut keinen Grund, anzunehmen, dass die von ihm vermuteten «PSI»-Effekte nur in eine Richtung signifikant sein sollten. Warum, um auf ein Experiment vorzugreifen, sollen «Präkognition» nur bewirken, dass die Versuchsteilnehmenden ausschliesslich öfter erotische Bilder anschauen und nicht seltener?

Bem bentutzt «one-tailed»-Tests einzig, um einfacher zu signifikanten Werten zu kommen.

Zwischenfazit
In diesem Blogeintrag schlage ich Kritik allgemeinerer Art an Daryl Bems «PSI»-Studie vor. In Teil 2 widme ich mich vor allem den neun von Bem durchgeführten Versuchen.
Genau genommen wäre ein kritischer Blick auf die einzelnen Versuche nicht nötig, ist doch schon so Vieles grundsätzlicher Art an dieser Studie verkehrt. Das konkrete Vorgehen Bems veranschaulicht aber einige der Kritikpunkte, welche ich oben ausführe, recht gut - und im Vorwort oben prangere ich ja selber jene Kritik an Bem an, welche pauschalisiert, anstatt ins Detail zu gehen.

2 Kommentare:

Dan hat gesagt…

Als Statistiker bin ich begeistert von diesem 1. Teil und kann den 2. Teil kaum erwarten. Leider ist es ein gängiger Trick, einseitige Tests zu verwenden, um die p-Werte zu frisieren. Auch unlautere Verwendung von Nullhypothesen und deren Verwerfung ist oft anzutreffen. Dazu folgende Literaturhinweise:

Im Buch How To Lie With Statistics von Darrell Huff werden Themen wie Korrelation impliziert nicht Kausalität oder das alltägliche "anpassen" von Grafiken (Abschneiden von x/y-Achsen, suggestive Trendlinien, etc...) ausführlich behandelt. Die one-tailed vs two-tailed Geschichte ist dort auch zu finden.

Eine sehr süffisante Publikation kommt von John Ioannidis mit dem Titel Why Most Published Research Findings Are False, 2005, PLoS Med 2(8). Der Artikel ist hier öffentlich erhältlich. Einer der Schwerpunkte ist dort zwar fehlende Korrektur für multiples Testen, aber Hypothesenformulierung resp. -berechtigung wird auch elaboriert. Der Titel verspricht übrigens nicht zu wenig - u.a. untersucht Ioannidis verschieden bekannte medizinische Publikationen und kommt nach einigem Hick-Hack in einem Nachfolgepaper (Contradicted and initially stronger effects in highly cited clinical research) zum Schluss, dass von 34 erneut analysierten Studien 41% falsch waren.

Wie gesagt, freue mich schon auf Teil 2.

Ausserdem, ich war masslos enttäuscht von Man in the high castle...

Marko Kovic hat gesagt…

Merci für die Literatur-Hinweise!

"How to lie with statistics" habe ich bestellt; scheint ein zeitloser Klassiker zu sein (geschrieben in den 1950-ern, oder?).

Auf den Artikel von Ioannidis bin ich zufällig auch gestossen, und zwar auf "Science-based Medicine.
Hier wird auch für den vermehrten Einsatz von Bayes-Wahrscheinlichkeiten plädiert, wobei ich, wie ich oben im Blogeintrag erwähne, nicht überzeugt bin (aber vielleicht, weil ich den Ansatz zu wenig gut verstanden habe).

The Man in the High Castle hab ich noch nicht gelesen; dafür kann ich The Long Walk und The Running Man von King empfehlen ;).

Kommentar veröffentlichen