Die Statistik als Feindin der Emanzipation

Nie wieder Wetterbericht!

Wie die Wahrscheinlichkeitsrechnung zur Broken-Windows-Theorie und diese zur Zero-Tolerance-Politik führte, und warum Statistik und Vorhersagen die Feinde jeder Emanzipation sind. Ein Plädoyer gegen die Gauß’sche Normalverteilung.

Wir leben im Zeitalter der Versicherungsstatistiker. Man kann heute, wenn man das nötige Geld hat, ohne Probleme eine Speichel- oder Mundschleimhautprobe in einen Brief stecken und an ein Genomanalyselabor schicken. Es dauert dann nicht lange, und man wird, scheinbar sehr individuell, mit allen möglichen Wahrscheinlichkeiten konfrontiert: Nach den Sequenzen der Genbausteine zu urteilen, liegt die Wahrscheinlichkeit, an Hautkrebs zu erkranken, bei 47,2 Prozent, das Herzinfarktrisiko bei 55 Prozent, und außerdem sind Sie nicht rein mitteleuropäischer Abstammung. Wie die Gene zeigen, ist irgendeiner Ihrer Vorfahren mal mit Krim-Tataren in Berührung gekommen. Wenn Sie davon noch nichts wussten, sollten Sie mal schleunigst Ihre Großmütter nach außerehelichen Verbindungen fragen.
So oder so ähnlich sehen dann die Ergebnisse des so genannten Genomic Scan aus. Die Wahrscheinlichkeitsberechnungen sind nicht sehr präzise und können es auch gar nicht sein. Denn wie sollen auf diesem Analyseweg etwa Faktoren wie die Lebensumstände und das persönliche Verhalten der betreffenden Person, die bei der Herausbildung der meisten im Genomic Scan betrachteten Krankheiten eine Rolle spielen, berücksichtigt werden? Sie werden natürlich gar nicht berücksichtigt, was aber nichts ausmacht. Die Vorhersagen entfalten ihre Wirkung auch ohne die praktische Überprüfung am konkreten Einzelfall. Mehr noch, sie können gleich ihre »eigene« vorausgesagte Praxis hervorbringen. Dass die Angst vor einer Krebserkrankung einer der Faktoren sein kann, die Krebs auslösen, bezweifelt nämlich kaum ein mit der Krankheit beschäftigter Wissenschaftler. Und dass Versicherungsunternehmen mittlerweile Kunden ausschließen oder gar nicht erst aufnehmen, wenn sie ihnen ein Krankheitsrisiko verschwiegen haben, kann man in der Zeitung lesen.
Weil aber trotz dieser bekannten Nebenwirkungen die meisten Leute sich der Prozedur der Genomanalyse freiwillig unterziehen und die Auftragslage den Genomlabors nicht zum Klagen Anlass gibt, bleibt die Frage, woher die Attraktivität solcher Analysen und ihrer Vorhersagen kommt. Es ist offensichtlich die große Zahl, die solchen Wahrscheinlichkeitsrechnungen ihre Evidenz verleiht. Genomanalysen rechnen mit Datensätzen, die in Milliarden zählen. Nicht ganz so hoch sind die Zahlen, auf deren Grundlage die Versicherungs­industrie die Lebenserwartung und Sterblichkeitsrate bestimmter Bevölkerungsgruppen vorhersagt, um danach die individuellen Prämien der zu Versichernden festzulegen. Die aus den Datensätzen abstrahierten statistischen Wahrscheinlich­keiten erzeugen auch in diesem Fall ihre eigene Konkretion, das weiß jeder, der Versicherungsprämien zahlt. Die Vorhersagbarkeit wird in diesen Fällen zu einer Quelle des Profits für die Industrien und auf der Abnehmerseite im besten Fall zu einer des Vertrauens: Wenn meine Gene kein Herzinfarktrisiko bergen, ist das prima, und wenn doch, kann ich ja schon früh anfangen, gesünder zu leben.
Dass sich mit den so gesammelten Daten aber noch ganz andere Dinge machen lassen, aus denen dann Kontrollmechanismen hervorgehen, die die finstersten Science-Fiction-Visionen als steinzeitlich erscheinen lassen, wird deutlich, wenn man sich ihre Anwendung in der Kriminalitätsbekämpfung und -prävention näher ansieht.

Die Profiler kommen

Es sind die versicherungsstatistischen Methoden, die in den zwanziger und dreißiger Jahren in den USA in die Kriminalitätsforschung eingeführt werden und die Vorhersagbarkeit abweichenden Verhaltens versprechen. »Predictability is feasible«, Vorhersagbarkeit ist machbar, verkündete 1928 der in Chicago lehrende Soziologe Ernest W. Burgess und lieferte das Handwerkszeug aus der Versicherungsstatistik dafür gleich mit. Burgess hatte in den zwanziger Jahren als einer der Ersten Vorhersagen über die Bewährung von Gefängnisinsassen auf der Basis von 3 000 Probanden erstellt. Seitdem haben die Methoden, die Vorhersagen über den Erfolg oder Misserfolg eines zur Bewährung entlassenen Gefängnisinsassen ermöglichen sollen, die Gefängnisse längst verlassen – allerdings ohne sich bewährt zu haben. Diskriminanzanalysen, statistische Verfahren, die es möglich machen, Objekte oder Personen, deren Klassen- oder Gruppenzugehörigkeit unbekannt ist, bekannten Klassen oder Gruppen zuzuordnen, werden an Flughäfen eingesetzt, um mutmaßliche Drogenkuriere oder potenzielle islamistische Terroristen ausfindig zu machen, im Straßenverkehr, um Verkehrssünder prophylaktisch in den Blick zu nehmen. Sie werden zunehmend wichtiger bei der Fahndung nach Tätern. So genannte Profiler, die die Fahndung mit diskriminanzanalytischen Methoden auf eine bestimmte Täterklasse einschränken, sind inzwischen selbst im »Tatort« schon aufgetreten. Und die diskriminanzanalytisch gewonnenen Profile bestimmen nicht selten das Strafmaß und die Bestrafungsform.
Auf dem heutigen Stand der Technik ist es so möglich, auf der Basis der Profilvorhersage potenzielle Täter mit einem Armband auszustatten, das in jedem Moment die Position des verdächtigen Elements im Raum anzeigt. Und es ist auch keine Science Fiction mehr, sich eine Apparatur vorzustellen, die einem Arbeitgeber jeden Moment oder alle halbe Stunde den physiologischen Zustand eines Angestellten durchfunkt und so die Entlassung noch vor dem tatsächlichen Herzinfarkt kostengünstig durchführbar macht.
Wie absurd die an großen Zahlen errechneten Vorhersagen einer möglichen Abweichung vom gewünschten klassifikatorischen Muster schon jetzt auch im buchstäblich kleinsten Bereich sein können, hat die taz kürzlich in einer Reportage auf ihren Bildungsseiten anhand eines Porträts einer bayerischen Grundschullehrerin gezeigt. Die Lehrerin hatte es dank eines herausragenden pädagogischen Engagements geschafft, dass sich 91 Prozent der Schüler ihrer 4. Klasse für eine weiterführende Schule qualifiziert hatten. Da die Tatsache nicht auf eine beliebige Notenvergabe der Lehrerin zurückzuführen war – die Schüler schnitten auch in klassenübergreifenden Tests genauso herausragend gut ab –, wurde der ganz große Vergleich aufgeboten. Die Lehrerin habe sich dem »Niveau der Parallelkollegen« anzupassen, beschied der zuständige Schulrat. Auf Deutsch: In einer Klasse muss es Fünferschüler geben, und nach allen Vorhersagen der deutschen Bildungsstatistik bleibt ein Fünferschüler eben ein Fünferschüler, wie ein Hartz-IV-Kind eben ein Hartz-IV-Kind bleibt.
Das ist zum einen ein klassisches Beispiel dafür, wie durch die falsche Konkretion der ab­strak­ten Gauß’schen Normalverteilung Wirklichkeit vernichtet wird und damit auch Gauß’ kontinuierliche Wahrscheinlichkeitsverteilung am praktischen Beispiel unwahr. Zum anderen zeigt es, wie gesellschaftlich hergestellte Normen – eine Klasse hat gute, mittlere und schlechte Schüler auf Normalniveau zu haben – als quasi naturgegeben installiert und fortgeführt werden können.
Der Statistik, die eine gegebene zufällige Menge in eine große Mitte mit kleinen Rändern links und rechts klassifiziert, wird die dazugehörige Empirie erschaffen. Und dieses Missverständnis von abstrakter Mengenwahrscheinlichkeitsverteilung und empirisch erst noch zu ermittelnder tatsächlicher Verteilung einer ins Auge genommenen Menge kann so weit gehen, dass Wahrscheinlichkeitstheorien auch als empirisch gesichert angesehen werden, selbst wenn es die Empirie gar nicht gibt.

Null Toleranz für kaputte Fenster

Als ich zwei befreundeten Journalisten, einer arbeitet bei einer linken Wochenzeitung, der andere bei einer eher als bürgerlich zu charakterisierenden Zeitung, von meinem Vorhaben erzählte, Material gegen Vorhersagen zu sammeln, wie sie etwa in der Broken-Windows-Theorie getroffen werden, sagten beide freudig triumphierend, die habe sich doch als richtig erwiesen. Als richtig erweist sich die Theorie, dass ein nicht repariertes eingeschlagenes Fenster einen ganzen Rattenschwanz fataler negativer Rückkopplungseffekte nach sich zieht, der zur endgültigen Verwahrlosung des Bezirks mit dem kaputten Fenster führt, nur, wenn man sie eben ohne Empirie auf sich selbst bezieht. Als die Broken-Windows-Theorie 1982 erstmals im Atlantic Monthly vorgestellt wurde, berief sie sich auf einen Versuch des Psycho­logen Philip G. Zimbardo aus dem Jahr 1969. Zimbardo hatte zwei Autos ohne Nummernschilder und mit geöffneter Motorhaube, eines in der New Yorker Bronx, das andere in der Kleinstadt Palo Alto in Kalifornien, abgestellt und beobachtet, was dann geschah. In der Bronx wurde der Wagen bereits nach kurzer Zeit von einer Familie ausgeschlachtet und in seine Teile zerlegt. In Palo Alto stand die andere Karre noch nach einer Woche unberührt da und wurde erst zerpflückt, nach­dem Zimbardo selbst die Demolierung eingeleitet hatte. Das ist die empirische Basis der Broken-Windows-Theorie, die zudem noch unzulänglich im Atlantic Monthly zitiert wurde. In der Bronx wurden nämlich die daneben stehenden Autos mit Nummernschildern nicht demoliert, sondern in Ruhe gelassen.
Auf dieser Basis eine Theorie zu entwickeln, die dann in New York zu einer so genannten Zero-Tolerance-Politik wird, die schon die kleinsten Straftaten rücksichtslos bestraft und Bezirke mit kaputten Fensterscheiben zu gefährdeten oder gefährlichen Gegenden erklärt, ist vom empirischen Standpunkt aus mehr als fragwürdig. Darüber hinaus beseitigen die Null-Toleranz-Maßnahmen weder die Ursachen der Verbrechen, die immer noch zuerst sozial bedingt sind und etwas mit Armut zu tun haben, noch schaffen sie die Sicherheit, die sie vorgeben, schaffen zu können, weil sie einen Zusammenhang konstruieren, der sich immer nur wieder selbst bestätigen kann, wie der Fünferschüler im bayerischen Schulsystem. Die Fensterscheiben beim berühmten Vater von Amstetten waren jedenfalls nicht kaputt.

Against prediction!

Es kann bei der Kritik der Broken-Windows-Theorie wie bei allen anderen hier angesprochenen Vorhersage-Anwendungen nur um eine Kritik der Vorhersage selbst gehen. »Against Prediction« hat der US-amerikanische Rechtsprofessor und Direktor des Center for Studies in Criminal Justice der Universität von Chicago, Bernard E. Harcourt, seine 2007 erschienene Kritik aller aus versicherungstechnischen Diskriminanzanlysen hervorgehenden Charakterisierungen von Bevölkerungsgruppen und Gegenden überschrieben. Harcourt ist auch der wichtigste Kritiker der Broken-Windows-Theorie in den USA. Seine Kritik hat den Vorteil, dass er nicht einfach den statistischen Methoden vorwirft, die Betrachtung der Individuen zu vernachlässigen, sondern die Methoden selbst untersucht und kritisiert.
Um das verstehen zu können, muss man eine systematische Unterscheidung einführen: nämlich die von Voraussicht und Vorhersage, wobei sich die Voraussicht immer auf abstrakte Formulierungen bezieht und die Vorhersage auf konkrete Tatsachen und Ereignisse. Wissenschaftliche Aussagen können beide Typen von Urteilen enthalten, wichtig ist hier aber nur die Vorhersage als Schritt aus der Abstraktion in die Wirklichkeit. Der Satz »Das ist ein Apfel« enthält alle möglichen Zeitebenen. Er beschreibt gleichzeitig, dass der Apfel aus der Geschichte seiner Kulturalisierung hervorgegangen ist, dass er jetzt daliegt, und er enthält die Voraussage, dass man ihn wahrscheinlich essen kann. Die abstrakte Formel, dass man den Apfel essen kann, verliert aber mit dem Übergang zum konkreten Satz, dass dieser Apfel hier essbar sei, seine absolute Gewissheit. Der Apfel kann zum Beispiel vergiftet oder unerträglich sauer sein, und damit wäre die Voraussage falsch.
Das heißt: »Wenn die Bedeutung der Abstraktionen nicht selbst durch ihre fortwährende praktische Anwendung kontrolliert und unter Umständen verändert wird, müssen sie notwendig der Realität entfremdet und schließlich nicht zwecklos, sondern sogar unwahr werden«, wie Max Horkheimer 1933 in einem Vortrag mit dem Titel »Zum Problem der Voraussage in den Sozialwissenschaften« feststellte.
Nicht die Gauß’sche Normalverteilung oder die vom sowjetischen Mathematiker Andrej Nikolajewitsch Kolmogorow axiomatisierte Wahrscheinlichkeitsrechnung sind das Problem, sondern deren falsche Konkretion. Das kann schon ein Blick auf die Voraussetzungen von Kolmogorovs Wahrscheinlichkeitsaxiomen zeigen. Wenn man die Häufigkeit von Ereignissen mathematisch betrachten will, muss man sie streng formalisieren und ihnen jeden psychologischen Inhalt nehmen. Alle Erwartungen sollten ruhen und nur noch die reinen Strukturen betrachtet werden. Die Definitionen, die dann sinnvoll folgen, sind nicht aus der Anschauung gewonnen, sondern entstammen der mathematischen Logik und arbeiten mit Quantitäten. Die Quantitäten der Wahrscheinlichkeit bleiben dabei aber immer vom Zufall abhängig, denn die Operationen der Wahrscheinlichkeitsrechnung beziehen sich wie ihre ganze Theorie auf Dinge, die nicht zwingend passieren, sondern nur mit einer gewissen Wahrscheinlichkeit.

Den Normalfall gibt es nur abstrakt

Das bedeutet aber auch, dass man die zu untersuchenden Mengen, wenn sie lebendig sind, zuerst sortieren muss und erst danach mit Erwartungen belegen kann. So scheitert zum Beispiel die Gauß’sche Normalverteilung an so gut wie jeder biologischen Population, wenn man sie nach einem Merkmal wie etwa der Größe sortiert. Biologische Populationen folgen fast nie einer Gauß’schen eingipfeligen Verteilung. In diesem Zusammenhang erklärte Nabokov: »Albträume können nicht statistisch behandelt werden, aber man kann sie sehr genau beschreiben.« Nabokov antwortet damit 1950 in einem amerikanischen Schmetterlingsfachjournal einem seiner Kritiker. Nabokov hatte zuvor in einem Text zur Systematik einer bestimmten Schmetterlingsart sieben verschiedene Männchen derselben genau beschrieben. Die Kritik seiner Kontrahenten ging nun dahin, dass sich unter den Exemplaren kein einziges Musterstück der Art befunden hätte.
Für Nabokov war dann der Kritiker zu einem Musterbeispiel für die Gefahren der Statistik geworden. Nabokov wusste, dass es die Musterbeispiele überhaupt nicht gibt, sie sind nur eine aus der Statistik abgeleitete Abstraktion, der kein Individuum wirklich entspricht. Für ihn war die Statistik schon vorher generell zu einem skeptisch betrachteten Herrschaftsinstrument geworden. Das hatte bei ihm als einem im Exil lebenden Russen auch mit den Berichten aus der Sowjet­union zu tun. In der UdSSR der Fünfjahrespläne war die Wahrscheinlichkeitsmathematik zu einer Leitwissenschaft geworden, und mit Kolmogorov, der sein Leben lang gegenüber Stalin loyal blieb, hatte die UdSSR auch das weltweit anerkannte Genie dieser Disziplin vorzuweisen.
Es wäre aber fatal, die Vorhersagenrechnungen nur auf die sowjetische Variante der Kontrolle von Natur und Menschen zu beziehen. Angewandte Wahrscheinlichkeitstheoreme als Kontrollmechanismen von Gesellschaften und ihren Kommunikationen und Warenströmen gehören zur Industrialisierung, seit es im 19. Jahrhundert mit dem Ausbau der Eisenbahnen die ersten Zusammenstöße von Lokomotiven gab, durch die Waren und Menschen gefährdet wurden. Wahrscheinlichkeitsrechnungen können so zusammen mit synchronisierten Uhren, Telegraphen, Verkehrsampeln oder zentralen Leitstellen, in denen alle Daten zusammenlaufen, als Antworten auf die Kontrollkrisen in der beschleunigten Produktions- und Lebensweise in den Industrieländern gelesen werden. Ein Prozess, der sich in den USA nach dem Zusammenbruch von Börse und Wirtschaft 1929 insofern verschärfte, als manchem klar geworden war, dass die Unsicherheit weitaus mehr als die Knappheit der Kern der kapitalistischen Ökonomie ist.
Und daran hat sich bis heute nichts geändert. Die Vorhersagen zur Kriminalitätsrate unter bestimmten Bevölkerungsgruppen ändern an der Kriminalitätsrate ebenso wenig wie die zur Prophy­laxe verordneten Fußfesseln oder die gated communities sonstwo auf der Welt. Der Wetterbericht verhindert keinen Wirbelsturm, und die Erdbebenvorhersagen verhindern keinen Tsunami, solange das Meer auf einer Erde ruht, deren Platten sich stetig gegeneinander reiben. Vorhersagen haben sich längst von ihren Gegenständen getrennt, und ihren Beruhigungs- und Kontrolleffekten kann man nur entkommen, wenn man zu den Gegenständen zurückfindet. Nur dann kann auch das blinde Wirken statistischer Ab­straktio­nen, die Schüler nach der Gauß’schen Normalverteilung zurecht erziehen oder ganze Bevölkerungsgruppen oder Stadtteile mit Kriminalitätserwartungen in die Schleife der Planerfüllung treiben, beendet werden.