Autoritäre Prävention. Abgründe vorhersagender Polizeiarbeit

Die Mathematik des Verbrechens

Wenn es möglich sein soll, Gesundheitsperspektiven oder Aktien- und Währungskurse zu berechnen, dann dürfte die Vorhersage von Verbrechen und deren Verhinderung ein Kinderspiel sein. Polizeibehörden weltweit versuchen sich daran, oft im Verbund mit IT-Firmen.3 Der Mechanismus ist simpel: Daten werden gesammelt, statistisch ausgewertet und auf die Zukunft als Wahrscheinlichkeit hochgerechnet. Allerdings ist der Gedanke, Kriminalität ganz allgemein und prinzipiell auszutrocknen, bereits deutlich älter. Schon im 19. Jahrhundert wurden Perspektiven entwickelt, die heute als Sozialphysik bezeichnet werden; etwa jene, dass Kriminalität physiologisch bedingt und markiert, also im Gesicht abzulesen sei (Cesare Lombroso). Die neuerlichen Versuche, Verbrechen vorherzusagen und damit perspektivisch auf null zu reduzieren, tragen ähnliche Züge: Sie ignorieren, dass handelnde Subjekte mit Eigensinn agieren, dass Kriminalität ein Konstrukt und damit politisch umkämpft und – zugespitzt formuliert – Definitionssache ist, und schließlich, dass daraus resultierend „kriminell eingeordnete Handlungen […] als Mittel einer sozial selektiven Ordnung von Gesellschaft fungieren“.4Anders formuliert: Was als kriminell gilt, ist nicht gegeben, sondern wird von der Gesellschaft geformt und ist ziemlich flexibel (man denke an Verkehrsminister Andreas Scheuer oder CumEx-Geschäfte). Was damals krachend fehlschlug, soll diesmal klappen, mithilfe von Big Data und der Unbestechlichkeit von Informationen. Die „vermeintlich neutrale Mathematik“ soll es richten.5

Den Anwält:innen der vorhersagenden Polizeiarbeit, jedenfalls den seriösen, ist durchaus bewusst, dass die Popkultur das Thema unter anderem mit dem Film Minority Report(2002) bereits kritisch eingepreist hatte. Regisseur Steven Spielberg hatte damals die autoritären Anwandlungen dieser Praxis und ihre systematische Unausweichlichkeit in futuristische Bilder gekleidet. Der Protagonist muss einiges in Bewegung setzen, um seine Handlungsfähigkeit, also seine Entscheidungsfreiheit, unter Beweis zu stellen, um zu zeigen, dass die Vorhersage nicht unbedingt und unter allen Umständen der kommenden Realität entsprechen muss. Der Film wecke allerdings falsche Befürchtungen. „This is not Minority Report“, heißt es vorsorglich in einem entsprechenden US-amerikanischen Bericht zum Predictive Policing.6 Es handle sich vielmehr um statistische Berechnungen, die Annäherungen erlauben, aber keine Sicherheit versprechen.7 Die Polizei schaue nicht in die „sprichwörtliche Glaskugel“, heißt es im Text.8

Allerdings, und genau deshalb ist der Vergleich zum Film letztlich nicht ganz absurd, tilgt diese Art der wahrscheinlichen Vorhersage die Kontingenz, also die Unbestimmtheit der Zukunft; sie versucht es jedenfalls. Gleichzeitig kassiert sie dem Prinzip nach die Handlungsfähigkeit des Subjekts. Das Problem liegt darin, dass im Moment polizeilicher Aktivität auf Grundlage einer Voraussage die Kalkulation, also die Wahrscheinlichkeit, in den Rang der Wirklichkeit gehoben wird. Wenn Polizeikräfte ausrücken, um einen „Hotspot“ zu sichern, bevor ein Verbrechen begangen wurde, werden sie – und mit ihnen die Theorie dahinter – in jedem Fall bestätigt: Wird ein:e Übeltäter:in überführt, stimmte offenbar die Kalkulation. Wenn nichts passiert, hat die Präsenz der Polizei das Verbrechen verhindert, bevor es stattfinden konnte. Auch im Hinblick auf Kriminalität lassen sich nicht zwei Weltläufe betrachten, einer mit und einer ohne Verbrechen an einem bestimmten Ort zu einer bestimmten Zeit. Praktisch wird also das Verhältnis von berechenbarem Risiko und unberechenbarer Unsicherheit in eine Richtung aufgelöst.9 Die exakte Taxierung des Risikos tilgt die Unsicherheit.


Es lässt sich nicht belegen, dass jemand etwas getan haben wird, genauso wie man das Fußballergebnis von gestern nicht mehr vorhersagen kann.


„Es wird betont, dass Predictive Policing nichts mit einem Blick in die Kristallkugel zu tun habe“, schreibt auch Alexander Gluba vom Landeskriminalamt Niedersachsen. Noch im selben Satz allerdings hebt er die sachliche Einschränkung unabsichtlich auf: „[V]ielmehr gehe es um Wahrscheinlichkeiten, mit denen Entwicklungen der Zukunft belegt werden können.“10 Perfektes Beispiel für etwas, das sich als zirkuläre Systemzeit beschreiben ließe: Mit Wahrscheinlichkeiten werden Entwicklungen in der Zukunft nachgewiesen. Schon begrifflich ist diese Angelegenheit absurd. Belegen oder nachweisen ist üblicherweise auf etwas Vergangenes ausgerichtet. Es lässt sich nicht belegen, dass jemand etwas getan haben wird, genauso wie man das Fußballergebnis von gestern nicht mehr vorhersagen kann.11 Gegenwart und Zukunft sind in einem Spiel von Berechnungen verbunden. Die statistisch errechnete Zukunft als Überblendung von wahrscheinlich und wirklich – also von dem, was sein könnte und dem, was gewesen sein wird – leitet polizeiliches Handeln, das schließlich als Idealtyp einer selbsterfüllenden Prophezeiung das Wahrscheinliche immer bestätigen wird. Wenn die Annahme eines fiktionalen Verbrechens zu dessen Verhinderung führt, stimmen die Ergebnisse der Berechnung auf jeden Fall. Ein Zirkelschluss, den Gluba mit der Verbindung von Vorhersage und Beleg unabsichtlich auf den Punkt formuliert. Es hilft also nicht, die Distanz zwischen filmischer Fiktion und bürokratischer Realität zu betonen. Schon klar, dass die Dinge unterschiedlich laufen und dass Polizeibeamte nicht wie in Spielbergs Werk präzise wissen, was wann passieren wird. Die Zeitschleife und der im Film sauber vorgeführte Bestätigungsfehler rücken Filmfiktion und Wirklichkeit dennoch dicht zusammen.


Was passiert, wenn etwa auf Vorurteilen basierende Daten in die Zukunft lenken? Oder andersherum: Wer glaubt wirklich, dass polizeiliche Statistiken und andere Daten vorurteilsfrei sind?


Diese polizeiliche Aufhebung der Zukunft hat noch einen weiteren, eigentlich gut sichtbaren Haken. Die zu einem bestimmten Zeitpunkt verrechneten Daten müssten, wenn die Prognose tatsächlich sachlich sein soll, umfänglich und objektiv sein. Mit Big Data scheint die erste Forderung erfüllt, obwohl auch das ein Irrglaube ist. Am Begriff hängt das falsche „Versprechen der Allwissenheit“.12 Die Objektivität der Daten ist zudem höchst streitbar. Was passiert, wenn etwa auf Vorurteilen basierende Daten in die Zukunft lenken? Oder andersherum: Wer glaubt wirklich, dass polizeiliche Statistiken und andere Daten vorurteilsfrei sind? Ein Beispiel: In den „25 größten Bezirken Kaliforniens werden Schwarze öfter wegen Marihuanakonsums inhaftiert als Weiße“, schreibt die American Civil Liberties Union. „Typischerweise doppelt, drei oder sogar vier Mal so häufig wie Weiße.“ Studien der US-Regierung zeigen jedoch übereinstimmend, „dass schwarze Jugendliche seltener Marihuana konsumieren als weiße Jugendliche“.13 Das ist sicher kein Einzelfall,14 und es geht nicht ausschließlich um rassistische Vorurteile. In sogenannten Problemvierteln ist die Polizei üblicherweise mehr unterwegs und erfasst daher mehr Straftaten als anderswo. „Durch ihre eigene […] Kontroll- und Anzeigenaufnahmepraxis produziert und reproduziert die Polizei also ‚Kriminalitätsschwerpunkte‘ und Hotspots.“15 Das Problem liegt vielmehr in der Systematik selbst, wenn spekulative Berechnungen den Status von Wirklichkeit erhalten. Wenn also Polizeistatistiken zu „Fiktionen der wahrscheinlichen Realität“ werden und Polizeiarbeit steuern,16 verfängt sich der ganze Apparat in einer „Rückkopplungsschleife der Ungerechtigkeit“.17 Eine „Diskriminierung durch Code“ ist durchaus Praxis bei Behörden.18 Und weil verschärfend hinzukommt, dass die Black Boxes eben black sind, schlussfolgert das sicher nicht technikfeindliche AI Now Institute, dass weder in Bildung noch bei Gesundheit oder Recht diese Apparaturen zum Einsatz kommen sollten, und schon gar nicht dürfen ihre Ergebnisse handlungsleitend sein.19

Genauer besehen handelt es sich also um verschiedene Versionen von Kristallkugeln, die Vorhersagen treffen und Hotspots festlegen. Der entscheidende Punkt ist, dass vermeintlich objektive Informationen verarbeitet werden, die von Menschen so nicht deutbar sind. Die Dinge funktionieren möglicherweise besser, weil Menschen „Bedeutungsstrukturen“ („meaningfull patterns“) überbetonen, heißt es in einer Studie zum Thema.20 Will heißen: Massenhaft abstrakte, für Menschen so nicht lesbare Daten werden von Algorithmen ausgewertet, die sich zudem selbst verändern, also gewissermaßen lernen. Keine Kugel, kein Kristall, dafür ein Kasten, dessen wahrsagende Kräfte auch das Militär nutzt oder nutzen wird, etwa um „‚potenzielle Krisen‘ bis zu 18 Monate im Voraus erkennen“.21


3Zur Situation in Deutschland Heitmüller (2017).

4Belina (2016): 86.

5Ebd.: 96.

6Perry et al. (2013): 8.

7Zu Details und unterschiedlichen Varianten von Predictive Policing siehe Belina (2016).

8Gluba (2014): 2.

9Das macht auch die Evaluation solcher Maßnahmen schwierig. Hier ein bisweilen amüsanter Auszug aus einer solchen Auswertung: „Der wichtigste Schluss ist, dass kriminalitätsmindernde Effekte von Predictive Policing im Pilotprojekt P4 wahrscheinlich nur in einem moderaten Bereich liegen und allein durch dieses Instrument die Fallzahlen nicht deutlich reduziert werden können. Zwar nahm in manchen Teilen des Pilotgebiets (z. B. in Stuttgart) die Zahl der Wohnungseinbrüche ab, in anderen Gebieten gab es aber auch Zunahmen (z. B. in der Stadt Karlsruhe), und die Wirkungen überstiegen einen moderaten Bereich nicht. Aus Modellrechnungen ergibt sich beispielsweise, dass im Polizeipräsidium Karlsruhe die Anzahl der Near-Repeat-Folgedelikte durch die Steigerung der Polizeidichte tendenziell vermindert werden konnte, jedoch sind mit einer Steigerung der Polizeidichte um 100 gegenüber dem Basiswert im Alarmgebiet nur durchschnittlich 0,24 prognosebezogene Folgedelikte weniger zu erwarten“ (Gerstner (2017): 2).

10Gluba (2014): 7, H. d. A.

11Ähnlich wie Gluba argumentieren Brayne et al. (2015).

12Vgl. Geiselberger/Moorstedt (2013).

13Zitiert nach Biselli (2014).

14Siehe u. a. Lum/William (2016).

15Belina (2009): 199.

16Esposito (2014).

17American Civil Liberties Union, zitiert nach Biselli (2014).

18Daum (2018): 70.

19AI Now Institut (2017). Die Abkürzung AI steht für artificial intelligence, im Deutschen künstliche Intelligenz (KI).

20Brayne et al. (2015): 4.

21Monroy (2018). Kritisch dazu Morozov (2013): 181ff.

>> Seite 3 | Die Black Box aufschrauben


Aus der Publikation „Politisch Handeln im autoritären Sog“

2020 | Weiterdenken – Heinrich-Böll-Stiftung Sachsen, Kulturbüro Sachsen und Netzwerk Tolerantes Sachsen | Förderhinweis | ISBN / DOI 978-3-946541-39-4 | CC-BY-NC-ND 3.0

Zum Inhaltsverzeichnis | Download | Bestellung

Redaktion TolSax

Ihr möchtet das Netzwerk auf dieser Webseite und im monatlichen Newsletter über Eure Projekte, Termine, Analysen oder Materialien informieren? Schickt uns Eure Infos!

Mastodon