Autoritäre Prävention. Abgründe vorhersagender Polizeiarbeit

Die Black Box aufschrauben

Ein paar Bemerkungen zur Black Box seien hier noch eingestreut. Den Akteur:innen im Bereich der künstlichen Intelligenz sind zwei Dinge mitunter klar: Sie wissen, dass die Apparaturen nicht unbedingt denken, sondern Korrelationen errechnen und nach intensivem Training die eigenen Variablen anpassen. Die Differenz zwischen menschlicher Deutungskompetenz, die aus wenigen, aber aussagekräftigen Elementen Kontexte ableiten kann, und maschineller Berechnung, die – genau umgekehrt – in riesigen Datenmengen bisweilen Spannendes findet, ist ungeheuer groß. „Von der Erfassung des Kontextes […] ist die derzeitige AI aber noch meilenweit entfernt“, schreibt Andreas Holzinger.22 Genauso wichtig sei es, die Abläufe in den Black Boxes in eine für Menschen verständliche „Wissensrepräsentation“ zu überführen, also beinahe buchstäblich Licht ins Dunkel zu bringen. „Explainable Artifical Intelligence“ (XAI) heißt diese viel diskutierte Praxis, die sicher auch den Polizeibehörden guttun würde. Holzinger beschreibt mehrere Wege, wie dies gelingen kann; von Transparenzherstellung, bevor die Berechnungen beginnen, zu Prozessen, die, rückwärts gewissermaßen, die Parameter und Gewichtungen Schicht für Schicht sichtbar machen sollen. Auf diesem Feld ist viel in Bewegung.

Besonders interessant ist allerdings, warum eine für Menschen verständliche Darstellung der Arbeitsweise von Algorithmen wichtig ist. Holzinger nennt zwei Dinge. Zum einen geht es ihm um Vertrauen; also darum, dass Menschen, die beispielsweise einen maschinell erstellten Behandlungsplan erhalten, eine plausible und für sie nachvollziehbare Einsicht in die Gründe der Berechnung erlangen. Das ist logisch. Zum anderen jedoch geht es darum, dass die Expert:innen selbst, die mit entsprechenden Tools arbeiten, nicht nur die „Wahrscheinlichkeit“ kennen, mit der ein „Patient eine bestimmte genetische Erkrankung hat, sondern anhand welcher Merkmale die Entscheidung getroffen wurde“.23 Das ist gleich doppelt interessant: Eine Erkrankung ist auch ohne Symptome Tatsache, nur aufgrund von statistischen Berechnungen; Kriminalität gibt es, auch wenn nichts Benennbares vorgefallen ist. Das verschiebt sowohl den Krankheits- wie den Kriminalitätsbegriff und macht sie zum Teil eines Spiels von Risikokalkulationen, also von mathematisch bestimmten Zukünften.24 Zudem bedeutet es, dass auch die Expert:innen nicht oder nur bedingt wissen, was die Merkmale der Berechnung sind, wie also die Ergebnisse zustande kommen. Das ist in gewisser Weise zwangsläufig, weil die Masse und die Verknüpfung der Daten dem menschlichen Verstand nicht zugänglich sind. Wären sie es, bräuchte es die Maschinen nicht. Erstaunlich ist es dennoch, weil diesen Ergebnissen mitunter so viel Gewicht und Wahrheitsgehalt beigemessen wird, obwohl es ohne XAI keine menschlich nachvollziehbare Überprüfung geben kann.

Holzinger landet daher auch beim Argument, dass Sinn, Zweck und Potential selbstlernender Algorithmen erst dann wirklich erschlossen werden können, wenn die Kopplung von menschlicher Intelligenz und Maschinen via XAI möglich wird.25 Streng formuliert dürften jedoch die Berechnungsergebnisse der Black Boxes nie mehr als ein vager Hinweis oder eine Art Anfangsverdacht sein. Die öffentliche Wahrnehmung und bisweilen auch die Praxis sieht anders aus. „Vom Gesundheits- bis zum Rechtssystem: Künstliche Intelligenz unterstützt zunehmend menschliche Entscheidungen von hoher Tragweite.“26 Die Informatik ist also noch damit beschäftigt, „to overcome the opaqueness of black boxes“.27 Die Dinge sind, diesem Bericht zufolge, noch nicht so weit wie gewünscht. Vor allem wenn die Adressat:innen keine Expertise haben, sei noch viel zu tun: „While providing explanations to non-expert users has been outlined as a necessity, only a few works addressed the issues of personalization and context-awareness.“28 Die „Automaten brauchen Aufsicht“,29 während ihre Ergebnisse schon die Wirklichkeit formen und – vor allem in den USA – die Gefängnisse füllen. In den Forschungsbeiträgen wird die Notwendigkeit von Erklärungen betont, die für normale Menschen verständlich sind. Viel weniger geht es aber darum, ob und wenn ja mit welchen Folgen eine menschliche Einschätzung die Arbeit der Black Boxes eventuell korrigieren oder zumindest kritisch prüfen müsste. Anders formuliert: Der Vertrauensaspekt steht im Vordergrund, während die Frage nach dem Status der Ergebnisse weniger Beachtung findet.30


22Holzinger (2018): 139.

23Ebd.: 40.

24Vgl. OʼMalley (1992).

25Holzinger (2018): 143. Ähnlich argumentiert Voosen (2017).

26Wang et al. (2019): 1 (Übersetzung Robert Feustel).

27Anjomshoae et al. (2019): 1078.

28Ebd.

29Beuth (2017).

30Vgl. Wang et al. (2019)

>> Seite 4 | Tendenz: autoritär


Aus der Publikation „Politisch Handeln im autoritären Sog“

2020 | Weiterdenken – Heinrich-Böll-Stiftung Sachsen, Kulturbüro Sachsen und Netzwerk Tolerantes Sachsen | Förderhinweis | ISBN / DOI 978-3-946541-39-4 | CC-BY-NC-ND 3.0

Zum Inhaltsverzeichnis | Download | Bestellung

Redaktion TolSax

Ihr möchtet das Netzwerk über Eure Projekte, Termine, Analysen oder Materialien informieren? Schickt uns Eure Infos!