Die Tyrannei des Wahrscheinlichen in der Justiz
Gestern noch düstere Dystopie – heute en vogue: der Einsatz von Algorithmen in der Strafjustiz. Das wird gravierende Folgen haben – für Justizangestellte und für den Rechtsstaat. Ein Gastbeitrag von Strafrechtsprofessorin Nadja Capus.
Von Nadja Capus, 19.09.2018
Wie könnte grösstmöglicher Schutz vor Kriminalität erreicht werden? Die Antwort ist einfach: Wenn man Straftaten verhinderte, bevor sie begangen würden.
Tatsächlich kommen seit einigen Jahren immer häufiger Algorithmen im Dienst dieser Prävention zum Einsatz. Die Behörden erhoffen sich damit genauere Prognosen und effizientere Strafmassnahmen. Die Entwicklung ist nicht neu: Algorithmenbasierte Programme zur Einschätzung der Gewaltgefahr oder des Rückfallrisikos von Straftätern gibt es seit Jahrzehnten. Aber ihre Anzahl, ihr Anwendungsgebiet und ihr Stellenwert haben sich erheblich geändert. Es gibt algorithmenbasierte Programme, welche die Wahrscheinlichkeit eines Sexualdelikts errechnen oder die islamistische Radikalisierung ermitteln; wieder andere berechnen die Gefahr eines Amoklaufs an einer Schule oder das Risiko häuslicher Gewalt. Aber erzielt der Einsatz von Algorithmen im Strafrecht die erhoffte Wirkung?
Der Faktor Mensch: Teuer und kompliziert
Richtig erfolgreich arbeitet ein Algorithmus dann, wenn er eine grosse Anzahl Daten bei einer beschränkten Anzahl von Variablen zur Verfügung hat. In der Strafjustiz aber stellt sich ein Problem: Es geht nie um Menschenmassen, sondern immer um einen Einzelnen, dem eine unendliche Anzahl möglicher Verhaltensweisen offensteht. Kommt hinzu, dass in der Bekämpfung von Kriminalität die verfügbaren Daten in aller Regel rar sind – leider, das ist ja gerade eines der zentralen Probleme.
Wozu dient der Algorithmus also in der Kriminalitätsprävention? Er soll dazu beitragen, bei wirklich schwierigen Entscheidungen Unsicherheiten zu eliminieren: Welche verurteilte Person gilt es näher abzuklären? Wann kann einem Verurteilten der bedingte Strafvollzug gestattet werden? Wann kann man ihn vorzeitig entlassen? Wann muss er verwahrt werden? Letztlich geht es darum, menschliche Verantwortung, die der Einzelne kaum mehr zu tragen vermag, an die Maschine zu delegieren – oder zumindest mit ihr zu teilen. Das ist nur möglich, wenn diese Entscheidungen um den menschlichen Faktor reduziert werden. Es scheint also die Meinung vorzuherrschen, dass es der menschliche Faktor ist, der die Strafjustiz so kompliziert und kostspielig macht.
Denn darum geht es auch: ums Geldsparen – bei gleichzeitigem Ausbau des Systemzugriffs. Man will in möglichst komplexitätsreduzierter Form potenzielle Täter erfassen. Schnell und billig soll das gehen. Der Algorithmus nimmt Arbeit ab, es braucht weniger Sachbearbeiter. Er spart Zeit und Geld. Er arbeitet persönlich unbelastet, stetig und zuverlässig auf gleichem Niveau wie ein Mähdrescher – unabhängig von Arbeitsbelastung, Tagesform und anderen unkontrollierbaren Schwankungen humaner Mitarbeiter.
Dann aber stellt sich die Frage: Warum gibt es eigentlich noch keine algorithmenbasierte Software, die Strafurteile ausspuckt? Rund 96 Prozent der Strafurteile sind heute Strafbefehle. Deren Regeln für die Strafzumessung sind mit internen Weisungen und interkantonalen Richtlinien für bestimmte Delikte ziemlich genau festgelegt. Und – ganz ehrlich – der Vorteil der rechtsgleichen Behandlung liegt auf der Hand.
Im Bereich des Strassenverkehrs zum Beispiel würde das zu einer vollständig automatisierten Bestrafungskette führen: Der automatisierte Radar erfasste die Geschwindigkeitsüberschreitung, das System identifizierte automatisch den Fahrzeughalter, und die Strafe würde automatisch berechnet und verschickt. Strafverfahren erledigt. Ohne Menschenhand. Menschlich entleerte, telematische Strafjustiz.
Ist das eine beruhigende Vorstellung – oder vielleicht doch nicht?
Tunnelblick und Kompetenzverlust
Wie beeinflussen Algorithmen die Tätigkeit der Anwender? Denn vorderhand handeln ja immer noch Menschen – auch dort, wo algorithmenbasierte Programme angewendet werden. Es gibt viele Untersuchungen – in der Medizin, in der Aviatik, in der Zugfahrt –, wie Arbeitsinstrumente, die automatisierte Prozesse integriert haben, die Tätigkeit der Berufsleute beeinflussen. Zwei Wandlungen sind festgestellt worden: der Tunnelblick und Kompetenzverluste.
Zuerst zum Tunnelblick: Alles, was die algorithmenbasierte Software bearbeiten soll, muss programmierbar sein. Die Maschine kann nur auswerten, was sie lesen kann. Am besten kann sie Zahlen verarbeiten, ebenso gut ein Ja oder Nein. Gültige Kategorien sind also das Alter, die Berufstätigkeit, der Zivilstand, die Vorstrafen und so weiter. Am Ende wird die Summe dieser standardisierten Bewertung einer vordefinierten Kategorie zugeordnet. Verarbeitet werden die harten Daten, die weichen bleiben aussen vor. Mit persönlichen Wertungen oder Vermutungen, mit Emotionen und Erfahrungen kann die Maschine nichts anfangen – ausser sie werden in Ziffern transformiert.
Verloren geht in diesem Raster die individuelle Kennzeichnung. Es interessiert den Algorithmus nicht, ob ein arbeitsloser ehemaliger Häftling engagiert auf Stellensuche ist oder gerade apathisch auf der Parkbank vegetiert oder glücklich im ehelichen Heim als Hausmann lebt. Auch will er nicht wissen, ob die Täterin frisch verliebt oder unglücklich verheiratet ist. Daten dieser Art kann der Algorithmus nicht erfassen. Aber das heisst nicht, dass sie irrelevant sind.
Wenn sich der Algorithmus nur auf die harten Daten stützt, besteht die Gefahr, dass auch die Menschen, die mit ihm arbeiten, diesem Tunnelblick verfallen. Wenn Polizisten, Strafvollzugsbeamtinnen, Bewährungshelfer und Psychiaterinnen sich an diese eingeengte Wahrnehmung gewöhnen, werden wichtige Informationen vernachlässigt oder gehen verloren. Das wäre schwerwiegend, weil man in der Kriminalprävention ständig Entscheidungen fällen muss, die mit unbekannten Variablen behaftet sind. Richterinnen, Bewährungshelfer und Psychiater stützen sich dabei zur Hauptsache auf ihre Ausbildung, ihre Erfahrung und Intuition. Eine wichtige Fähigkeit des Menschen und ein Defizit eines jeden Algorithmus ist nämlich die Kompetenz, eine Information kontextabhängig zu werten, also differenzieren zu können.
Die Befürworter der Maschine widersprechen: Die Programme sind nur ein Element! Wir fächern die Informationen wieder auf! Aber wird die Zeit dafür vorhanden sein, wenn sich die zu bearbeitenden Akten auf dem Schreibtisch stapeln?
Ausserdem: Was geschieht, wenn der Psychiater befürwortet, dass die Richterin den Straftäter in die Freiheit entlässt, der Algorithmus aber nicht? Wenn die Polizistin keinen Gefährder sieht, der Algorithmus aber schon? Was, wenn das öfter vorkommt? Was, wenn das Rechenresultat des Algorithmus menschlicher Erfahrung und Intuition immer häufiger widerspricht? Dann besteht die Gefahr, dass der Psychiater, die Polizistin und andere Fachpersonen in ihrer Entscheidungskraft geschwächt werden, an ihrer eigenen Entscheidungskompetenz zu zweifeln beginnen. Diese zweite Nebenwirkung ähnelt dem Muskelschwund, der eintritt, wenn man vom Fahrrad zum E-Bike wechselt: Kompetenzen gehen verloren, die wichtig sind in unserem Rechtsstaat.
Sperrzonen für Algorithmen
Künftige Generationen von Justizangestellten werden sich an den Gedanken gewöhnen, dass es sowieso die Maschine ist, die über Freiheit oder Haft eines Gefangenen entscheidet, und dass sie sich deshalb die gedankliche Anstrengung von vornherein sparen können. Die Folgen wären eine übermässige Abhängigkeit von der Technologie, ein Schwund an Entscheidungsfähigkeit – verloren gehen die Fähigkeiten zu beobachten, zu evaluieren, Schlussfolgerungen zu ziehen, abzuwägen, um schliesslich eine stimmige Entscheidung zu treffen.
Eines ist klar: Wenn wir dem Algorithmus eine zu grosse Entscheidungshoheit überlassen, wird das massive Eingriffe in die Menschenrechte des Einzelnen zur Folge haben. Deshalb propagieren britische Forscher seit einigen Jahren die Idee, in der Algokratie das Konzept der «Algocare» einzuführen – das heisst, Bereiche zu definieren, in denen ein Algorithmus nichts verloren hat, und die Kreation von Algorithmen und die Umsetzung ihres Einsatzes transparent zu machen.
Gleichzeitig fordern deutsche Wissenschaftler die Einführung von Qualitätssicherungs- und Vorsichtsmassnahmen zur Verbesserung der Überprüf- und Kontrollierbarkeit von maschinengestützten Entscheidungen. Denn die Maschine darf sich menschlicher Kontrolle nicht entziehen, darf nicht um die Achse ihres Daseinszwecks heisslaufen. Es darf beispielsweise nicht sein, dass der Einzelne schon vor der Tat Eingriffe, etwa einen Freiheitsentzug, erdulden muss, weil der Algorithmus ihn zwecks Kriminalprävention einer bestimmten Kategorie zugewiesen hat. Diese strafrechtliche Selbstverständlichkeit droht in der aktuellen punitiven Kriminalprävention, die von der Tyrannei des Wahrscheinlichen hervorgerufen wurde, vergessen zu gehen.
Gewiss ist es das Wesen jeder Prävention, etwas zu tun, bevor etwas passiert ist. Aber wir meinen zunehmend früher, es sei etwas passiert, und setzen deshalb noch früher mit präventivem Aktionismus ein.
Die jährlichen Statistiken zeigen, dass die Kriminalitätsbelastung unserer Gesellschaft seit Jahrzehnten rückläufig ist. Selbst die Wiederholungskriminalität, also deliktisches Verhalten von schon einmal Bestraften, ist laut der vom Bundesamt für Statistik regelmässig berechneten Rückfallquote nahezu gleich bleibend.
Warum die Rückfallrate aber so ist, wie sie ist, können wir übrigens nicht bis ins Letzte erklären. Es gibt immer Rückfälle, die unerklärbar sind – Algorithmen können dieses Rätsel nicht lösen. Das ist auch gar nicht ihr Ziel, sie vereinfachen nur Probleme, um die Wahrscheinlichkeit ihres Eintritts besser zu erfassen. Das ist ein intellektueller Skandal. Dabei könnte es doch sein, dass sich gerade in der statistisch erfassten, aber nicht erklärbaren Rückfallquote ein Wesenszug des mündigen Bürgers manifestiert, der sonst so unfassbar ist: die Willensfreiheit. Wenn sie aber existiert, dann wäre die Anwendung von Algorithmen in der Kriminalprävention eine ethische Katastrophe.
Die Gastautorin Nadja Capus ist Professorin für Strafrecht und Strafprozess an der Uni Neuenburg. Sie studierte Rechtswissenschaften in Bern und Sheffield, absolvierte Forschungsaufenthalte in Vancouver und Paris. Von 2011 bis 2016 leitete sie im Rahmen einer SNF-Förderprofessur an der Uni Basel eine Forschungsgruppe zur Herstellung und Verwendung von Einvernahmeprotokollen in Strafverfahren.
Jérôme Endrass und Thomas Noll widersprechen den Argumenten von Nadja Capus. Der Psychologe Endrass ist Stabschef des Zürcher Amtes für Justizvollzug. Der Psychiater und Jurist Noll leitet die Fachstelle Forensik desselben Amtes. Lesen Sie ihre Replik «Die Checkliste» siegt.
Debatte: Algorithmen in der Strafjustiz – Segen oder Albtraum?
Ihre Meinung ist gefragt: Sind Algorithmen objektiver und vorurteilsfreier als Menschen? Oder braucht es in jedem Fall die individuelle Beurteilung durch eine Expertin? Welche Argumente überzeugen Sie, wo sehen Sie Probleme? Hier geht es zur Debatte.