Die Polizei weiss, was Sie morgen vielleicht tun werden
Die Schweiz ist eine Pionierin im Einsatz von Software, die voraussagt, wer wann wo ein Verbrechen begehen könnte. Doch die Tools sind weder rechtlich noch demokratisch legitimiert.
Eine Recherche von Adrienne Fichter, Florian Wüstholz (Text) und 1Kilo (Animation), 11.12.2020
Mit virtuosen Handbewegungen streicht Tom Cruise über die virtuelle Wand. Er ordnet Hologramme, schiebt Fotos hin und her, visualisiert eine Szene, in der ein Mann mit einem Messer auf eine Person einsticht. Es ist ein Blick in die Zukunft, der sich dem von Cruise gespielten Polizisten offenbart – auf einen Mord, den er und seine Kollegen in letzter Minute verhindern werden.
Der berühmte Filmausschnitt ist untermalt mit Schuberts achter Symphonie, der «Unvollendeten». Er wird gerne zitiert, wenn Medien über das Thema «Predictive Policing» berichten, zu Deutsch: vorhersagende Polizeiarbeit. Technologien also, die es möglich machen sollen, Verbrechen vorauszusehen.
Wie viel von dem, was sich die Macher von «Minority Report» vor zwanzig Jahren ausgedacht haben, ist inzwischen Wirklichkeit? Arbeiten Schweizer Polizeikorps mit Predictive Policing? Und wenn ja: Ist das überhaupt legal? Ist es nützlich? Ist es gut dokumentiert?
Zum Schwerpunkt «Tech-Staat Schweiz»
In den USA werden Kinder via Software einer Schule zugeteilt, in China erhalten Bürger Minuspunkte bei regierungskritischen Äusserungen. Der Überwachungskapitalismus und die Techno-Diktatur sind auf dem Vormarsch.
Wie sieht die Situation in der Schweiz aus? Auch hier wird der Staat immer mehr digitalisiert. Dabei setzen öffentliche Institutionen auf Automatisierung und algorithmenbasierte Software. Mit welchen Folgen?
Die Republik klärt diese Fragen in mehreren Folgen. Die Themen reichen von Überwachungsprojekten über Predictive Policing, smarte Justiz und «intelligente» Flüchtlingsverteilung bis zum E-Patientendossier und zu Smart City.
Eine neue Studie der Universität St. Gallen und Republik-Recherchen zeigen:
Die Schweiz ist im deutschsprachigen Raum Pionierin für Predictive Policing. Immer mehr sogenannte «Gefährder» werden in Datenbanken erfasst, in der eigenen Wohnung aufgesucht und angesprochen, beobachtet, überwacht.
Die Programme überschätzen das Risiko von Gefährderinnen. In der Praxis führen sie bei Polizisten, die sie benutzen, zu einem Tunnelblick.
Es gibt keine öffentliche Debatte über Predictive-Policing-Programme und auch keine Regulierungen. Nur wenige wurden von unabhängiger Seite evaluiert. Für viele Polizeibeamtinnen ist nicht nachvollziehbar, wie die Programme funktionieren. Die Algorithmen sind Geschäftsgeheimnis der Anbieter, und die Daten liegen teilweise auf Servern im Ausland.
In einigen Kantonen wurden jahrelang digitale Prognostikprogramme und Präventivmassnahmen im rechtsfreien Raum angewendet. Gefährderdatenbanken wurden ohne rechtliche Grundlage angelegt.
«Erfolg misst sich an dem, was morgen nicht passiert», sagt eine anonyme Polizeibeamtin, mit der wir für diese Recherche gesprochen haben. Aus den Kantonen heisst es, gewisse Einbruchserien hätten sich durch den Einsatz von Prognoseprogrammen vermindert, gewisse Gefährder seien nicht mehr negativ aufgefallen. Die Nachfrage nach diesen Programmen ist gross.
Doch ebenso gross sind die Fragen, die damit verbunden sind. Sie gehen weit über die Technologiedimension hinaus, betreffen fundamentale Aspekte des Rechtsstaats: Wer entscheidet, ob jemand, der noch keine strafrechtlich relevante Tat begangen hat, präventiv überwacht wird?
1. Die Schweiz ist Pionierin
Volle Frauenhäuser, radikalisierte Einzeltäter, eine Zunahme von Cyberattacken im Netz: Es sind Entwicklungen wie diese, die Polizeikorps unter Zugzwang bringen. Und die in den letzten Jahren ein neues Paradigma hervorgebracht haben: die Täterin von morgen frühzeitig zu erkennen.
Damit erhält Software in der Polizeiarbeit ein grösseres Gewicht. Dies hat eine Forschergruppe der Universität St. Gallen in einer aufwendigen Studie mit dem Titel «Smart Criminal Justice» herausgefunden. Die zwei Strafrechtsexpertinnen Monika Simmler und Simone Brunner und der Betriebswirtschaftsprofessor Kuno Schedler führten dafür ausführliche Interviews mit Anwendern von Predictive-Policing-Programmen. Der Republik haben sie vor der Publikation der Studie bereits einen Einblick gewährt.
Den Forscherinnen zufolge gibt es einen Schlüsselmoment für Predictive Policing: den 15. August 2011. An jenem Montag vor neun Jahren erschoss ein 58-jähriger Familienvater im zürcherischen Pfäffikon zuerst seine Frau und anschliessend die Leiterin des Sozialamts. Ein brutaler Doppelmord, der nicht nur das beschauliche Dorf im Zürcher Oberland erschütterte.
Schnell wurden damals mediale Vorwürfe laut: Die Tat hätte verhindert werden können, der Mann sei der Polizei bereits als gewalttätig bekannt gewesen – sie hätte bloss rechtzeitig intervenieren müssen. Ähnliche Vorwürfe tauchten zuletzt auch nach einer Messerattacke auf zwei Frauen im Tessin auf, bei der die Täterin dem Bundesamt für Polizei bekannt war.
Der Mordfall von Pfäffikon bewog zahlreiche Kantone dazu, ein sogenanntes «kantonales Bedrohungsmanagement» zu lancieren. Der Kanton Solothurn war dabei ein Vorreiter. Er liess sich 2013 vom privaten deutschen Institut für Psychologie und Bedrohungsmanagement beraten und führte als erster Kanton ein solches Regime ein, wie die Pressestelle nicht ohne Stolz schreibt.
Die «instrumentengläubigen» Polizeistellen, wie es ein Mitarbeiter einer Präventionsabteilung in einem Kanton ausdrückt, suchten in der Folge fieberhaft nach Software. Diese sollte Beamten die Arbeit abnehmen und Resultate ausspucken. So brach in der Schweiz die Ära der algorithmenbasierten Prognoseprogramme an.
Was diese genau machen, umschreibt die Forschergruppe so: «Algorithmengestützte Tools versprechen, die Wahrscheinlichkeit von Delikten zum Zeitpunkt X am Ort Y berechnen zu können oder vorherzusagen, mit welcher Wahrscheinlichkeit Person Z delinquieren wird.»
Predictive Policing lässt sich demnach in zwei Formen unterteilen:
Bei der raumzeitbezogenen Variante geht es um die Identifikation möglicher Tatorte und Tatzeiten, um Patrouillen und Interventionen im Voraus zu planen.
Bei der personenbezogenen Variante sollen vermeintlich gefährliche Personen identifiziert und anschliessend einem sogenannten Bedrohungsmanagement unterzogen werden.
Die Einsatzfelder von Predictive Policing in den Kantonen sind: häusliche Gewalt, Drohungen gegen Schulen, Hooliganismus, gewalttätiger Extremismus. Mit den Vorhersageprogrammen sollen Einbruchserien gestoppt und potenzielle Straftäterinnen frühzeitig identifiziert werden.
Wie Recherchen der Republik und die HSG-Studie zeigen, sind in den Kantonen primär fünf Programme im Einsatz: Precobs, Ra-Prof, Dyrias, Odara und Octagon. Sie unterscheiden sich je nach Funktionalität und Anwendungsgebiet.
Dyrias zum Beispiel steht für «Dynamische Risiko-Analyse-Systeme». Anhand eines Fragenkatalogs, der auf unterschiedliche Bereiche ausgelegt ist – Arbeitsplatz, Schule, Partner –, kalkuliert das Programm eine Zahl zwischen 1 und 5. Diese soll das Gefahrenpotenzial und den Handlungsbedarf anzeigen.
Ich will es genauer wissen: Welche Programme werden eingesetzt?
Precobs ist das einzige raumzeitbezogene Programm, das in der Schweiz zum Einsatz kommt. Mehrere Kantone verwenden zur Risikoanalyse zudem eines oder mehrere personenbezogenen Tools: Dyrias, Ra-Prof oder Octagon.
Precobs soll Gebiete identifizieren, in denen aufgrund der Vergangenheit davon ausgegangen werden könne, dass in Zukunft erneute Einbrüche wahrscheinlich seien. Die Theorie dahinter nennt sich «Near Repeat» und geht davon aus, dass Einbruchsserien eine gewisse Logik zugrunde liegt. Precobs ist das einzige Programm, das einen komplexen – und intransparenten – Algorithmus als Grundlage hat: eine avancierte Mustererkennungssoftware, die entsprechende Voraussagen liefern soll. Precobs wird vom privaten deutschen Institut für musterbasierte Prognosetechnik entwickelt und kommt in der Schweiz nur im Aargau, in Basel-Landschaft und in der Stadt Zürich zum Einsatz.
Ra-Prof («Radicalisation Profiling») funktioniert ähnlich. Das Programm soll anhand von 40 Fragen Radikalisierungstendenzen feststellen. In einem Onlinefragebogen werden die Antworten anonym eingegeben. Anschliessend errechnet ein simpler Algorithmus anhand der Anzahl positiver Antworten, ob die Polizei dringend handeln muss, ob weitere Abklärungen nötig sind oder ob kein dringender Handlungsbedarf besteht. Ra-Prof wurde vom Schweizer Zentrum für Gewaltfragen entwickelt und bisher nicht validiert.
Dyrias (Dynamische Risiko-Analyse-Systeme) berechnet mit einem Fragenkatalog, der unterschiedliche Bereiche wie Arbeitsplatz, Schule, Partner umfasst, eine Zahl zwischen 1 und 5. Diese soll das Gefahrenpotenzial und den Handlungsbedarf anzeigen.
Octagon, ein ausführlicher Fragebogen, ist in der Schweiz am weitesten verbreitet. Mindestens 14 Kantone verwenden ihn, sowohl in Papierform als auch digital. Dabei handelt es sich nicht um eine komplexe Technologie, sondern eher eine Form des angeleiteten Prognostikansatzes. Octagon wurde vom Psychiatrisch-Psychologischen Dienst des Kantons Zürich in Zusammenarbeit mit der Kantonspolizei entwickelt. Dabei soll die Gewaltbereitschaft einer Person anhand von acht Dimensionen bestimmt werden. Jede davon wird mit einem Fragenkatalog beurteilt. «Octagon gilt aktuell als praxisnahes Instrument für das Bedrohungsmanagement», sagt Thomas Kummer von der Kantonspolizei Solothurn, wo Octagon seit 2017 zum Einsatz kommt. «Es bildet die Handlungsnotwendigkeit sowie die Interventionsdringlichkeit sehr gut ab und unterstützt den Anwender effizient in seiner Arbeit.» Im Gegensatz dazu benötige zum Beispiel Dyrias weitaus mehr Daten für eine nützliche Einschätzung. Daten, die meist gar nicht vorhanden seien.
Odara, das «Ontario Domestic Assault Risk Assessment», ist ein in Kanada entwickeltes Risk-Assessment-Instrument. Odara ist relativ leicht zu handhaben, was eine einfache Einschätzung zur Rückfallgefahr bei häuslicher Gewalt ermöglichen soll. Es ist wie Dyrias ein Analysewerkzeug zur Abschätzung des Risikos einer potenziellen Straftat.
Abgesehen von Precobs verwenden alle Prognosetools regelbasierte «Wenn-dann-Algorithmen», manche sind auch nur digitalisierte Checklisten oder Fragebögen. Die meisten Tools sind nicht im eigentlichen Sinn «smart».
Doch nicht nur Polizeistellen, sondern auch Sozialämter oder Kinder- und Elternschutzbehörden greifen auf solche Software zurück. Die Schweiz gehöre zur Avantgarde, bestätigt Simon Egbert, Forscher an der Technischen Universität Berlin. Bereits 2013 habe die Stadtpolizei Zürich mit Precobs experimentiert.
Interessant ist, dass die meisten kantonalen Behörden negieren, Predictive Policing zu betreiben. Sie haben dazu teilweise eigentümliche Erklärungen:
So schreibt die Kantonspolizei Bern auf Anfrage der Republik, dass sie aktuell «mit keinem entsprechenden digitalen Tool im Bereich Predictive Policing und Bedrohungsmanagement» arbeite. Gleichzeitig besitzt sie jedoch Lizenzen für Dyrias und Octagon.
Auch der Kanton Basel-Stadt bestreitet, dass der Einsatz von Dyrias und Ra-Prof etwas mit Predictive Policing zu tun habe, «weil diese Instrumente keine Aussagen zur generellen Kriminalitätsentwicklung machen».
Das sieht zumindest die deutsche Bertelsmann-Stiftung anders. Sobald Polizeibehörden Software einsetzen, um Prognosen hinsichtlich «zukünftiger Verbrechensareale oder zukünftiger Straftäter» zu erstellen, befinde man sich im Bereich des Predictive Policing. Denn am Ende spucken sie eine Prognose aus, die für die Polizistinnen relevant ist.
2. Das Risiko von Gefährdern wird überschätzt
Da die Prognoseprogramme entweder Produkte von kommerziellen Firmen sind oder deren Funktionsweise als Geschäftsgeheimnis gilt, ist vielen Polizeibeamten nicht klar, was im Hintergrund genau berechnet wird.
Punktuell Klarheit geschaffen haben bisher nur Medienrecherchen. SRF zeigte beispielsweise vor zwei Jahren, dass zwei von drei Personen mit Dyrias falsch eingeschätzt wurden. Ein Faktor, der regelmässig zu Ausreissern führt, ist die Variable Waffenbesitz, wie die Recherchen der Republik zeigen. Ein Mitarbeiter einer kantonalen Fachgruppe Gewaltschutz sagt: «Wer im Besitz von Waffen ist, der schlägt bei Dyrias hoch aus.»
Der Grund dafür ist einfach: Das Tool wurde in Deutschland entwickelt, der Schweizer Kontext mit den Armeewaffen führt zu einer permanenten «Red Flag». Den Schweizer Kantonspolizistinnen ist diese Verzerrung bekannt, sie habe durchaus zu Diskussionen geführt. Der Mediensprecher der Kantonspolizei Luzern, Christian Bertschi, sagt dazu: «Der Umstand, dass ein Waffenbesitz allenfalls eine höhere Gefährdungsstufe bedeuten kann, ist uns bewusst und wird bei der Gesamtbeurteilung entsprechend berücksichtigt.»
Ausreisser gibt es auch bei Odara. Das Programm wird etwa zur Prävention von häuslicher Gewalt angewendet. Es hat den Hang, stark zu «überzeichnen», wie eine Mitarbeiterin eines forensisch-psychologischen Diensts der Republik sagt: «Sechs von zehn Personen wurden als sehr gefährlich eingestuft, wobei aber nach unserer Meinung wirklich nur einer gefährlich war.»
Trotz dieser Risikoüberschätzung sind viele Polizisten von der Effektivität der Werkzeuge überzeugt. Einige verweisen dabei auf einen Vorfall bei der Kesb. Ein Gefährder, der durch Dyrias als hochgefährlich eingestuft worden sei, was Stufe 5 entspricht, wurde gerade noch rechtzeitig «abgefangen», bevor er eine Kesb-Mitarbeiterin bedrohen wollte. Er hatte eine Waffe dabei.
Bisher kamen Prognoseprogramme nur «unterstützend» zum Einsatz. Am Ende entscheide immer noch der Mensch über den Einsatz und das Vorgehen, fassen die Forscherinnen der Universität St. Gallen die Gespräche in ihrer Studie zusammen.
Christian Bertschi von der Luzerner Polizei erklärt den Stellenwert der Programme so: «Die Tools sind ein elektronisches Instrument, welches uns eine gewisse Sicherheit gibt, eine Art ‹Fieber messen›, und allenfalls Unterstützung in gewissen Entscheidungen geben kann.» Ein Polizeibeamter, der anonym bleiben will, bestätigt diese Aussage: «Man nimmt nie einfach so das Resultat hin, das wird ständig hinterfragt.» Auch Ausreisser wie bei Odara oder Dyrias würden dabei niemals überbewertet.
Forscherin Monika Simmler spricht dennoch von einer «Pseudolegitimation». Denn die Resultate sollen das Bauchgefühl der Polizistinnen absichern und als Argument genutzt werden, um etwa Massnahmen anzuordnen. «Der Algorithmus bestimmt mit, wer ein Gefährder ist und wer nicht», sagt Simmler. Gerade bei polizeilichen Eingriffen wie dem Entzug von Waffen dienen die Programme zur Absicherung.
Aus den Gesprächen mit involvierten Beteiligten, die die Republik führte, entsteht der Eindruck, dass wegen des öffentlichen Drucks immer mehr Entscheidungen durchaus «algorithmenkonform» getroffen werden:
Ein Beteiligter erzählt, wie man in Erklärungsnot komme, wenn man die Programme ignoriere: «Wenn man ein System hat und das etwas ausspuckt und man nicht reagiert und etwas passiert, dann kommt die Frage, warum wir nicht reagiert haben.»
Ein anderer sagt: «Wenn jemand eine 5 hat, kommt es bald zur Gewalttat, und man muss Massnahmen einleiten. Bei 3 muss man nicht gleich intervenieren.»
Die technologiebasierten Empfehlungen beeinflussen also tatsächlich die Entscheidungsfindung, ob interveniert wird. Die Grenzen, was dabei eigene Fachexpertise ist und was technologische Intelligenz, werden fliessender. «Es schärft die Sinne und zeigt, worauf man achten muss», sagt eine Polizistin.
Nadja Capus, Strafrechtsprofessorin an der Universität Neuenburg, warnt seit Jahren vor diesem «Tunnelblick», bei dem man die Logik der Risikowerkzeuge übernehme. Sie schrieb vor zwei Jahren in der Republik: «Wenn Polizisten, Strafvollzugsbeamtinnen, Bewährungshelfer und Psychiaterinnen sich an diese eingeengte Wahrnehmung gewöhnen, werden wichtige Informationen vernachlässigt oder gehen verloren.» Anders als geschulte Polizisten können Prognosetools Kontext nicht mit einbeziehen.
Ähnlich sieht dies auch die Geschäftsführerin der Organisation Algorithm Watch Schweiz, Anna Mätzener: «Bei Befragungen in Deutschland haben neun von zehn Polizisten geantwortet, dass sie versuchen, sich möglichst genau an die vom Predictive-Policing-System empfohlenen Massnahmen zu halten.»
Doch der Empfehlungscharakter führt dazu, dass der Einsatz von Precobs, Dyrias und Co. unreguliert bleibt. Sowohl die europäische Datenschutz-Grundverordnung als auch das revidierte Schweizer Datenschutzgesetz greifen nur, wenn eine Software nicht nur Empfehlungen abgibt, sondern direkt entscheidet – zum Beispiel über eine Kreditvergabe.
3. Die Programme wurden kaum evaluiert
Die fehlende Regulierung ist ein Problem. Erst jetzt beginnen die Kantone, unabhängige Untersuchungen der Programme durchzuführen. So wird Odara vom Kriminologischen Institut der Universität Zürich im Auftrag des Kantons Zürich vertieft evaluiert. Vorher gab es dafür offenbar kaum Bedarf – obwohl die Systeme bereits jahrelang im Einsatz waren. Ein Grund für die fehlende Aufsicht ist: Die Softwarebeschaffungen sind Sache der Polizeikorps. Da es sich um Hilfsinstrumente handelt, wurden sie auch nie politisch hinterfragt.
«Politischen Widerstand gab es nie», erzählt uns eine Polizistin. «Wir nehmen den Politikern auch viel Arbeit ab.»
Dabei würden auch Fachkräfte aus Frauenhäusern, die vom Einsatz von Prognosetools profitieren, eine externe Evaluation begrüssen: «Eine Überprüfung der Tools bzw. die Handhabung mit allen verschiedenen Fachleuten und Stellen gemeinsam wäre wünschenswert, damit auch wirklich allen verschiedenen Aspekten des Bedrohungsmanagements mit den unterschiedlichen Täter-‹Typen› Rechnung getragen wird», sagt etwa Susan Peter, Vorstandsmitglied der Dachorganisation Frauenhäuser Schweiz und Geschäftsleiterin der Stiftung Frauenhaus Zürich.
Auch Anna Mätzener von Algorithm Watch Schweiz fordert, «dass sich die Polizei für Begleitforschung öffnen und nicht alles hinter verschlossen Türen machen soll». Die Polizei selbst würde davon am stärksten profitieren.
Demokratiepolitisch heikel ist, dass die Prognosesysteme eine technologische Blackbox sind. Weder die Hersteller von Precobs noch jene von Dyrias wollen den Quellcode oder die Bewertungsparameter ihrer Algorithmen offenlegen. Brisanterweise erhalten sie dafür vollstes Verständnis der Polizei: «Selbstverständlich gibt keine Softwarefirma den Algorithmus ihrer Analysesoftware preis», sagt ein Fachverantwortlicher eines kantonalen Bedrohungsmanagements. Sie müsse damit ja Geld verdienen. Es sei auch nicht wichtig, diese Merkmale zu kennen.
Hinzu kommt, dass im Fall von Dyrias die Daten auf Servern der Firma in Frankfurt liegen. Diese seien jedoch verschlüsselt, und niemand ausser der Kundschaft habe Zugriff darauf, sagt Monika Hoffmann, Geschäftsführerin des Instituts Psychologie und Bedrohungsmanagement, die das Prognoseprogramm entwickelt hat.
Die Kantonspolizeikorps sind vom präventiven Nutzen des Predictive Policing überzeugt. «Gemäss Statistik ist die Anwendung von Precobs positiv, denn die Einbruchszahlen sind zurückgegangen», sagt ein stellvertretender Vertreter der Sicherheitsabteilung eines Kantons.
Gleichzeitig gestehen sie jedoch ein, dass sich keine Aussagen über den Erfolgsanteil der Systeme machen lassen. So schreibt die Kantonspolizei Glarus, bei der sowohl Dyrias als auch Octagon im Einsatz sind: «Es wird nie möglich sein, eine Aussage dazu zu machen, ob und wie viele Straftaten verhindert wurden, da man ja nicht weiss, ob es tatsächlich zu einer Straftat gekommen wäre.»
ETH-Forscher und Precobs-Experte Matthias Leese bestätigt diesen Befund: «Es gibt durchaus einen Rückgang bei den Einbruchszahlen. Ob das der Software zuzuschreiben ist, ist schwer zu sagen.»
Ob die Instrumente wirklich nützen, wurde bisher kaum von unabhängiger Seite untersucht. Und wenn, dann stellten ihnen Studien kein gutes Zeugnis aus. So untersuchte Algorithm Watch den Einfluss von Precobs auf die Anzahl Einbrüche in der Stadt Zürich und den Kantonen Aargau und Basel-Landschaft. Das Ergebnis war ernüchternd: Die Einbruchsraten gingen nicht stärker zurück als in den Regionen, die keine Vorhersagesoftware verwenden.
Ein möglicher Grund dafür ist, dass algorithmenbasierte Programme viele Daten brauchen. Das Vorhersagemodell von Precobs nützt nur etwas in dichten Siedlungsgebieten, in denen es auch viele Einbrüche gibt. Fehlen diese Daten, so kann der Algorithmus keine verlässlichen Aussagen treffen. Der Kantönligeist macht der Polizei hier einen Strich durch die Rechnung. Denn Kantone dürfen aufgrund des Datenschutzes keine Daten austauschen.
Und trotzdem halten alle in der Studie befragten Institutionen das kantonale Bedrohungsmanagement für ein Erfolgsmodell. Man habe schon «viel Druck» rausholen können, Gespräche mit potenziellen Gefährdern hätten immer eine deeskalierende Wirkung gehabt, heisst es.
Ein weiterer Vorteil: Mit den Prognoseinstrumenten vereinheitlichen sich die Prozesse – alle Beteiligten sprechen vom selben. Ein Beteiligter erinnert an den Fall Kneubühl, bei dem ein Rentner 2010 in Biel einen Polizisten schwer verletzte. Dieser war einigen Behörden als Querulant bekannt, doch es gab damals keinen internen Informationsfluss. «Die linke Hand wusste nicht, was die rechte tat.» So etwas würde dank eines interdisziplinären Netzwerks mit Expertinnen aus Psychologie, Kriminalistik, Forensik und Statistik, das mit dem Bedrohungsmanagement geschaffen wurde, nicht mehr passieren.
4. Die rechtlichen Grundlagen fehlten
Die von den Prognoseinstrumenten ausgespuckten Resultate – also die Risikobewertung eines potenziellen Gewalttäters – werden kantonal in elektronischen Datenbanken gespeichert, sogenannten «Gefährderlisten».
Für die Speicherung als Gefährderin ist weder die tatsächliche Begehung einer Straftat noch ein konkreter Tatverdacht nötig. Es reicht eine ausgesprochene Drohung. 132 Personen waren Ende 2019 im Kanton Solothurn gespeichert. In Luzern waren es diesen Sommer 458, wie die Recherchen der Republik zeigen.
Auch der «Risikoverlauf» wird gespeichert – also wenn jemand umklassifiziert wird, zum Beispiel von A nach C. Ausserdem werden darin weitere schützenswerte Personendaten festgehalten, wie etwa die psychologische Stabilität. Gemäss den Forscherinnen der Universität St. Gallen sind die Hürden für eine Löschung in den Gefährderdatenbanken zu hoch. Für sie ist klar: Ein solches System braucht eine explizite rechtliche Grundlage. Alleine schon die Kategorisierung einer Person in amtlichen Akten stelle einen Eingriff in die Grundrechte dar und tangiere den Schutzbereich nach Artikel 13.1 Absatz 2 der Bundesverfassung.
Doch nicht alle Kantone haben diesbezüglich ihre Hausaufgaben gemacht:
In Basel-Stadt werden die Bestimmungen im Grossen Rat erst jetzt verabschiedet. Dies, obwohl man bereits seit 2016 mit dem Programm Ra-Prof arbeitet, das bereits 52 Mal angewendet worden sei.
In Schaffhausen, St. Gallen oder im Aargau werden Polizeigesetze erst jetzt revidiert. Auch in diesen drei Kantonen werden die Predictive-Policing-Systeme seit mehreren Jahren angewendet.
Der Kanton St. Gallen verwendet Dyrias seit 2014 für die Prävention von Gewaltverbrechen. Doch das rechtliche Instrumentarium für dessen Einsatz im Bereich häusliche Gewalt und Stalking wurde erst 2019 in einem Nachtrag zum Polizeigesetz verabschiedet.
Darauf angesprochen, antwortet der Generalsekretär des Sicherheits- und Justizdepartments in St. Gallen, Hans-Rudolf Arta, ausweichend. Die «Gefährdermassnahmen» würden zum allgemeinen polizeilichen Präventionsauftrag gehören, sagt er: «Sie sollen dazu beitragen, mögliche Gewaltdelikte zu verhindern, bevor es zu spät ist.»
Die fehlende demokratische Legitimation und der rechtliche Graubereich bei Gefährderdatenbanken empfanden die wenigsten Personen als störend, die die St. Galler Wissenschaftler in ihrer Studie befragten. Oft werde auf die polizeiliche Generalklausel in Polizeigesetzen verwiesen. Diese Klausel legitimiert Interventionen der Polizei in «Fällen ernster, unmittelbarer und nicht anders abwendbarer Gefahr».
Doch diese Klausel ist nicht einmal ansatzweise rechtlich haltbar für ein systematisch angewendetes Predictive Policing, halten die Studienautorinnen fest. Auch die Basler Staatsrechtsprofessorin Nadja Braun Binder ist der Ansicht, dass die Generalklausel nur in Ausnahmefällen angerufen werden kann. Sie verweist auf ein Bundesgerichtsurteil, das besagt, dass die Klausel auf «echte und unvorhersehbare sowie gravierende Notfälle» ausgerichtet ist.
Die Autorinnen kritisieren ausserdem in ihrer Studie, dass die Gefährder kaum Möglichkeiten haben, von ihrem Status überhaupt jemals zu erfahren.
«Dass Algorithmen Bürger zu Gefährdern machen, ist bedenklich», sagt Monika Simmler. «Dass dies ohne adäquaten rechtlichen Rahmen geschieht, ist noch bedenklicher.» Sie kritisiert dabei, dass weder die Rechtmässigkeit eines Eintrags überprüft noch dieser zu einem späteren Zeitpunkt gegenüber dem Gefährder transparent gemacht werde. Denn wer nichts von seinem Status weiss, kann sich auch nicht gerichtlich dagegen wehren oder eine Löschung erzwingen, falls keine Gefahr besteht.
Diese Intransparenz bestätigt auch ein Insider gegenüber der Republik. Die Polizei lasse nur gewisse Gefährder spüren, dass sie beobachtet würden: «Eine A-Person spürt unsere Aufmerksamkeit, einen C-Fall hingegen lassen wir an der langen Leine, machen ein Monitoring, und wenn das Verhalten Besorgnis erregt, wird zu B oder A hochgestuft.» Manche Personen, die noch nie straffällig wurden, würden also nie von ihrem Polizeieintrag erfahren.
Weil es sich bei Odara und Co. nur um Hilfswerkzeuge für Polizistinnen handelt, müssen potenzielle Täter auch nicht über ihre algorithmenbasierte Risikoeinschätzung informiert werden. Sie erfahren also nicht, dass eine Maschine sie zum Hochrisikotäter eingestuft hat.
Viele Opferanlaufstellen begrüssen grundsätzlich die enge Zusammenarbeit mit der Polizei und das Regime des Bedrohungsmanagements. Doch auch sie pochen darauf, dass dabei die rechtsstaatlichen Massstäbe beachtet werden. So sagt Corina Elmer von der Frauenberatung sexuelle Gewalt gegenüber der Republik: «Gleichzeitig gilt es, den Datenschutz, die Rechte aller involvierten Personen und die Verhältnismässigkeit der Massnahmen zu beachten. Das ist eine Gratwanderung, der wir in der Praxis immer wieder begegnen und die in jedem Einzelfall sorgfältig abzuwägen ist.»
Der Ruf nach dem präventiven Staat wird lauter
Manche sagen, die Programme, die in der Schweiz eingesetzt werden, seien weniger nützlich als ursprünglich angenommen. «Das Tool macht nichts, was Analystinnen nicht ohnehin täglich machen», sagt ein Beteiligter. «Es beschleunigt den Prozess einfach.» Doch Predictive Policing wurde nicht etwa entzaubert, weil die Polizei sich der Probleme bewusst geworden wäre. Sondern, weil nicht genügend Daten zur Verfügung stehen.
Das könnte sich bald ändern. Die Kantone beginnen nun, Informationen regional auszutauschen. So hat das Polizeikonkordat Nordwestschweiz beschlossen, eine Vereinbarung für den Datenaustausch aufzubauen. Dies, weil man an die kantonalen Grenzen gekommen sei mit Systemen wie Precobs. Wo diese Grenzen aufgehoben werden, wird es bald mehr Datenfutter geben.
Das fehlende demokratische und rechtsstaatliche Problembewusstsein zeigt sich auch in den Ergebnissen der Forschergruppe der Universität St. Gallen. Eine schweizweite Debatte in den Polizeikorps bleibt bisher aus. Zwar hat der Bundesrat am 25. November Leitlinien für den Einsatz von künstlicher Intelligenz verabschiedet. Doch diese gelten nur für die Bundesverwaltung.
Hologramme, Visualisierungen künftiger Mordfälle und Spezialeinheiten, die kurz vor der Tatzeit eine Verbrecherin dingfest machen, bleiben zwar noch Science-Fiction. Doch der Einsatz algorithmenbasierter Polizeiprogramme wird zunehmen, davon gehen auch die Studienautorinnen aus. Dies nicht zuletzt, weil der gesellschaftliche Ruf nach dem präventiven Staat zunimmt:
Mit dem neuen Antiterrorgesetz wird es beispielsweise möglich, Menschen unter Hausarrest zu stellen, ohne dass sie eine Straftat begangen haben – nur, weil sie als potenzielle Gefährder eingestuft werden. Dies sind neue Möglichkeiten der präventiven Massnahmen, die zur Entwicklung des Schweizer Polizeiwesens in den letzten Jahren passen.