«Extremisten sind fast immer Early Adopters neuer Technologien»
Extremismusforscherin Julia Ebner hat undercover unter Rechtsradikalen und Islamisten recherchiert. Ein Gespräch über Rekrutierung und Indoktrinierung im Netz – und die fatale Macht der Algorithmen.
Von Daniel Graf (Interview) und Anne Morgenstern (Bilder), 03.10.2019
Es geht bereits geschäftig zu, als Julia Ebner im Zürcher Kaufleuten ankommt. In gut 90 Minuten wird sie hier einen Vortrag halten. Gerade eben noch hat sie im Radiostudio gesessen, und weil das ein wenig länger gedauert hat als geplant, wollen nun alle gleichzeitig etwas von ihr: der Tontechniker, startklar zum Soundcheck. Die Moderatorin, bereit zur Vorbesprechung. Die Veranstalterinnen – den Gast willkommen heissen. Julia Ebner nimmt das Treiben rundherum mit einer Coolness, wie man sie wohl braucht als Extremismusforscherin mit starkem Empirie-Bezug. Ebner hat in zwölf extremistischen Gruppen incognito recherchiert, sich mithilfe von Decknamen und gezieltem Requisiten-Einsatz unter Nazis, rechte Trolle und Dschihadisten gemischt. Ihre Erfahrungen hat die gebürtige Wienerin, die in London forscht, im Buch «Radikalisierungsmaschinen» zusammengefasst.
Frau Ebner, Sie haben zwei Jahre damit verbracht, sich undercover in die unterschiedlichsten Extremisten-Netzwerke einzuschleusen. Warum?
Weil es mir ein Anliegen war, besser zu verstehen, was die Mitglieder von extremistischen Organisationen antreibt. Aber auch, um die Gruppendynamiken von innen her zu verstehen. Oft haben wir ja nur die Vogelperspektive. In dem Thinktank, in dem ich arbeite, können wir zum Beispiel mit Datenanalysen feststellen, wie die Sprache im Laufe der Zeit extremer wird oder wie Mitglieder von extremen Bewegungen dabei sind, sich zu radikalisieren. Aber es ist oft schwierig, wirklich zu verstehen, was die Menschen motiviert.
Was sind Ihre wichtigsten Erkenntnisse?
Was mir besonders stark aufgefallen ist und was mir zuvor nicht in dem Ausmass klar war: welche Bedeutung der Sozialisierungsprozess hat. Also wie stark eine Subkultur aufgebaut wird, mit eigener Sprache, sogar eigenen Witzen. All das spielt eine enorme Rolle, damit sich neue Mitglieder in die Gruppe integrieren und mit deren Werten identifizieren. Was dazu führt, dass viele ihre eigene Identität komplett für die Gruppe aufgeben.
Zunächst also wird den Menschen keine ideologische Heimat gegeben, sondern eine soziale?
Genau. Die Indoktrinierung kommt eigentlich erst nach der Sozialisierung, oft sehr subtil. Es wird viel mit Scherzen und Memes, also visuellen Darstellungen, und mit satirischen Inhalten gearbeitet.
Sie haben in ideologisch unterschiedlichen Extremisten-Netzwerken recherchiert. Aufs Gesamte betrachtet: Von welcher ideologischen Richtung geht aktuell die grösste Gefahr aus?
Im Moment würde ich sagen, von rechtsextremer Seite. Hier gibt es natürlich ganz unterschiedliche Ausprägungen, sowohl was die Ideologien als auch was die Strategien betrifft. Die grösste Gefahr besteht in der längerfristigen Beeinflussung unserer Demokratie. Rechtsextreme Netzwerke inszenieren sich sehr stark als Gegenkultur; sie versuchen die Politik über die Kultur zu verändern. Das ist die «Breitbart-Doktrin», die zum Beispiel Steve Bannon vertritt, die aber auch die Neue Rechte und die Alt-Right in den USA antreibt.
Sie sagen, das Netz stelle regelrechte Radikalisierungsmaschinen bereit. Wie würden Sie deren Bauplan beschreiben?
Zum einen geht es wirklich um die Infrastruktur selbst, die sehr stark den Extremisten in die Hände spielt. Die Plattformen vor allem der grossen Tech-Firmen – also Youtube oder Google, Facebook und Twitter – funktionieren so, dass sie den Nutzer möglichst lange auf der Plattform halten wollen. Dadurch geben die Algorithmen extremen und oft gewaltvollen Inhalten Vorrang, weil es leider das ist, was unsere Aufmerksamkeit bindet. Zusätzlich arbeiten Extremisten sehr raffiniert daran, ihren Inhalten ein überproportionales Megafon zu verleihen. Und zwar, indem sie sich absprechen, hinter den Kulissen, auf den verschlüsselten Netzwerken, um dann gemeinsam breit angelegte Kampagnen auf den grossen Plattformen durchzuführen. Also etwa die gleichen Hashtags zur selben Uhrzeit zu teilen, sodass die eigenen Inhalte Vorrang erhalten und in die Mitte der Gesellschaft transportiert werden.
Heisst das, die Extremisten sind im Umgang mit diesen Techniken der Mehrheitsgesellschaft voraus?
Das ist in den allermeisten Fällen tatsächlich so. Extremisten sind fast immer Early Adopter von neuen Technologien. Sie versuchen alle neuen Mittel anzuwenden, um Gesetze zu umgehen und die Schwachstellen von neuen Technologien für sich zu nutzen. Aber auch die Schwachstellen in unserer Gesellschaft, wie verstärkte Einsamkeit oder Suchtverhalten. So lässt sich das Potenzial für Radikalisierung gezielt ausnutzen, und das geht leider oft schneller, als wir darauf reagieren.
Ihre Undercover-Einsätze fanden nur zum Teil im digitalen Raum statt. Bei der Identitären Bewegung zum Beispiel haben Sie sich mit Decknamen und blonder Perücke eingeschleust. Mit dieser Günter-Wallraff-Taktik sind Sie erstaunlich schnell in den innersten Kreis vorgedrungen.
Mich hat das selbst erstaunt. Es hat sich aber zuletzt deutlich schwieriger gestaltet. Einige extreme Bewegungen und auch Online-Netzwerke haben stärkere Background-Checks eingeführt, deutlich rigorosere Interviewprozesse oder Rekrutierverfahren. Weil sie gemerkt haben, dass in den USA seit Charlottesville und im deutschsprachigen Raum vor allem wegen der «Reconquista Germanica» mehr Journalisten Interesse haben und auch die Behörden diese Netzwerke stärker beobachten. Aber ganz am Anfang war es wirklich erstaunlich leicht, in die einzelnen extremistischen Gruppen einzusteigen und rekrutiert zu werden.
Dabei haben Sie die rechte Strategie der «kontrollierten Provokation» von innen kennengelernt. Was verbirgt sich dahinter?
Die «kontrollierte Provokation» ist ein Mittel, mit dem Gegenbewegungen wie die Identitäre Bewegung oder die Alt-Right in den USA versuchen, Aufmerksamkeit für ihre Themen zu generieren, indem sie immer einen Schritt über das hinausgehen, was gesellschaftlich akzeptiert wird. Also so weit zu provozieren, dass die Medien darüber berichten und ihre Kampagnen viral gehen.
Das bezieht sich jetzt vor allem auf den Aspekt der Provokation. Wie muss man sich das Kontrollierte daran vorstellen – «kontrollierte Provokation» ist ja fast ein in sich widersprüchlicher Begriff.
Das stimmt, ja. Die Identitären wollen zum Beispiel nie die Gesetze komplett überschreiten, sondern bewegen sich im Grauzonen-Bereich. Oft können sie auch genau vorhersehen, wie die Medien reagieren. Diese sogenannten Breakthrough-Aktionen sind zum Beispiel: einen Terroranschlag im Herzen Wiens simulieren; der Maria-Theresia-Statue eine Burka aufsetzen; auf der Westminster-Brücke, wo die Attentate stattfanden, ein grosses Banner ausrollen; oder auf irgendwelche Gebäude klettern. Dabei geht es darum, mit viral gehenden Kampagnen die eigenen Themen in den Vordergrund zu pushen. Und letztlich das Overton-Fenster (das Spektrum gesellschaftlich akzeptierter Aussagen, Anm. d. Red) nach rechts zu verschieben, also den gesellschaftlichen und politischen Diskurs zu kontrollieren.
Was ist mit den grossen Plattformen: Übernehmen die inzwischen mehr Verantwortung?
Sie übernehmen leider immer genauso viel Verantwortung, wie die Politik und die Gesellschaft von ihnen verlangen. Es muss immer der Druck da sein, damit sie reagieren. Mittlerweile wurden einige Massnahmen eingeführt, dass zumindest explizit gewaltvolle und im deutschsprachigen Raum auch Inhalte mit Hate-Speech entfernt werden. Das gilt aber nicht für andere, ultralibertäre Plattformen, die zum Beispiel von dem neuen Anti-Hassrede-Gesetz in Deutschland nicht erfasst werden.
Dem «Netzwerkdurchsetzungsgesetz».
Genau. Diese ultralibertären und extremistischen Plattformen werden nicht erfasst von dem Gesetz, das nämlich nur Plattformen mit über zwei Millionen aktiven Nutzern umfasst. Deswegen gibt es in kleineren Foren weiterhin Gewaltaufrufe, die sie auch nicht runternehmen. Da müsste man wirklich regulieren und politische Massnahmen ergreifen.
Heisst das, der Extremismus hat sich tendenziell hin zu kleineren Plattformen verschoben?
Zum einen gab es eine Verschiebung, viele der Extremisten sind abgewandert. Wir haben eine Art Online-Migration gesehen zu alternativen Tech-Plattformen, die teilweise auch von Extremisten selbst gebaut werden. Und die bis zum Christchurch-Attentat kaum Aufmerksamkeit erhalten haben, weder von den Behörden noch von der Politik. Hier muss dringend etwas passieren, damit die gewaltvollen Inhalte entfernt werden. Zum anderen gehen die Extremisten strategisch vor: Sie vermeiden bestimmte Begriffe oder arbeiten mit rassistischen Bildern, die von den textbasierten Identifikationsmechanismen nicht erfasst werden und somit weiterhin im Netz bleiben, auch auf den grossen Plattformen.
Wie müsste die Politik reagieren?
Zunächst viel weiter unten ansetzen: Im Moment wird nur an den Inhalten angesetzt, aber eigentlich müsste man beim Aufbau, sogar beim Geschäftsmodell ansetzen.
Es braucht Algorithmen-Gesetze?
Zum Beispiel. Gesetze, die verhindern, dass das Spielfeld so sehr zugunsten der Extremisten ausfällt. Man muss die grossen wie die kleineren Plattformen regulieren. Von sich aus werden sie keine Massnahmen ergreifen.
Können Sie das noch einmal näher beschreiben: Inwiefern privilegieren die Algorithmen die extremistischen Inhalte?
Algorithmen funktionieren so, dass die Menschen, die am meisten Zeit auf den Plattformen verbringen, diese Algorithmen auch am meisten trainieren. Dadurch ist es leider so, dass tendenziell Verschwörungstheoretiker, Menschen mit Suchtverhalten, Menschen, die sich radikale Inhalte ansehen, die Empfehlungsmechanismen zum Beispiel von Youtube besonders stark beeinflussen. Wenn man sich dort einen neutralen Account erstellt, kann es passieren, dass man sich innerhalb von 24 Stunden in einer extremen Echokammer befindet, nur weil man zum Beispiel auf ein politisches Video geklickt hat. Es muss noch nicht mal ein Trump-Video sein. Der Mechanismus ist auch bei anderen Themen zu beobachten: Wenn man mit einem Jogging-Video beginnt, endet man sehr oft im Extremsport; wenn man mit vegetarischen Kochrezepten beginnt, kann es sein, dass man bei militanten Tierrechtsorganisationen landet.
Wie unterscheiden sich rechtsextreme und dschihadistische Rekrutierung?
Rechtsextremisten arbeiten viel subtiler mit Elementen wie Satire, Witzen, politisch inkorrekten Darstellungen. Sie haben oft eine viel «gamifiziertere», spielerische Art und Weise. Deswegen sind sie auch oft so erfolgreich in den Gamer-Subkulturen im Netz. Die Islamisten arbeiten meist am Anfang schon sehr stark mit Ideologie. Wobei: In der IS-Hacking-Gruppe, in der ich war, haben sie auch Scherze innerhalb der Gruppe gemacht. Das war eine Art schwarzer Humor.
Finden diese Subkulturen im sogenannten Dark Web statt oder sind das geschlossene Communitys im ganz normalen Internet?
Es sind geschlossene, teilweise auch eher lose Netzwerke innerhalb des Surface-Web, also im sichtbaren Netz. Manche der Plattformen sind nicht im Google-Index gelistet, die würden in die Kategorie Deep Web fallen, aber nicht Dark Web. Man braucht also keinen speziellen Tor-Bausatz, um da hineinzukommen.
Wenn man Ihnen zuhört oder Ihr Buch liest, hat man den Eindruck: Es sind keine unüberwindbaren Hürden, Einblick in diese Netzwerke zu bekommen, und es ist auch nicht vollkommen unverständlich, wie dort die Rekrutierung und Radikalisierung verlaufen. Warum tun sich die Sicherheitsbehörden trotzdem so schwer?
Sicherheitsbehörden haben sehr lange die Gefahr unterschätzt, vor allem die von rechts ausgehende Gefahr. Ich habe Gespräche mit unterschiedlichsten Sicherheitsbehörden – ich will jetzt keine Namen nennen – in verschiedenen geografischen Regionen geführt. Und dabei gemerkt, dass bis vor kurzem sehr wenig Bewusstsein da war, etwa für die Foren, wo sich auch der Christchurch-Attentäter und die letzten Attentäter in den USA radikalisiert haben, also zum Beispiel «8chan». Diese alternativen Plattformen standen wenig unter Beobachtung. Und man hat, wahrscheinlich zum Teil auch aufgrund der Meme-Kultur, die Inhalte dieser Propaganda nicht ernst genug genommen.
Beobachten Sie eine Veränderung seit Christchurch oder seit dem Mord an Walter Lübcke?
Es gibt immer solche Wendepunkte, und dann gibt es mehr Investitionen, mehr Fokus auf Rechtsextremismus. Aber das geschieht immer reaktiv. Mir fehlt, dass auch proaktiv geschaut wird: Was könnten die nächsten technologischen Entwicklungen sein, die sich dann Extremisten wieder zunutze machen? Christchurch hat zu verstärkten Forschungen in extremistischen Kanälen geführt. Der Fall Lübcke war in Deutschland ein ähnlicher Wendepunkt – weniger auf technologischer Ebene, aber insgesamt für das Bewusstsein beim Thema Rechtsextremismus. In Grossbritannien gab es den Fall Jo Cox, die britische Labour-Abgeordnete, die umgebracht wurde während der Kampagnen vor dem Brexit. Da war die Stimmung schon so hasserfüllt, dass man gemerkt hat, was das bewirken kann und wie das zusammenhängt mit tatsächlichen Gewaltanschlägen.
Das hiesse zumindest, dass solche politisch motivierten Morde nicht ohne Konsequenzen bleiben. Findet tatsächlich ein Umdenken statt?
Das auf jeden Fall. Man würde sich wünschen, dass es nicht so viele Opfer fordert und dass das Bewusstsein schon vorher da ist. Gerade bei Christchurch gab es schon wirklich viele, viele Warnungen aus der Extremismusforschung, wo wir seit Jahren davor warnen, dass diese Subkulturen im Netz und Foren wie «8chan» eine riesige Gefahr darstellen. Und dass es nur eine Frage der Zeit ist, bis sich einzelne Individuen auch auf die Strasse trauen oder ein Attentat durchführen.
Noch mal zu Ihnen selbst. Was macht es mit einem, wenn man über Monate hinweg immer wieder eine falsche Identität annehmen muss – noch dazu eine, die den eigenen Werten diametral entgegensteht?
Ich habe natürlich nicht Vollzeit diese Rollen eingenommen. In meinem Job als Wissenschaftlerin bin ich eher von der anderen Seite gekommen und habe diese Bewegungen auf abstrakter Ebene analysiert. So hatte ich den Blick von oben, was mir geholfen hat, mich vom Ganzen immer wieder zu distanzieren. Das war enorm wichtig, weil die Begegnungen und die Gespräche offline und online dazu geführt haben, dass ich teilweise auch starke Empathie hatte. Vor allem mit jüngeren Mitgliedern, die sich sehr schnell radikalisierten und vielleicht gar nicht genau wussten, worauf sie sich einlassen. Zu sehen, wie stark dieses menschliche Element auch bei den sich Radikalisierenden noch war, hat mir auch wieder Hoffnung gegeben, weil man bei diesem menschlichen Element ansetzen kann in der Deradikalisierung und in der Prävention. Aber es war teilweise auch verwirrend, und ich musste mich dann auch immer wieder ein paar Tage auf Social-Media-Detox begeben.
Gab es auch Situationen des Erschreckens, weil Ihnen die Empathie schon zu weit zu gehen schien?
Ja, absolut. Nach dem Attentat in Christchurch habe ich mich zwei Wochen krankschreiben lassen, weil mich das noch mal auf einer anderen Ebene schockiert hat. Ich habe dieses sogenannte Manifest des Attentäters gelesen und so viel wiedergefunden von den sprachlichen Elementen, den Inhalten, die ich davor Tausende Male von Menschen gehört hatte, mit denen ich in direktem Kontakt gestanden bin. Und eigentlich war es dann ja komplett arbiträr, dass es nun dieser Attentäter war und nicht einer von allen anderen Nutzern, die mir im Laufe der Zeit begegnet sind. Dass das alles so nahe an den Online-Foren war, in denen ich so viel Zeit verbracht hatte, das fand ich sehr schockierend. Dass es sich dann in dieser schrecklichen Tat manifestiert hat.
Sie haben wegen Ihrer Recherchen auch Mord- und Vergewaltigungsdrohungen erhalten. Wie wirkt sich das auf Ihr künftiges Arbeiten aus?
Ich habe natürlich Verantwortung auch für meine Kollegen, für meine Freunde und meine Familie. Und es ist klar, dass es belastend ist. Bisher konnte ich noch damit umgehen. Ich denke aber, das ist nichts, was ich längerfristig machen will. «Undercover» hat natürlich ein Ablaufdatum, weil irgendwann meine Identität zu bekannt ist, vor allem offline. Aber ich will das auch gar nicht mehr. Vor allem wenn ich eine eigene Familie habe oder auch für Kinder Verantwortung trage, dann würde ich das auf keinen Fall mehr riskieren wollen.
Wie bringen Sie Ihre Expertise in die Zukunft ein? Nach all dem, was Sie an Erfahrung gesammelt haben, müssten Sie zum Beispiel für Verfassungsschutzorgane eine begehrte Mitarbeiterin sein.
Ich arbeite natürlich mit Sicherheitsbehörden und Regierungen zusammen. Auch aufseiten der Tech-Firmen versuche ich beratend auf die zukünftige Netzpolitik einzuwirken. Man muss mit den unterschiedlichen Stakeholdern reden, auch wenn die Ratschläge nicht immer angenommen werden. Es ist mir aber auch ein Anliegen, zivile Organisationen und Individuen bei ihrem Umgang mit Problemen im Netz zu stärken und zum Beispiel digitale Zivilcourage zu fördern. Es gibt auch im deutschsprachigen Raum einige gute Organisationen, die das schon machen.
Sie sprechen von Regierungen im Plural. Es ist also eine Tätigkeit für mehrere nationale Regierungen?
Nationale Regierungen und internationale Organisationen. Ich würde mir wünschen, dass es noch viel mehr internationale Kooperation auf allen Ebenen gibt, weil das Problem ein transnationales ist. Extremisten sind gut darin, über Grenzen hinausgehend zu kooperieren und zu kommunizieren. Und man sieht an den Chatgruppen, wie international sie sind und teilweise auch multilingual kommunizieren. Deswegen kann eine Antwort darauf auch nicht allein auf nationaler Ebene sinnvoll sein.
Julia Ebner: «Radikalisierungsmaschinen. Wie Extremisten die neuen Technologien nutzen und uns manipulieren». Suhrkamp Nova, Berlin 2019. 334 Seiten, ca. 26 Franken. Der Verlag bietet eine Leseprobe.