Andrew Rae

Wurden Sie heute schon desinformiert?

Wie der Kampf gegen Fake News, Lügen und Fehl­information zur lukrativen Industrie geworden ist – und wer davon profitiert.

Von Joseph Bernstein (Text) und Bernhard Schmid (Übersetzung), 30.10.2021

Am Anfang waren da ABC, NBC und CBS, die grossen drei amerikanischen Fernseh­stationen. Sie waren alles, was da war, und sie waren gut. Der Homo americanus kam Mitte des vergangenen Jahr­hunderts nach acht Stunden Arbeit nach Hause, er schaltete den Fernseher ein, dann wusste er, wo er stand: in Bezug auf seine Frau, seine Kinder, seine Nachbarn, seine Stadt, sein Land und seine Welt im Allgemeinen. Und das war gut. Oder er schlug jeden Morgen zum Kaffee das Lokal­blatt auf, sicher in der Gewissheit, damit seine staats­bürgerliche Pflicht zu tun, und darin, dass es ihm landauf und landab alle recht­schaffenen Bürger gleichtun würden.

Auf Radio­frequenzen, die unser Homo americanus nicht ansteuern würde, geiferten ultra­rechte Prediger gegen die rote Gefahr. In Zeitschriften und Büchern, die er niemals lesen würde, sorgten sich Eliten wortreich über soziale Verwerfungen, die das Fernsehen auslösen würde. Und über Menschen, die nicht aussahen und lebten wie er, verloren sein Fernsehen und seine Zeitung so gut wie kein Wort.

Unser Homo americanus lebte in einem Garten Eden, nicht etwa einer Unverdorbenheit wegen, sondern weil es ihm nie in den Sinn gekommen wäre, sich andere Verhältnisse auch nur vorzustellen. Er glaubte seinen Informationen. Und auch das war gut.

Heute sind wir vom Glauben abgefallen.

Wann immer sich eine Amerikanerin bei Facebook, Youtube oder Twitter einloggt, stösst sie, so schnell ihre Finger nur scrollen können, auf die toxischen Neben­produkte der Moderne. Auf Hassrede, ausländische Einmischung und Trolle. Auf Lügen: über die Besucher­zahl bei der Vereidigung des Präsidenten, über die Ursprünge von Pandemien und über die Ergebnisse von Wahlen.

Unsere heutige Amerikanerin blickt hinaus auf ihre Mitbürger und sieht sie, wie Küsten­vögel während einer Ölpest, kontaminiert – «Desinformation» und «Fehl­informationen», wohin sie sieht. Nicht dass sie diese Begriffe wirklich definieren könnte, und doch hat sie immer mehr das Gefühl, dass sie die Welt prägen – die Online-Welt und zunehmend auch die Offline-Welt.

Jeder stöbert in dieser Einöde nach korrumpierten Inhalten, nach Content-Häppchen, und es ist unmöglich, genau zu wissen, was in welchem Zustand und in welcher Reihenfolge zueinander­gefunden hat. Und doch ist unsere Amerikanerin davon überzeugt, dass all das, was ihre Mitbürger lesen und schauen, schlecht – sprich: falsch – sein muss. Die Hälfte aller Amerikaner hält nach einer Erhebung des Pew-Instituts von 2019 «erfundene News/Informationen» heutzutage für ein «sehr grosses Problem in unserem Land» – etwa auf einer Ebene mit dem «politischen System der USA», der «Kluft zwischen Arm und Reich» und der «Gewalt­kriminalität».

Diese Flut von Desinformation, sie scheint unserer Amerikanerin so neu zu sein und ihrer Neuheit wegen so isolierbar – und ihrer Isolierbarkeit wegen so reparabel.

Das Ganze hat, so viel weiss sie mit Sicherheit, etwas mit Algorithmen zu tun.

Big Disinfo

Was machen mit all dem schlechten Content?

Im März dieses Jahres gab das Aspen Institute seine Absicht bekannt, eine vollkommen unparteiische «Commission on Information Disorder» einzuberufen. Unter dem Co-Vorsitz der Journalistin Katie Couric soll die Kommission «Empfehlungen aussprechen, wie das Land auf diese moderne Glaubens­krise gegenüber Schlüssel­institutionen reagieren kann».

Zu den fünfzehn Kommissions­mitgliedern gehören unter anderen: Yasmin Green, Direktorin für Forschung und Entwicklung bei Jigsaw, einem Google-eigenen Tech-Unternehmen, das sich unter anderem der «Erforschung von Bedrohungen für offene Gesellschaften» verschrieben hat; Garri Kasparow, der Schach­meister und Kreml-Kritiker; Alex Stamos, ehemals Sicherheits­chef bei Facebook und heute Direktor des Internet Observatory der Uni Stanford; Kathryn Murdoch, Rupert Murdochs entfremdete Schwieger­tochter, sowie Prinz Harry.

Die Kommission hat den Auftrag, einen Weg zu finden, «wie Staat, Privat­wirtschaft und Bürger­gesellschaft gemeinsam unzufriedene Bevölkerungs­gruppen ansprechen könnten, die den Glauben an eine evidenz­basierte Realität verloren haben». Glaube ist bekanntlich eine unabdingbare Voraus­setzung für evidenzbasierte Realität.

Die Kommission ist der jüngste Zuwachs auf einem neuen Feld der Wissens­produktion, das während der Trump-Jahre an der Schnitt­stelle zwischen Medien, akademischer Welt und politischer Forschung aufgetaucht ist: big disinfo. Als eine Art Umwelt­schutz­behörde für Inhalte setzt sich die Kommission zum Ziel, die Verbreitung verschiedener Arten von «Toxizität» auf Social-Media-Plattformen ebenso aufzudecken wie die unbeholfenen, unehrlichen und halbherzigen Versuche der Plattform­betreiberinnen, etwas dagegen zu tun.

Als umwelt­technisches Säuberungs­projekt unterstellt big disinfo, dass der Konsum von schlechtem «Content» realen Schaden anrichten kann. So wie, sagen wir mal, Rauchen Krebs verursacht, müssen diesem Schädigungs­modell zufolge schlechte – sprich: falsche – Informationen zu Veränderungen in der Über­zeugung oder im Verhalten führen, die dann irgendwie ebenfalls schlecht sind.

Warum sonst wäre es von Belang, was Menschen lesen und sehen?

Big disinfo fand schnell tatkräftige Unter­stützung in den höchsten Sphären des politischen Zentrums Amerikas, das seit den Wahlen von 2016 praktisch ununterbrochen vor einer existenziellen Content-Krise warnt. Jüngstes Beispiel: Im Mai sagte Hillary Clinton dem ehemaligen Chef der britischen Konservativen, Lord Hague, man müsse «die Tech-Unternehmen zur Rechenschaft ziehen für ihre Rolle bei der Unter­grabung des Informations­ökosystems, das für das Funktionieren jeder Demokratie unabdingbar ist».

Durchaus überraschend: Big Tech ist damit einverstanden. Im Vergleich zu anderen, buchstäblich eher toxischen Konzernen räumt der Tech-Sektor seine Rolle bei der Verschmutzung des glasklaren Flusses amerikanischer Realität ganz freimütig ein.

Der «Techlash» nach Trump

Noch vor fünf Jahren hatte es Facebook-Gründer Mark Zuckerberg für «eine ziemlich verrückte Idee» gehalten, dass falscher Content auf seiner Website genügend Wählerinnen dazu gebracht haben sollte, bei der Wahl 2016 das Zünglein an der Waage zu spielen. «Wähler treffen ihre Entscheidungen aufgrund ihrer Lebens­erfahrung», sagte er damals. «Es zeugt von einem erheblichen Mangel an Empathie zu behaupten, der einzige Grund, aus dem jemand so oder so gewählt haben sollte, seien Fake News gewesen.» Etwas nachdenklicher geworden, entschuldigte er sich ein Jahr später – und versprach, seinen Teil zu tun, um Leuten, die «Falsch­informationen verbreiten», einen Strich durch die Rechnung zu machen.

Weiteres Leugnen wäre ohnehin kaum möglich gewesen, ganz besonders für Zuckerberg. Dafür sorgte der sogenannte techlash, eine Phase besonders brutaler Medien­bericht­erstattung und politischen Drucks als Reaktion auf den Brexit und Trumps Sieg bei den Wahlen. Allein schon Facebooks Geschäfts­modell macht jedes Leugnen zwecklos. Schliesslich profitiert Zuckerbergs Unter­nehmen davon, seine Werbe­kundschaft zu überzeugen, dass man in der Lage sei, seine Nutzer zu standardisieren, zu vermessen und für kommerzielle Ausbeutung anzubieten. Wie sollte er da also gleichzeitig behaupten, dass die Leute nicht durch Content beeinflussbar seien?

Ironischerweise teilten sich die grossen Social-Media-Plattformen mit ihren schärfsten Kritikerinnen im Bereich der Desinformation eine gemeinsame Überzeugung: dass Social-Media-Plattformen eine einzigartige Macht haben, die Nutzer auf tiefgreifende und messbare Weise zu beeinflussen. Während der letzten fünf Jahre haben diese Kritiker dazu beigetragen, den Mythos des Silicon Valley als Hort basis­demokratischen Fortschritts zu zerstören – nur um gleichzeitig dessen Image als ultra­rationale Speer­spitze einer konsum­kapitalistischen Zukunft zu verstärken.

Seht her, da sind sie, sagen sowohl die Platt­formen als auch ihre laut­stärksten Kritikerinnen: Hunderte Millionen Amerikaner, fein säuberlich sortiert, die nur darauf warten, aktiviert und manipuliert zu werden.

Sie möchten einen bestimmten Output aus dieser Masse, sagen wir, einen Aufstand gegen die Elite oder eine Kultur von Impf­skeptikerinnen? Dafür braucht es nur den richtigen Input. Oder Sie möchten die «Vertrauens­krise bei zentralen Institutionen» oder den «Verlust der evidenz­basierten Realität» lösen? Schrauben Sie am Content.

Alles eine Frage des Algorithmus.

Geburt der politischen Massen­werbung

Vor der Präsidentschafts­wahl des Jahres 1952 machte sich eine Gruppe republikanischer Spender Sorgen über Dwight D. Eisenhowers hölzernes Image. Man bat die Werbe­industrie an der Madison Avenue in New York, genauer gesagt die Firma Ted Bates, eine Reihe von Werbe­spots für ein aufregendes neues Gerät zu kreieren, das sich plötzlich in Millionen amerikanischer Haushalte fand.

In «Eisenhower antwortet Amerika», der ersten Serie von politischen Spots in der Geschichte des Fernsehens, gab ein angestrengt grinsender Ike prägnante Antworten auf Fragen zu Steuern, Korea­krieg oder Staats­schulden. Die Spots markierten den Beginn des Massen­marketings in der amerikanischen Politik. Ausserdem führten sie die Werbe­logik in die politische Vorstellungs­welt der Amerikanerinnen ein: den Gedanken, dass die richtige Kombination von Worten und Bildern, im richtigen Format präsentiert, die Leute berechenbar dazu bringen könne, entweder zu handeln oder nicht.

Diese mechanistische Vorstellung vom Menschen traf auch auf Skepsis. So entsprachen etwa Hannah Arendt zufolge «die Lehren von den unbegrenzten Möglichkeiten menschlicher Manipulierbarkeit, die seit geraumer Zeit auf dem Markt der gewöhnlichen und gelehrten Meinungen feil­gehalten werden», eher der «Realität und den Wunsch­­träumen der Werbe-Fachleute». Ihrer Argumentation zufolge hätte Eisenhower, der damals 442 von 531 Wahlmänner­stimmen auf sich vereinen konnte, die Wahl auch gewonnen, ohne auch nur einen Cent für Fernseh­spots auszugeben.

Was es brauchte, um bei der Werbe­kundschaft Zweifel an der Wirksamkeit von Werbung zu zerstreuen, war ein empirischer Beweis – oder wenigstens der Anschein eines solchen. Um diesen wissenschaftlichen Charakter zu gewähr­leisten, versuche die moderne politische Über­zeugungs­kunst zunehmend, «die Anwendung zu kontrollieren, die Resultate zu messen und die Auswirkungen zu evaluieren», schrieb der Soziologe Jacques Ellul 1962 in seinem bahn­brechenden Werk zur Propaganda­­forschung. Die Kundschaft möchte davon überzeugt werden, dass man die Ziel­gruppe überzeugt hat.

Allmachts­fantasien

Zum Glück für den aufstrebenden Propagandisten des Kalten Krieges hatte die amerikanische Werbe­branche ihren Pitch aufpoliert. Sie hatte in der ersten Hälfte des Jahr­hunderts versucht, ihren Wert durch den Schulter­schluss mit den ebenfalls jungen Gebieten der wissenschaftlichen Betriebs­führung und der experimentellen Psychologie unter Beweis zu stellen.

Sich mit den Verhaltens­wissenschaftlern zusammen­zutun und deren Jargon zu übernehmen, habe es der Werbe­industrie erlaubt, der Überzeugungs­kunst einen «Anstrich wissenschaftlicher Gewissheit» zu verleihen, schreibt die Ökonomin Zoe Sherman:

Sie beteuerten, man bräuchte Ziel­gruppen, ähnlich den Beschäftigten an einem taylorisierten Arbeits­platz, nicht mit Vernunft zu überzeugen, vielmehr liesse sich ihnen das vom Verkäufer gewünschte Konsum­verhalten durch ständige Wieder­holung antrainieren.

Aus: Zoe Sherman, «Modern Advertising and the Market for Audience Attention».

Die profitable Beziehung zwischen der Werbe­industrie und den weichen Wissenschaften nahm 1957 eine finstere Färbung an, als der Journalist Vance Packard «The Hidden Persuaders» («Die geheimen Verführer») heraus­brachte: einen Enthüllungs­bericht über die Motivations­forschung, damals der letzte Schrei in der Zusammen­arbeit zwischen Werbe­branche an der Madison Avenue und der Forschungs­psychologie.

Das alarmierende Bild, das Packards Bestseller für die breite Öffentlichkeit zeichnete – Werbe­leute, die mit einer ruchlosen Mixtur aus Pawlow und Freud die Amerikanerin zum Kauf von Zahnpasta manipulierten –, hat sich bis heute gehalten. Die Vorstellung von der Manipulierbarkeit der Öffentlichkeit ist, so Arendt, ein integraler Teil des Produkts. Werbung zielt zwar auf Konsumenten ab, verkauft wird sie aber an die Unternehmen.

Packards Bericht basierte auf den Aussagen von Motivations­forschern. Zu ihren eigenen, kaum verborgenen Motivationen gehörte auch der Wunsch, als Hellseher und Visionäre dazustehen. In einem hinteren Kapitel räumt Packard selbst ein:

Aus dem Bereich der Sozial­wissenschaften kam von anderen Seiten der Hinweis, dass manche Motiv­forscher zuweilen die Neigung hätten, mehr zu verkaufen als sie haben – sozusagen die Ausbeuter auszubeuten. Der als Industrie­berater tätige Yale-Psychologe John Dollard rügte einige seiner Kollegen mit der Bemerkung, man nehme mit offenen Armen auf, wer den Werbung­treibenden «eine gemässigte Form von Allmacht» versprach.

Aus: Vance Packard, «Die geheimen Verführer. Der Griff nach dem Unbewussten in jedermann».

Der Mythos des Erfolgs

Die heutigen digitalen Werbe­leute umgibt eine gar noch grössere Aura von Omnipotenz als ihre Altvorderen in Print­medien und TV.

Dem Rechts­anwalt und einstigen Google-Mitarbeiter Tim Hwang zufolge wird dieses Image durch zwei «Glaubens­säulen» aufrecht­erhalten: dass digitale Werbung sowohl messbarer als auch effektiver sei als andere Formen der kommerziellen Über­zeugung. Das Kriterium, das die digitale Werbung strukturiert, ist «Aufmerksamkeit».

Jedoch, so schreibt Hwang in seinem Buch «Subprime Attention Crisis» (2020), sei «Aufmerksamkeit» schwierig zu standardisieren. Das macht sie zu einem Produkt von weit geringerem Wert, als ihre Käuferinnen zu denken scheinen. Hinter einer «Illusion grösserer Transparenz», die man den Anzeigen­käufern bietet, verbirgt sich ein «hochgradig undurchsichtiger», auf unsichtbare Weise automatisierter und segmentierter Markt­platz. Ein Markt­platz, den mit Facebook und Google zwei geradezu verbissene Geheimnis­krämer dominieren, die ein erhebliches Interesse daran haben, die begehrte Aufmerksamkeit so standardisiert und messbar wie möglich erscheinen zu lassen.

Darum ist Folgendes wohl der härteste Vorwurf, den man den Riesen aus dem Silicon Valley machen kann: nicht etwa dass ihre strahlende industrielle Informations­fabrik für toxischen Abfluss sorgt, sondern dass aus dieser Fabrik von Anfang an nichts wirklich Wertvolles kam.

Sieht man genauer hin, wird einem klar, dass ein Gutteil der im Internet feil­gebotenen Aufmerksamkeit vom Zufall bestimmt und nicht messbar ist, wenn nicht gar schlicht Betrug.

Obwohl sie einer enormen Masse von Online-Werbung ausgesetzt sei, sagt Hwang, reagiere die Öffentlichkeit darauf weitgehend apathisch. Mehr noch, Online-Werbung habe die Neigung, jene zum Klicken zu bringen, die längst treue Kundinnen seien. Es sei, wie Hwang es ausdrückt, «eine teure Art, Nutzer anzulocken, die ohnehin gekauft hätten». Korrelation für Kausalität zu halten, vermittelt Werbe­kundinnen eine masslos übertriebene Vorstellung von ihrer Fähigkeit, jemanden zu überzeugen.

Dasselbe gilt für die Verbraucher­daten, auf denen zielgerichtete Werbung fusst und die, wie die Forschung bewiesen hat, häufig schludrig und stark übertrieben sind. In jüngst freigegebenen Prozess­akten äusserten sich Facebook-Manager aus ebendiesem Grund abschätzig über ihre Fähigkeit, zielgruppen­gerecht zu werben. Ein internes E-Mail aus dem Unternehmen legt die Vermutung nahe, dass COO Sheryl Sandberg seit Jahren klar war, dass ihr Unternehmen bei Angaben über die Reichweite seiner Werbe­anzeigen übertrieb.

Warum also haben Anzeigen­käuferinnen einen solchen Narren an digitaler Werbung gefressen? In vielen Fällen, so Hwangs Schluss, liegt das daran, dass sie in Meetings – auf Powerpoint-Präsentationen und auf die Dashboards einer Web-Analytics-Software projiziert – gut aussieht: der «Stoff für gutes Theater». Anders gesagt, die digitale Werbe­branche baut ebenso auf unseren Glauben an ihre Überzeugungs­kraft wie auf Messungen ihres tatsächlichen Erfolgs. Das Ganze ist eine Frage von PR und einer guten Story. Und genau hier erweist sich das Narrativ der Desinformation als besonders nützlich.

Helden und Schurken

Die Mythen der digitalen Werbe­branche haben eine entscheidende Rolle dabei gespielt, wie die Kritiker von Big Tech die Geschichte der politischen Überredungs­kraft erzählen. Was schlicht daran liegt, dass bezahlter politischer Content die medien­wirksamste Art von digitaler Falsch- und Desinformation ist – und liberalen westlichen Beobachterinnen zufolge ist sie ja immerhin verantwortlich für den Brexit und Donald Trump.

Wie jede wirklich überzeugende Geschichte hat auch diese Helden und Schurkinnen. Die Helden im Desinformations­drama sind Leute wie Christopher Wylie, der Cambridge Analytica auffliegen liess und der Welt danach sein Buch verkaufte. Die Schurken sind Leute wie Brad Parscale, der extra­vagante Trump-Stratege, der sich mit seinen über zwei Metern, selbst wenn er gewollt hätte, vor der Presse nicht hätte verstecken können.

Parscale, der Regisseur von Trumps erfolg­reicher erster Präsidentschafts­kampagne, sah sich vier Jahre später zum Wahlkampf­­chef für Trumps zweiten Anlauf befördert. Da die Presse in dem Mann mit dem eigen­willigen Bart den Architekten von Trumps digitaler Vorherrschaft wähnte, stilisierte sie ihn zum Schwarzen Lord vom rechten Flügel, zum Desinformations­meister der dunklen Seite der Macht. Ein Porträt des «New Yorker» vom März 2020 pries Parscale als «den Strippen­zieher hinter Trumps Facebook-Monstrum», der «mithilfe der sozialen Medien 2016 die Wahl entschieden» hätte und nun «erpicht» war, «das zu wiederholen». Wie aus einem Tweet vom Mai 2020 hervorgeht, fügte sich Parscale mit der Begeisterung eines Wrestlers ins böse Spiel:

Seit fast drei Jahren arbeiten wir an einem Ungetüm von Kampagne (Death Star). Sie feuert aus allen Rohren. Daten, Digital, TV, Politisch, Stell­vertreter, Koalitionen etc. In einigen Tagen drücken wir zum ersten Mal auf FEUER.

Aus: Tweet von Brad Parscale vom 7. Mai 2020.

Kaum zwei Monate später degradierte Trump Parscale, bevor er ihm öffentlich vorwarf, keine Ahnung von den Offline-Elementen eines Wahl­kampfs zu haben. Wieder zwei Monate später nahm die Polizei den grossen Manipulator, aufgedunsen und mit nacktem Oberkörper, vor seinem herrschaftlichen Wohnsitz in Florida fest – er hatte bei einer Auseinander­setzung mit seiner Frau eine Pistole durchgeladen. Nach einem unfreiwilligen Aufenthalt in der Psychiatrie klinkte er sich mit der Begründung, der Stress sei ihm einfach zu viel geworden, aus der Kampagne aus. (Er betreibt inzwischen eine Berater­firma für digitale politische Kampagnen.)

Studien … Wissenschaft?!

Die Erzählung von der unheimlichen Gedanken­kontrolle durch digitale Medien hat eine Reihe von Forschungs­ergebnissen überdeckt, die den Auswirkungen von politischer Werbung und Desinformation skeptisch gegenüber­stehen.

So untersuchten Politik­wissenschaftler der Universität Princeton und der New York University 2019 mehrere tausend Facebook-Seiten und stellten fest, dass «Fake-News-Domains eher selten geteilt werden» – mehr als 90 Prozent der Userinnen enthielten sich dieser Praxis ganz. Eine 2017 von Stanford und NYU durch­geführte Studie kam zu folgendem Schluss:

Wäre ein Fake-News-Artikel in etwa so überzeugend wie eine TV-Kampagne, hätte die Menge an Fake News in unserer Daten­bank die Wähler­anteile um eine Grösse von einigen Hundertsteln eines Prozent­punkts verändert. Das bleibt weit hinter der Marge zurück, mit der Trump in den für das Ergebnis relevanten Staaten gewann.

Aus: Hunt Allcott, Matthew Gentzkow, «Social Media and Fake News in the 2016 Election».

Nicht dass derlei Studien gleich als schlagender Beweis gelten sollten. Bei all der Aufmerksamkeit in den Medien befindet sich das Studium der Desinformation noch in der Phase, in der ganz grund­sätzliche Fragen nicht abschliessend definiert sind; die Beschäftigung mit fundamentalen epistemologischen Problemen – wie beeinflusst Desinformation Überzeugungen? – hat noch nicht einmal begonnen.

Die bislang umfassendste Erhebung auf dem Gebiet, eine Metastudie zu einschlägigen wissenschaftlichen Arbeiten mit dem Titel «Social Media, Political Polarization, and Political Disinformation» von 2018 enthüllt himmel­schreiende Defizite. Die Autoren kreiden der Desinformations­forschung an, bis dato eine Erklärung für das Warum einer Meinungs­änderung schuldig geblieben zu sein. Darüber hinaus fehle es an robusten Daten über Verbreitung und Reichweite von Desinformation. Und nicht zuletzt monierte man die Weigerung, gemeinsame Definitionen fundamentaler Begriffe auf dem Gebiet zu erarbeiten, wie etwa zu Desinformation und Fehl­information, Online-Propaganda, hyper­parteiische Meldungen, Fake News, Clickbait, Gerüchte und Verschwörungs­theorien. Es scheint, als sprächen jeweils keine zwei Desinformations­forscherinnen von ein und demselben Phänomen.

Das wird wohl jeder bestätigen, der die gegenwärtige Medien­debatte um Online-Propaganda verfolgt. Sie verwendet die Begriffe Fehl- beziehungs­weise Falsch­informationen sowie Desinformation recht locker und austauschbar zur Bezeichnung einer breiten Palette von Content: von altbekannten Betrugs­maschen bis zu viralen Nachrichten; von nachrichten­dienstlichen Operationen bis hin zu Trolling.

Im Alltags­einsatz stehen die Begriffe meist einfach für «alles, was ich nicht so sehe». Versuche, den Begriff Desinformation breit genug zu definieren, um sie von jeder politischen Perspektive oder Ideologie zu befreien, führen in einen geradezu absurden Bereich der Abstraktion.

In der bereits zitierten Literatur­­studie heisst es dazu:

«Desinformation» bezeichnet eine weit gefasste Kategorie, die jene Arten von Informationen beschreibt, auf die man online stossen kann und die möglicherweise zu falschen Vorstellungen über den tatsächlichen Zustand der Welt führen können.

Aus: «Social Media, Political Polarization, and Political Disinformation».

Na, wenn das den Sachverhalt nicht präzisiert!

Was ist Desinformation?

Der Begriff an sich ist seit jeher so politisch wie kriegerisch. Als 1952 dezinformatsiya zum ersten Mal in der «Grossen Sowjetischen Enzyklopädie» auftauchte, war die Definition ideologisch geprägt: «Die Verbreitung (in Presse, Rundfunk etc.) von Falsch­meldungen in der Absicht, die öffentliche Meinung zu täuschen. Presse und Rundfunk im Kapitalismus machen ausgiebig Gebrauch von der dezinformatsiya.»

Noch heute formulieren Journalisten, Akademikerinnen und Politiker beim Thema Desinformation gern martialisch, so wenn etwa von einem «Krieg gegen die Wahrheit» oder «Lügen als Waffen» die Rede ist. Im aktuellen Kontext jedoch sind schlechte – will sagen: falsche – Informationen eine Waffe, die eher im gelegentlich gewalt­tätigen innen­politischen Konflikt eingesetzt wird als in einem kalten Krieg der Supermächte.

Die terminologische Unschärfe auf dem neuen Forschungs­gebiet führte beim landläufigen Verständnis von der Über­zeugungs­kraft falscher Informationen zu einer bedenklichen Abhängigkeit von anekdotischen Daten über «Kaninchen­bauten», die der neuen Technologie den Vorrang vor sozialen, kulturellen, wirtschaftlichen und politischen Kontexten einräumen. (Es klingt hier die Angst aus Zeiten des Kalten Krieges vor der Gehirn­wäsche an.)

Wie das Narrativ von der Online­werbung kranken diese Anekdoten um die Überzeugungs­kraft daran, dass sich Korrelation und Kausalität nicht so recht trennen lassen. Schaffen die sozialen Medien einen neuen Typus Mensch oder machen sie lange verborgene Typen für einen Teil der Öffentlichkeit sichtbar, der sie bisher nicht sah? Gerade Letzteres hat für die Medien wie für die Forschung peinliche Implikationen.

Ein «Realitätszar» solls richten

Ein gar noch unbequemeres Problem für die Desinformations­forschung ist aber die vermeintliche Objektivität von Medien­forscherinnen und Journalisten gegenüber dem Informations­ökosystem, dem sie selbst angehören. Es ist erstaunlich, dass man sich mit dem Problem zur selben Zeit zu beschäftigen begann, als man sich auch Fragen nach dem Schaden zu stellen begann, den berufliche Objektivitäts­­standards wie «Er sagt dies, sie sagt das» anrichten können.

Beides war so schmerzlich wie längst überfällig. Ebenso wie Journalismus, Forschung und jede andere Form der Wissens­bildung spiegelt auch die Beschäftigung mit der Desinformation sowohl Kultur und Ziele als auch die Über­zeugungen ihrer Schöpferinnen wider.

Werfen wir einen raschen Blick auf die Institutionen, die am häufigsten und mit nachhaltigster Wirkung über Desinformation publizieren: die Harvard University, die «New York Times», die Stanford University, das MIT, der Fernseh­sender NBC, das Atlantic Council, das Council on Foreign Relations etc. Dass ausgerechnet die renommiertesten Institutionen der vordigitalen Ära das grösste Interesse am Kampf gegen die Desinformation haben sollten, sagt so einiges darüber aus, was sie zu verlieren haben – oder was sie zurück­zugewinnen hoffen.

Wie brillant die einzelnen Desinformations­forscher und Reporterinnen auch sein mögen, das Wesen des Projekts bringt sie leider unweigerlich in die Defensive, wann immer es um mediale Darstellung, Objektivität, Image­bildung und die Gegen­stände der Bericht­erstattung geht. So gut und aufrichtig ihre Absichten auch immer sein mögen, auch sie haben keinen speziellen Zugang zur Matrix der Realität, stehen nicht ausserhalb der Dinge.

Ein Beispiel. Angesichts neuer Erkenntnisse und erneuter partei­übergreifender politischer Bemühungen, den Ursprüngen von Covid-19 auf die Spur zu kommen, hat Facebook in diesem Frühjahr verlauten lassen, es werde keine Beiträge mehr entfernen, in denen behauptet wird, das Corona­virus sei von Menschen gemacht oder gar bewusst fabriziert worden.

Zahlreiche aktive Desinformations­gegner, die die Social-Media-Unternehmen monate­lang aufgefordert hatten, derlei Behauptungen zu entfernen, weil es sich um Verschwörungs­theorien handle, schweigen mittler­weile betreten, nachdem auch Wissenschaftlerinnen einräumten, dass ein versehentliches Austreten aus einem Labor in Wuhan wenn auch unwahrscheinlich, so doch durchaus plausibel sei.

Dennoch beharrt big disinfo weiter darauf, die Lizenz zur Wissens­verbreitung wieder in die Hände einer Riege «objektiver» Hüter zu geben.

Im Februar berichtete die Tech-News-Site «Recode» über eine partei­übergreifende 65-Millionen-Dollar-Initiative mit dem Namen «Project for Good Information». Deren Gründerin Tara McGowan ist eine altgediente Aktivistin der Demokratischen Partei und CEO von Acronym, einer Mitte-Links-Non-Profit-Organisation für digitale Werbung und Wähler­mobilisierung, deren Arm zur Polit­finanzierung unter anderem von Regisseur Steven Spielberg, Linkedin-Co-Gründer Reid Hoffman und dem Risiko­kapital­geber Michael Moritz finanziert wird.

Obamas ehemaliger Wahlkampf­manager David Plouffe, gegenwärtig Stratege bei der Chan Zuckerberg Initiative, ist offizieller Berater bei Acronym. In einem Artikel der «New York Times» vom Februar wurde in aller Bescheidenheit die Einsetzung eines «Realitäts­zaren» vorgeschlagen, der «die Speer­spitze für die Reaktion der Bundes­regierung auf die Realitäts­krise» werden könnte.

Cui bono?

Die Vorstellung eines gottgleichen Wissenschaftlers, der im Namen der US-Regierung über die Medien wacht, ist fast hundert Jahre alt. Nach dem Ersten Weltkrieg versuchte eine entschieden progressive und reformistische Propaganda­forschung die Rolle mächtiger Interessen bei der Gestaltung von Nachrichten aufzudecken. Ende der 1930er-Jahre begann die Rockefeller Foundation die Vertreter einer neuen Disziplin namens Kommunikations­forschung zu fördern. Die Psychologen, Politik­wissenschaftler und Berater hinter dieser neuen Bewegung rühmten sich ihrer methodischen Raffinesse und ihrer absoluten politischen Neutralität. Sie boten Arendts «psychologische Prämisse von der Manipulierbarkeit des Menschen» Regierungs­beamten und Geschäfts­leuten an. Ähnlich wie es die ersten Fachleute für TV-Werbung taten. Sie stellten sich in den Dienst des Staates.

Dem Kommunikations­wissenschaftler Jack Bratich zufolge ist die gegenwärtige Anti-Desinformations-Industrie Teil eines «Restaurations­kriegs» der politischen Mitte Amerikas, die sich durch die wirtschaftlichen und politischen Krisen der letzten zwanzig Jahre in eine eher bescheidene Rolle gezwungen sieht. Die entpolitisierte Zivil­gesellschaft, so Bratich, wird «das Terrain für die Restauration quasi­amtlicher Verkünder der Wahrheit» wie, tja, Harvard, «New York Times» und des Council on Foreign Relations.

Bratichs Argumentation zufolge setzt das Establishment seine Methoden zur Diskreditierung von Informationen seiner geopolitischen Feinde jetzt gegen seine eigenen Bürgerinnen ein.

Die National Strategy for Countering Domestic Terrorism der Regierung von Präsident Joe Biden, übrigens die erste ihrer Art, verspricht «der nicht selten von Desinformation, Fehl­information und gefährlichen Verschwörungs­theorien online gespeisten Polarisierung» entgegen­zuwirken. Hier wird nicht nur vor Milizen auf dem rechten Flügel und vor Frauen hassenden Incels gewarnt, sondern auch vor Antikapitalistinnen, Umwelt­schützern und Tierrechts­aktivistinnen. Dies kommt im Übrigen zu einem Zeitpunkt, an dem allenthalben Regierungen mittels rasch aus dem Boden gestampfter Notstands­gesetze gegen «Fake News» und «Desinformation» Dissidenten und Reporterinnen schikanieren, wenn nicht gar inhaftieren.

Man muss jedoch Bratichs Narrativ nicht einmal unterschreiben, um zu verstehen, wie Tech-Unternehmen und bestimmte Medien­organisationen vom Weltbild der big disinfo profitieren. Die Content-Riesen – Facebook, Twitter, Google – versuchen seit Jahren, aus der Glaub­würdigkeit und Sach­kenntnis bestimmter journalistischer Formen Kapital zu schlagen, siehe hierzu ihre Initiativen für Factchecking und Medien­kompetenz.

In diesem Kontext ist das Desinformations­projekt nur eine inoffizielle Partnerschaft zwischen Big Tech, Medien­konzernen, Elite­universitäten und kapital­kräftigen Stiftungen. Kein Wunder, begann in den letzten Jahren die eine oder andere Journalistin zu klagen, ihr Job bestünde nur mehr aus Factchecking jener Plattformen, die ihrer Branche den Garaus machen.

Eine unheilige Allianz

Ironischerweise unterstützt diese Arbeit, insofern sie zu übertriebener Besorgnis über Desinformation führt, letztlich Facebooks eigenen Pitch. Was könnte für den Werbe­kunden attraktiver sein als eine Maschine, die jeden von allem zu überzeugen vermag? Von dieser Ansicht kann ein Unter­nehmen wie Facebook nur profitieren, das daraufhin noch mehr Fehl­informationen verbreitet, was zu noch mehr Besorgnis führt. Man nimmt traditions­reiche Medien­unternehmen mit prestige­trächtigen Marken als vertrauens­würdige Partner an Bord und überlässt ihnen die Entscheidung, wann der Verschmutzungs­grad im Informations­ökosystem (von dem man sich wie durch Zauber­hand selber abgekoppelt hat) in den roten Bereich geht.

Für die alten Medien­unternehmen ist dies ein Versuch, wieder relevant zu werden, eine Form der Selbst­erhaltung. Für die Tech-Plattformen ist es eine oberflächliche Strategie, tiefschürfenden Fragen zu entgehen.

Und mit welchem Ergebnis? Nun, letztes Jahr hat Facebook damit begonnen, Trumps irre­führende und desinformative Posts mit entsprechenden Hinweisen zu versehen. «BuzzFeed News» berichtete im November, dass derlei Hinweise die Rate, mit denen die Posts geteilt wurden, um gerade mal 8 Prozent reduzierten. Man hätte fast meinen können, dass es der grossen Mehrheit derer, die Trumps Posts weiter­verbreiteten, egal war, dass Dritte seine Äusserungen als zweifelhaft markiert hatten. (Man fragt sich gar, ob für eine gewisse Sorte Mensch derlei warnende Hinweise nicht sogar einen Anreiz darstellen, sie mit anderen zu teilen.)

Facebook jedenfalls konnte sagen, man habe auf die Kritikerinnen gehört, und mehr noch, es konnte auf Zahlen verweisen, die darauf hindeuteten, dass man das Informations­ökosystem um 8 Prozent sauberer gemacht hatte. Und Facebooks Kritiker konnten die Hände in die Taschen stecken, schliesslich hatte man auf sie gehört.

Die Vorpropaganda

Als 2020 das Virus die Welt in Beschlag nahm, drängte sich eine neue erkenntnis­theoretische Metapher für Falsch­informationen auf. Sie waren jetzt nicht länger exogene Toxine, sondern ansteckende Organismen, die einen bei Kontakt so unweigerlich überzeugten, wie einen der Kontakt mit dem Virus erkranken liess. In einer perfekten Inversion der Sprache des Hypes um digitale Medien war «viral gehen» nun plötzlich etwas Schlechtes.

Im Oktober 2020 nannte Anne Applebaum in «The Atlantic» Trump einen «Superspreader von Falsch­­informationen». Eine Studie der Cornell University hatte etwas früher im selben Jahr festgestellt, dass in 38 Prozent der auf Englisch geführten «Gespräche über Desinformation» in Bezug auf Covid-19 Trumps Name fiel. Laut «New York Times» machte ihn das zum «stärksten Motor der ‹Infodemie›».

Dieses Ergebnis passte zu jenen früherer Studien, laut denen Desinformation in der Regel der Unter­stützung politischer und Medien­eliten bedürfe, um weite Verbreitung zu finden. Was wiederum heisst, dass die Überzeugungs­kraft von Information in sozialen Medien vom Kontext abhängt. Propaganda entsteht nicht aus dem Nichts, und sie funktioniert nicht immer auf ein und dieselbe Art. Der Soziologe Jacques Ellul sprach von der unabdingbaren Rolle eines Phänomens, das er als «Vorpropaganda» bezeichnete:

Direkter Propaganda, die auf Veränderung von Meinungen und Haltungen abzielt, müssen eine soziologisch geprägte, langsame, allgemeine, eine Stimmung, ein Klima, eine Atmosphäre erzeugende Propaganda und diese begünstigende Voreinstellungen vorausgehen. Fest­stellen lässt sich dann, dass keine unmittelbare Propaganda ihre Wirkung entfalten kann ohne eine Vorpropaganda, die sich ohne jede direkt wahrnehmbare Einwirkung damit begnügt, Ambivalenzen zu erzeugen, Vorurteile abzubauen und Bilder ohne offenkundige Absicht zu verbreiten.

Aus: Jacques Ellul, «Propaganda: Wie die öffentliche Meinung entsteht und geformt wird».

Diese Vorpropaganda liess sich auch als die Gesamtheit eines soziologischen, kulturellen, politischen und historischen Kontexts sehen. In den Vereinigten Staaten gehören zu diesem Kontext ein eher eigen­williger Wahl­prozess und ein Zwei­parteien­system, das zu einer asymmetrischen Polarisierung hin zu einem nativistischen, rhetorisch anti­elitären rechten Flügel geführt hat.

Ausserdem gehören dazu eine libertäre Sozial­ethik, ein «paranoider Stil», der «typisch amerikanische Amoklauf», zutiefst verantwortungs­lose nationale Fernseh- und Radio­sender, verschwindende Lokal­nachrichten, eine gewalt­verherrlichende Unterhaltungs­industrie, ein aufgeblähtes Militär, massive Einkommens­ungleichheit, eine von ebenso brutalem wie hartnäckigem Rassismus geprägte Geschichte, die wiederholte Zerschlagung aufkommenden Klassen­bewusstseins, ein gewohnheits­mässiger Hang zu Verschwörungs­theorien sowie die Motive des weltgeschichtlichen Nieder­gangs und der Erlösung.

Diese spezifische amerikanische Situation schuf spezifische Menschen­typen. Und zwar lange vor dem Aufstieg von Tech-Plattformen.

Wenn wir dieses Umfeld in seiner Gesamtheit betrachten – oder wenigstens so viel uns davon möglich ist –, dann sehen wir, dass es geradezu absurd unzulänglich sein muss, diese Plattformen als allein verantwortlich für traurige Extrem­situationen in den USA zu sehen. Das gilt auch für den Sturm auf das Kapitol am 6. Januar. Und doch überrascht es angesichts des technologischen Determinismus, der den Desinformations­diskurs beherrscht, nicht gross, dass die Anwälte einiger der Aufrührerinnen am Kapitol an einer Verteidigung arbeiten, die Social-Media-Unternehmen die Schuld für ihr Handeln gibt.

Es reagieren nur bestimmte Menschen­typen in bestimmten Umständen auf bestimmte Arten von Propaganda.

So berücksichtigt zum Beispiel die beste Bericht­erstattung über QAnon die Beliebtheit der Verschwörungs­bewegung bei weissen Evangelikalen. Die beste Bericht­erstattung über Impf- und Masken­skepsis berücksichtigt das bunte Mosaik an Erfahrungen, die hinter der Einstellung der Amerikanerinnen gegenüber dem Fach­wissen ihrer Gesundheits­behörden stehen.

Social-Media-Plattformen verfügen mitnichten über eine magische Überzeugungs­kraft; sie sind ein neuer und wichtiger Teil des Bildes, aber nicht das Ganze. Facebook ist, so sehr Mark Zuckerberg und Sheryl Sandberg uns das womöglich einreden wollen, nicht allmächtig.

Jedem, der Facebook in jüngster Zeit benutzt hat, dürfte das aufgefallen sein. Die Plattform ist voller hässlicher Memes und langweiliger Gruppen, ignoranter Argumente, sensations­haschender Clickbaits. Sie ist voller Produkte, die keiner will, und verkümmerter Features, die keinen mehr interessieren. Und gerade die Leute, die Facebooks negativen Einfluss für besonders alarmierend halten, sind auch jene, die sich darüber beschweren, was für ein lausiges Produkt Facebook doch sei.

Es drängt sich die Frage auf: Warum halten sich Desinformations­arbeiter für die Einzigen, denen aufgefallen ist, dass Facebook zum Himmel stinkt? Warum sollten wir davon ausgehen, dass sich der Rest der Welt von der Plattform hypnotisieren lässt? Warum haben wir die Silicon-Valley-Erzählung von unserer eigenen Manipulierbarkeit so willig geschluckt?

Dafür finden sich in den wissens­bildenden Berufen einige verständnis­volle Erklärungen struktureller Art. Sozial­wissenschaftlerinnen erhalten Subventionen für Forschungs­projekte, die in den Nachrichten landen könnten. Thinktanks wollen quantifizierbare politische Probleme. Journalisten zielen ebenso darauf ab, mächtige Heuchlerinnen blosszustellen, wie darauf, «Wirkung» zu haben. In der Tat sind die Tech-Plattformen derart unfähig und leicht zu erwischen, wenn sie gegen ihre eigenen Regeln hinsichtlich verbotener Informationen verstossen, dass eine ganze Generation ehrgeiziger Reporter auf eine unerschöpfliche Quelle von Heuchelei gestossen ist. Für die Politik schliesslich ist es viel einfacher, sich auf einen regulierbaren Algorithmus zu konzentrieren als auf festgefahrene gesellschaftliche Verhältnisse.

Das Establishment profitiert

Berufliche Anreize erklären jedoch nur bis zu einem gewissen Punkt, warum das Narrativ von der Desinformation gar so beherrschend geworden ist. Der Soziologe Ellul verwarf eine «geläufige Vorstellung von Propaganda», die «besagt, sie sei das Werk … von böswilligen Naturen, die blenden und verführen». Er verglich dieses grob vereinfachende Narrativ mit Studien der Jahrhundert­mitte über die Werbung, die den «Käufer … als Opfer und als Beute» darstellen. Es ist seiner Ansicht nach vielmehr so, dass Propaganda durch ein Miteinander von Propagandistin und Propagandiertem entsteht.

Ein Grund, die Prämisse des Silicon Valley zu übernehmen, wir könnten mechanistisch überzeugt werden, liegt darin, dass uns das davon abhält, zu sehr über die eigene Rolle nachzudenken, die wir dabei spielen, die Dinge zu übernehmen und zu glauben, die wir glauben wollen. Es verwandelt die grosse Frage nach dem Wesen der Demokratie im digitalen Zeitalter – Was ist, wenn die Menschen verrückte Dinge glauben und jeder das jetzt weiss? – in eine techno­kratische Verhandlung zwischen Tech-Unternehmen, Medien­riesen, Thinktanks und Universitäten.

Es gibt aber einen tiefer liegenden verwandten Grund, aus dem so viele Kritikerinnen an Big Tech derart schnell bereit sind, das technologistische Narrativ menschlicher Über­zeugbarkeit zu akzeptieren. Wie der Politologe Yaron Ezrahi bemerkt hat, verlässt sich die Öffentlichkeit auf wissenschaftliche und technologische Demonstrationen politischer Ursache und Wirkung, weil so etwas unseren Glauben an die Rationalität der demokratischen Regierungs­form aufrechterhält.

Es ist also tatsächlich möglich, dass das Establishment das Theater um die Überzeugungs­kraft der sozialen Medien dafür braucht, eine nach wie vor sinn­volle politische Welt aufzubauen, ebenso zur Erklärung von Brexit und Trump und warum wir den Glauben an die maroden Institutionen der westlichen Welt verloren haben.

Die Verwerfungen, zu denen es in der gesamten demokratischen Welt vor fünf Jahren kam, stellten die grund­legenden Annahmen so mancher Teilnehmer an der Debatte infrage: von Social-Media-Managerinnen, Wissenschaftlern, Journalistinnen, Leuten in Thinktanks und der Meinungs­forschung. Eine gemeinsame Ansicht zu den Überredungs­künsten der sozialen Medien liefert eine bequeme Erklärung dafür, wie so viele Leute sich mehr oder weniger zur selben Zeit so geirrt haben konnten.

Mehr noch als das schafft es eine Welt der Überzeugungs­kraft, die für das Kapital lesbar und damit nützlich ist – für Werbe­treibende, politische Berater, Medien­unternehmen und natürlich auch die Tech-Plattformen selbst. Es ist ein Modell von Ursache und Wirkung, bei dem die von einigen wenigen Konzernen verbreitete Information die absolute Macht hat, die Überzeugungen und Verhaltens­weisen der Bevölkerung zu rechtfertigen.

In gewisser Hinsicht spendet eine solche Welt auch Trost. Leicht zu erklären, leicht zu justieren und leicht zu verkaufen, ist sie ein würdiger Nachfolger für die konsolidierte Vision des amerikanischen Lebens, wie sie uns das Fern­sehen des 20. Jahr­hunderts beschert hat. Also keineswegs eine «verrückte Idee», wie Zuckerberg meinte. Schon gar nicht, wenn wir sie alle glauben.

Zum Autor

Joseph Bernstein ist Senior Reporter bei «BuzzFeed News» und Nieman Fellow des Jahres 2021. Dieser Beitrag erschien erstmals unter dem Titel «Bad News – Selling the Story of Disinformation» bei «Harper’s Magazine».