Wurden Sie heute schon desinformiert?
Wie der Kampf gegen Fake News, Lügen und Fehlinformation zur lukrativen Industrie geworden ist – und wer davon profitiert.
Von Joseph Bernstein (Text) und Bernhard Schmid (Übersetzung), 30.10.2021
Am Anfang waren da ABC, NBC und CBS, die grossen drei amerikanischen Fernsehstationen. Sie waren alles, was da war, und sie waren gut. Der Homo americanus kam Mitte des vergangenen Jahrhunderts nach acht Stunden Arbeit nach Hause, er schaltete den Fernseher ein, dann wusste er, wo er stand: in Bezug auf seine Frau, seine Kinder, seine Nachbarn, seine Stadt, sein Land und seine Welt im Allgemeinen. Und das war gut. Oder er schlug jeden Morgen zum Kaffee das Lokalblatt auf, sicher in der Gewissheit, damit seine staatsbürgerliche Pflicht zu tun, und darin, dass es ihm landauf und landab alle rechtschaffenen Bürger gleichtun würden.
Auf Radiofrequenzen, die unser Homo americanus nicht ansteuern würde, geiferten ultrarechte Prediger gegen die rote Gefahr. In Zeitschriften und Büchern, die er niemals lesen würde, sorgten sich Eliten wortreich über soziale Verwerfungen, die das Fernsehen auslösen würde. Und über Menschen, die nicht aussahen und lebten wie er, verloren sein Fernsehen und seine Zeitung so gut wie kein Wort.
Unser Homo americanus lebte in einem Garten Eden, nicht etwa einer Unverdorbenheit wegen, sondern weil es ihm nie in den Sinn gekommen wäre, sich andere Verhältnisse auch nur vorzustellen. Er glaubte seinen Informationen. Und auch das war gut.
Heute sind wir vom Glauben abgefallen.
Wann immer sich eine Amerikanerin bei Facebook, Youtube oder Twitter einloggt, stösst sie, so schnell ihre Finger nur scrollen können, auf die toxischen Nebenprodukte der Moderne. Auf Hassrede, ausländische Einmischung und Trolle. Auf Lügen: über die Besucherzahl bei der Vereidigung des Präsidenten, über die Ursprünge von Pandemien und über die Ergebnisse von Wahlen.
Unsere heutige Amerikanerin blickt hinaus auf ihre Mitbürger und sieht sie, wie Küstenvögel während einer Ölpest, kontaminiert – «Desinformation» und «Fehlinformationen», wohin sie sieht. Nicht dass sie diese Begriffe wirklich definieren könnte, und doch hat sie immer mehr das Gefühl, dass sie die Welt prägen – die Online-Welt und zunehmend auch die Offline-Welt.
Jeder stöbert in dieser Einöde nach korrumpierten Inhalten, nach Content-Häppchen, und es ist unmöglich, genau zu wissen, was in welchem Zustand und in welcher Reihenfolge zueinandergefunden hat. Und doch ist unsere Amerikanerin davon überzeugt, dass all das, was ihre Mitbürger lesen und schauen, schlecht – sprich: falsch – sein muss. Die Hälfte aller Amerikaner hält nach einer Erhebung des Pew-Instituts von 2019 «erfundene News/Informationen» heutzutage für ein «sehr grosses Problem in unserem Land» – etwa auf einer Ebene mit dem «politischen System der USA», der «Kluft zwischen Arm und Reich» und der «Gewaltkriminalität».
Diese Flut von Desinformation, sie scheint unserer Amerikanerin so neu zu sein und ihrer Neuheit wegen so isolierbar – und ihrer Isolierbarkeit wegen so reparabel.
Das Ganze hat, so viel weiss sie mit Sicherheit, etwas mit Algorithmen zu tun.
Big Disinfo
Was machen mit all dem schlechten Content?
Im März dieses Jahres gab das Aspen Institute seine Absicht bekannt, eine vollkommen unparteiische «Commission on Information Disorder» einzuberufen. Unter dem Co-Vorsitz der Journalistin Katie Couric soll die Kommission «Empfehlungen aussprechen, wie das Land auf diese moderne Glaubenskrise gegenüber Schlüsselinstitutionen reagieren kann».
Zu den fünfzehn Kommissionsmitgliedern gehören unter anderen: Yasmin Green, Direktorin für Forschung und Entwicklung bei Jigsaw, einem Google-eigenen Tech-Unternehmen, das sich unter anderem der «Erforschung von Bedrohungen für offene Gesellschaften» verschrieben hat; Garri Kasparow, der Schachmeister und Kreml-Kritiker; Alex Stamos, ehemals Sicherheitschef bei Facebook und heute Direktor des Internet Observatory der Uni Stanford; Kathryn Murdoch, Rupert Murdochs entfremdete Schwiegertochter, sowie Prinz Harry.
Die Kommission hat den Auftrag, einen Weg zu finden, «wie Staat, Privatwirtschaft und Bürgergesellschaft gemeinsam unzufriedene Bevölkerungsgruppen ansprechen könnten, die den Glauben an eine evidenzbasierte Realität verloren haben». Glaube ist bekanntlich eine unabdingbare Voraussetzung für evidenzbasierte Realität.
Die Kommission ist der jüngste Zuwachs auf einem neuen Feld der Wissensproduktion, das während der Trump-Jahre an der Schnittstelle zwischen Medien, akademischer Welt und politischer Forschung aufgetaucht ist: big disinfo. Als eine Art Umweltschutzbehörde für Inhalte setzt sich die Kommission zum Ziel, die Verbreitung verschiedener Arten von «Toxizität» auf Social-Media-Plattformen ebenso aufzudecken wie die unbeholfenen, unehrlichen und halbherzigen Versuche der Plattformbetreiberinnen, etwas dagegen zu tun.
Als umwelttechnisches Säuberungsprojekt unterstellt big disinfo, dass der Konsum von schlechtem «Content» realen Schaden anrichten kann. So wie, sagen wir mal, Rauchen Krebs verursacht, müssen diesem Schädigungsmodell zufolge schlechte – sprich: falsche – Informationen zu Veränderungen in der Überzeugung oder im Verhalten führen, die dann irgendwie ebenfalls schlecht sind.
Warum sonst wäre es von Belang, was Menschen lesen und sehen?
Big disinfo fand schnell tatkräftige Unterstützung in den höchsten Sphären des politischen Zentrums Amerikas, das seit den Wahlen von 2016 praktisch ununterbrochen vor einer existenziellen Content-Krise warnt. Jüngstes Beispiel: Im Mai sagte Hillary Clinton dem ehemaligen Chef der britischen Konservativen, Lord Hague, man müsse «die Tech-Unternehmen zur Rechenschaft ziehen für ihre Rolle bei der Untergrabung des Informationsökosystems, das für das Funktionieren jeder Demokratie unabdingbar ist».
Durchaus überraschend: Big Tech ist damit einverstanden. Im Vergleich zu anderen, buchstäblich eher toxischen Konzernen räumt der Tech-Sektor seine Rolle bei der Verschmutzung des glasklaren Flusses amerikanischer Realität ganz freimütig ein.
Der «Techlash» nach Trump
Noch vor fünf Jahren hatte es Facebook-Gründer Mark Zuckerberg für «eine ziemlich verrückte Idee» gehalten, dass falscher Content auf seiner Website genügend Wählerinnen dazu gebracht haben sollte, bei der Wahl 2016 das Zünglein an der Waage zu spielen. «Wähler treffen ihre Entscheidungen aufgrund ihrer Lebenserfahrung», sagte er damals. «Es zeugt von einem erheblichen Mangel an Empathie zu behaupten, der einzige Grund, aus dem jemand so oder so gewählt haben sollte, seien Fake News gewesen.» Etwas nachdenklicher geworden, entschuldigte er sich ein Jahr später – und versprach, seinen Teil zu tun, um Leuten, die «Falschinformationen verbreiten», einen Strich durch die Rechnung zu machen.
Weiteres Leugnen wäre ohnehin kaum möglich gewesen, ganz besonders für Zuckerberg. Dafür sorgte der sogenannte techlash, eine Phase besonders brutaler Medienberichterstattung und politischen Drucks als Reaktion auf den Brexit und Trumps Sieg bei den Wahlen. Allein schon Facebooks Geschäftsmodell macht jedes Leugnen zwecklos. Schliesslich profitiert Zuckerbergs Unternehmen davon, seine Werbekundschaft zu überzeugen, dass man in der Lage sei, seine Nutzer zu standardisieren, zu vermessen und für kommerzielle Ausbeutung anzubieten. Wie sollte er da also gleichzeitig behaupten, dass die Leute nicht durch Content beeinflussbar seien?
Ironischerweise teilten sich die grossen Social-Media-Plattformen mit ihren schärfsten Kritikerinnen im Bereich der Desinformation eine gemeinsame Überzeugung: dass Social-Media-Plattformen eine einzigartige Macht haben, die Nutzer auf tiefgreifende und messbare Weise zu beeinflussen. Während der letzten fünf Jahre haben diese Kritiker dazu beigetragen, den Mythos des Silicon Valley als Hort basisdemokratischen Fortschritts zu zerstören – nur um gleichzeitig dessen Image als ultrarationale Speerspitze einer konsumkapitalistischen Zukunft zu verstärken.
Seht her, da sind sie, sagen sowohl die Plattformen als auch ihre lautstärksten Kritikerinnen: Hunderte Millionen Amerikaner, fein säuberlich sortiert, die nur darauf warten, aktiviert und manipuliert zu werden.
Sie möchten einen bestimmten Output aus dieser Masse, sagen wir, einen Aufstand gegen die Elite oder eine Kultur von Impfskeptikerinnen? Dafür braucht es nur den richtigen Input. Oder Sie möchten die «Vertrauenskrise bei zentralen Institutionen» oder den «Verlust der evidenzbasierten Realität» lösen? Schrauben Sie am Content.
Alles eine Frage des Algorithmus.
Geburt der politischen Massenwerbung
Vor der Präsidentschaftswahl des Jahres 1952 machte sich eine Gruppe republikanischer Spender Sorgen über Dwight D. Eisenhowers hölzernes Image. Man bat die Werbeindustrie an der Madison Avenue in New York, genauer gesagt die Firma Ted Bates, eine Reihe von Werbespots für ein aufregendes neues Gerät zu kreieren, das sich plötzlich in Millionen amerikanischer Haushalte fand.
In «Eisenhower antwortet Amerika», der ersten Serie von politischen Spots in der Geschichte des Fernsehens, gab ein angestrengt grinsender Ike prägnante Antworten auf Fragen zu Steuern, Koreakrieg oder Staatsschulden. Die Spots markierten den Beginn des Massenmarketings in der amerikanischen Politik. Ausserdem führten sie die Werbelogik in die politische Vorstellungswelt der Amerikanerinnen ein: den Gedanken, dass die richtige Kombination von Worten und Bildern, im richtigen Format präsentiert, die Leute berechenbar dazu bringen könne, entweder zu handeln oder nicht.
Diese mechanistische Vorstellung vom Menschen traf auch auf Skepsis. So entsprachen etwa Hannah Arendt zufolge «die Lehren von den unbegrenzten Möglichkeiten menschlicher Manipulierbarkeit, die seit geraumer Zeit auf dem Markt der gewöhnlichen und gelehrten Meinungen feilgehalten werden», eher der «Realität und den Wunschträumen der Werbe-Fachleute». Ihrer Argumentation zufolge hätte Eisenhower, der damals 442 von 531 Wahlmännerstimmen auf sich vereinen konnte, die Wahl auch gewonnen, ohne auch nur einen Cent für Fernsehspots auszugeben.
Was es brauchte, um bei der Werbekundschaft Zweifel an der Wirksamkeit von Werbung zu zerstreuen, war ein empirischer Beweis – oder wenigstens der Anschein eines solchen. Um diesen wissenschaftlichen Charakter zu gewährleisten, versuche die moderne politische Überzeugungskunst zunehmend, «die Anwendung zu kontrollieren, die Resultate zu messen und die Auswirkungen zu evaluieren», schrieb der Soziologe Jacques Ellul 1962 in seinem bahnbrechenden Werk zur Propagandaforschung. Die Kundschaft möchte davon überzeugt werden, dass man die Zielgruppe überzeugt hat.
Allmachtsfantasien
Zum Glück für den aufstrebenden Propagandisten des Kalten Krieges hatte die amerikanische Werbebranche ihren Pitch aufpoliert. Sie hatte in der ersten Hälfte des Jahrhunderts versucht, ihren Wert durch den Schulterschluss mit den ebenfalls jungen Gebieten der wissenschaftlichen Betriebsführung und der experimentellen Psychologie unter Beweis zu stellen.
Sich mit den Verhaltenswissenschaftlern zusammenzutun und deren Jargon zu übernehmen, habe es der Werbeindustrie erlaubt, der Überzeugungskunst einen «Anstrich wissenschaftlicher Gewissheit» zu verleihen, schreibt die Ökonomin Zoe Sherman:
Sie beteuerten, man bräuchte Zielgruppen, ähnlich den Beschäftigten an einem taylorisierten Arbeitsplatz, nicht mit Vernunft zu überzeugen, vielmehr liesse sich ihnen das vom Verkäufer gewünschte Konsumverhalten durch ständige Wiederholung antrainieren.
Die profitable Beziehung zwischen der Werbeindustrie und den weichen Wissenschaften nahm 1957 eine finstere Färbung an, als der Journalist Vance Packard «The Hidden Persuaders» («Die geheimen Verführer») herausbrachte: einen Enthüllungsbericht über die Motivationsforschung, damals der letzte Schrei in der Zusammenarbeit zwischen Werbebranche an der Madison Avenue und der Forschungspsychologie.
Das alarmierende Bild, das Packards Bestseller für die breite Öffentlichkeit zeichnete – Werbeleute, die mit einer ruchlosen Mixtur aus Pawlow und Freud die Amerikanerin zum Kauf von Zahnpasta manipulierten –, hat sich bis heute gehalten. Die Vorstellung von der Manipulierbarkeit der Öffentlichkeit ist, so Arendt, ein integraler Teil des Produkts. Werbung zielt zwar auf Konsumenten ab, verkauft wird sie aber an die Unternehmen.
Packards Bericht basierte auf den Aussagen von Motivationsforschern. Zu ihren eigenen, kaum verborgenen Motivationen gehörte auch der Wunsch, als Hellseher und Visionäre dazustehen. In einem hinteren Kapitel räumt Packard selbst ein:
Aus dem Bereich der Sozialwissenschaften kam von anderen Seiten der Hinweis, dass manche Motivforscher zuweilen die Neigung hätten, mehr zu verkaufen als sie haben – sozusagen die Ausbeuter auszubeuten. Der als Industrieberater tätige Yale-Psychologe John Dollard rügte einige seiner Kollegen mit der Bemerkung, man nehme mit offenen Armen auf, wer den Werbungtreibenden «eine gemässigte Form von Allmacht» versprach.
Der Mythos des Erfolgs
Die heutigen digitalen Werbeleute umgibt eine gar noch grössere Aura von Omnipotenz als ihre Altvorderen in Printmedien und TV.
Dem Rechtsanwalt und einstigen Google-Mitarbeiter Tim Hwang zufolge wird dieses Image durch zwei «Glaubenssäulen» aufrechterhalten: dass digitale Werbung sowohl messbarer als auch effektiver sei als andere Formen der kommerziellen Überzeugung. Das Kriterium, das die digitale Werbung strukturiert, ist «Aufmerksamkeit».
Jedoch, so schreibt Hwang in seinem Buch «Subprime Attention Crisis» (2020), sei «Aufmerksamkeit» schwierig zu standardisieren. Das macht sie zu einem Produkt von weit geringerem Wert, als ihre Käuferinnen zu denken scheinen. Hinter einer «Illusion grösserer Transparenz», die man den Anzeigenkäufern bietet, verbirgt sich ein «hochgradig undurchsichtiger», auf unsichtbare Weise automatisierter und segmentierter Marktplatz. Ein Marktplatz, den mit Facebook und Google zwei geradezu verbissene Geheimniskrämer dominieren, die ein erhebliches Interesse daran haben, die begehrte Aufmerksamkeit so standardisiert und messbar wie möglich erscheinen zu lassen.
Darum ist Folgendes wohl der härteste Vorwurf, den man den Riesen aus dem Silicon Valley machen kann: nicht etwa dass ihre strahlende industrielle Informationsfabrik für toxischen Abfluss sorgt, sondern dass aus dieser Fabrik von Anfang an nichts wirklich Wertvolles kam.
Sieht man genauer hin, wird einem klar, dass ein Gutteil der im Internet feilgebotenen Aufmerksamkeit vom Zufall bestimmt und nicht messbar ist, wenn nicht gar schlicht Betrug.
Obwohl sie einer enormen Masse von Online-Werbung ausgesetzt sei, sagt Hwang, reagiere die Öffentlichkeit darauf weitgehend apathisch. Mehr noch, Online-Werbung habe die Neigung, jene zum Klicken zu bringen, die längst treue Kundinnen seien. Es sei, wie Hwang es ausdrückt, «eine teure Art, Nutzer anzulocken, die ohnehin gekauft hätten». Korrelation für Kausalität zu halten, vermittelt Werbekundinnen eine masslos übertriebene Vorstellung von ihrer Fähigkeit, jemanden zu überzeugen.
Dasselbe gilt für die Verbraucherdaten, auf denen zielgerichtete Werbung fusst und die, wie die Forschung bewiesen hat, häufig schludrig und stark übertrieben sind. In jüngst freigegebenen Prozessakten äusserten sich Facebook-Manager aus ebendiesem Grund abschätzig über ihre Fähigkeit, zielgruppengerecht zu werben. Ein internes E-Mail aus dem Unternehmen legt die Vermutung nahe, dass COO Sheryl Sandberg seit Jahren klar war, dass ihr Unternehmen bei Angaben über die Reichweite seiner Werbeanzeigen übertrieb.
Warum also haben Anzeigenkäuferinnen einen solchen Narren an digitaler Werbung gefressen? In vielen Fällen, so Hwangs Schluss, liegt das daran, dass sie in Meetings – auf Powerpoint-Präsentationen und auf die Dashboards einer Web-Analytics-Software projiziert – gut aussieht: der «Stoff für gutes Theater». Anders gesagt, die digitale Werbebranche baut ebenso auf unseren Glauben an ihre Überzeugungskraft wie auf Messungen ihres tatsächlichen Erfolgs. Das Ganze ist eine Frage von PR und einer guten Story. Und genau hier erweist sich das Narrativ der Desinformation als besonders nützlich.
Helden und Schurken
Die Mythen der digitalen Werbebranche haben eine entscheidende Rolle dabei gespielt, wie die Kritiker von Big Tech die Geschichte der politischen Überredungskraft erzählen. Was schlicht daran liegt, dass bezahlter politischer Content die medienwirksamste Art von digitaler Falsch- und Desinformation ist – und liberalen westlichen Beobachterinnen zufolge ist sie ja immerhin verantwortlich für den Brexit und Donald Trump.
Wie jede wirklich überzeugende Geschichte hat auch diese Helden und Schurkinnen. Die Helden im Desinformationsdrama sind Leute wie Christopher Wylie, der Cambridge Analytica auffliegen liess und der Welt danach sein Buch verkaufte. Die Schurken sind Leute wie Brad Parscale, der extravagante Trump-Stratege, der sich mit seinen über zwei Metern, selbst wenn er gewollt hätte, vor der Presse nicht hätte verstecken können.
Parscale, der Regisseur von Trumps erfolgreicher erster Präsidentschaftskampagne, sah sich vier Jahre später zum Wahlkampfchef für Trumps zweiten Anlauf befördert. Da die Presse in dem Mann mit dem eigenwilligen Bart den Architekten von Trumps digitaler Vorherrschaft wähnte, stilisierte sie ihn zum Schwarzen Lord vom rechten Flügel, zum Desinformationsmeister der dunklen Seite der Macht. Ein Porträt des «New Yorker» vom März 2020 pries Parscale als «den Strippenzieher hinter Trumps Facebook-Monstrum», der «mithilfe der sozialen Medien 2016 die Wahl entschieden» hätte und nun «erpicht» war, «das zu wiederholen». Wie aus einem Tweet vom Mai 2020 hervorgeht, fügte sich Parscale mit der Begeisterung eines Wrestlers ins böse Spiel:
Seit fast drei Jahren arbeiten wir an einem Ungetüm von Kampagne (Death Star). Sie feuert aus allen Rohren. Daten, Digital, TV, Politisch, Stellvertreter, Koalitionen etc. In einigen Tagen drücken wir zum ersten Mal auf FEUER.
Kaum zwei Monate später degradierte Trump Parscale, bevor er ihm öffentlich vorwarf, keine Ahnung von den Offline-Elementen eines Wahlkampfs zu haben. Wieder zwei Monate später nahm die Polizei den grossen Manipulator, aufgedunsen und mit nacktem Oberkörper, vor seinem herrschaftlichen Wohnsitz in Florida fest – er hatte bei einer Auseinandersetzung mit seiner Frau eine Pistole durchgeladen. Nach einem unfreiwilligen Aufenthalt in der Psychiatrie klinkte er sich mit der Begründung, der Stress sei ihm einfach zu viel geworden, aus der Kampagne aus. (Er betreibt inzwischen eine Beraterfirma für digitale politische Kampagnen.)
Studien … Wissenschaft?!
Die Erzählung von der unheimlichen Gedankenkontrolle durch digitale Medien hat eine Reihe von Forschungsergebnissen überdeckt, die den Auswirkungen von politischer Werbung und Desinformation skeptisch gegenüberstehen.
So untersuchten Politikwissenschaftler der Universität Princeton und der New York University 2019 mehrere tausend Facebook-Seiten und stellten fest, dass «Fake-News-Domains eher selten geteilt werden» – mehr als 90 Prozent der Userinnen enthielten sich dieser Praxis ganz. Eine 2017 von Stanford und NYU durchgeführte Studie kam zu folgendem Schluss:
Wäre ein Fake-News-Artikel in etwa so überzeugend wie eine TV-Kampagne, hätte die Menge an Fake News in unserer Datenbank die Wähleranteile um eine Grösse von einigen Hundertsteln eines Prozentpunkts verändert. Das bleibt weit hinter der Marge zurück, mit der Trump in den für das Ergebnis relevanten Staaten gewann.
Nicht dass derlei Studien gleich als schlagender Beweis gelten sollten. Bei all der Aufmerksamkeit in den Medien befindet sich das Studium der Desinformation noch in der Phase, in der ganz grundsätzliche Fragen nicht abschliessend definiert sind; die Beschäftigung mit fundamentalen epistemologischen Problemen – wie beeinflusst Desinformation Überzeugungen? – hat noch nicht einmal begonnen.
Die bislang umfassendste Erhebung auf dem Gebiet, eine Metastudie zu einschlägigen wissenschaftlichen Arbeiten mit dem Titel «Social Media, Political Polarization, and Political Disinformation» von 2018 enthüllt himmelschreiende Defizite. Die Autoren kreiden der Desinformationsforschung an, bis dato eine Erklärung für das Warum einer Meinungsänderung schuldig geblieben zu sein. Darüber hinaus fehle es an robusten Daten über Verbreitung und Reichweite von Desinformation. Und nicht zuletzt monierte man die Weigerung, gemeinsame Definitionen fundamentaler Begriffe auf dem Gebiet zu erarbeiten, wie etwa zu Desinformation und Fehlinformation, Online-Propaganda, hyperparteiische Meldungen, Fake News, Clickbait, Gerüchte und Verschwörungstheorien. Es scheint, als sprächen jeweils keine zwei Desinformationsforscherinnen von ein und demselben Phänomen.
Das wird wohl jeder bestätigen, der die gegenwärtige Mediendebatte um Online-Propaganda verfolgt. Sie verwendet die Begriffe Fehl- beziehungsweise Falschinformationen sowie Desinformation recht locker und austauschbar zur Bezeichnung einer breiten Palette von Content: von altbekannten Betrugsmaschen bis zu viralen Nachrichten; von nachrichtendienstlichen Operationen bis hin zu Trolling.
Im Alltagseinsatz stehen die Begriffe meist einfach für «alles, was ich nicht so sehe». Versuche, den Begriff Desinformation breit genug zu definieren, um sie von jeder politischen Perspektive oder Ideologie zu befreien, führen in einen geradezu absurden Bereich der Abstraktion.
In der bereits zitierten Literaturstudie heisst es dazu:
«Desinformation» bezeichnet eine weit gefasste Kategorie, die jene Arten von Informationen beschreibt, auf die man online stossen kann und die möglicherweise zu falschen Vorstellungen über den tatsächlichen Zustand der Welt führen können.
Na, wenn das den Sachverhalt nicht präzisiert!
Was ist Desinformation?
Der Begriff an sich ist seit jeher so politisch wie kriegerisch. Als 1952 dezinformatsiya zum ersten Mal in der «Grossen Sowjetischen Enzyklopädie» auftauchte, war die Definition ideologisch geprägt: «Die Verbreitung (in Presse, Rundfunk etc.) von Falschmeldungen in der Absicht, die öffentliche Meinung zu täuschen. Presse und Rundfunk im Kapitalismus machen ausgiebig Gebrauch von der dezinformatsiya.»
Noch heute formulieren Journalisten, Akademikerinnen und Politiker beim Thema Desinformation gern martialisch, so wenn etwa von einem «Krieg gegen die Wahrheit» oder «Lügen als Waffen» die Rede ist. Im aktuellen Kontext jedoch sind schlechte – will sagen: falsche – Informationen eine Waffe, die eher im gelegentlich gewalttätigen innenpolitischen Konflikt eingesetzt wird als in einem kalten Krieg der Supermächte.
Die terminologische Unschärfe auf dem neuen Forschungsgebiet führte beim landläufigen Verständnis von der Überzeugungskraft falscher Informationen zu einer bedenklichen Abhängigkeit von anekdotischen Daten über «Kaninchenbauten», die der neuen Technologie den Vorrang vor sozialen, kulturellen, wirtschaftlichen und politischen Kontexten einräumen. (Es klingt hier die Angst aus Zeiten des Kalten Krieges vor der Gehirnwäsche an.)
Wie das Narrativ von der Onlinewerbung kranken diese Anekdoten um die Überzeugungskraft daran, dass sich Korrelation und Kausalität nicht so recht trennen lassen. Schaffen die sozialen Medien einen neuen Typus Mensch oder machen sie lange verborgene Typen für einen Teil der Öffentlichkeit sichtbar, der sie bisher nicht sah? Gerade Letzteres hat für die Medien wie für die Forschung peinliche Implikationen.
Ein «Realitätszar» solls richten
Ein gar noch unbequemeres Problem für die Desinformationsforschung ist aber die vermeintliche Objektivität von Medienforscherinnen und Journalisten gegenüber dem Informationsökosystem, dem sie selbst angehören. Es ist erstaunlich, dass man sich mit dem Problem zur selben Zeit zu beschäftigen begann, als man sich auch Fragen nach dem Schaden zu stellen begann, den berufliche Objektivitätsstandards wie «Er sagt dies, sie sagt das» anrichten können.
Beides war so schmerzlich wie längst überfällig. Ebenso wie Journalismus, Forschung und jede andere Form der Wissensbildung spiegelt auch die Beschäftigung mit der Desinformation sowohl Kultur und Ziele als auch die Überzeugungen ihrer Schöpferinnen wider.
Werfen wir einen raschen Blick auf die Institutionen, die am häufigsten und mit nachhaltigster Wirkung über Desinformation publizieren: die Harvard University, die «New York Times», die Stanford University, das MIT, der Fernsehsender NBC, das Atlantic Council, das Council on Foreign Relations etc. Dass ausgerechnet die renommiertesten Institutionen der vordigitalen Ära das grösste Interesse am Kampf gegen die Desinformation haben sollten, sagt so einiges darüber aus, was sie zu verlieren haben – oder was sie zurückzugewinnen hoffen.
Wie brillant die einzelnen Desinformationsforscher und Reporterinnen auch sein mögen, das Wesen des Projekts bringt sie leider unweigerlich in die Defensive, wann immer es um mediale Darstellung, Objektivität, Imagebildung und die Gegenstände der Berichterstattung geht. So gut und aufrichtig ihre Absichten auch immer sein mögen, auch sie haben keinen speziellen Zugang zur Matrix der Realität, stehen nicht ausserhalb der Dinge.
Ein Beispiel. Angesichts neuer Erkenntnisse und erneuter parteiübergreifender politischer Bemühungen, den Ursprüngen von Covid-19 auf die Spur zu kommen, hat Facebook in diesem Frühjahr verlauten lassen, es werde keine Beiträge mehr entfernen, in denen behauptet wird, das Coronavirus sei von Menschen gemacht oder gar bewusst fabriziert worden.
Zahlreiche aktive Desinformationsgegner, die die Social-Media-Unternehmen monatelang aufgefordert hatten, derlei Behauptungen zu entfernen, weil es sich um Verschwörungstheorien handle, schweigen mittlerweile betreten, nachdem auch Wissenschaftlerinnen einräumten, dass ein versehentliches Austreten aus einem Labor in Wuhan wenn auch unwahrscheinlich, so doch durchaus plausibel sei.
Dennoch beharrt big disinfo weiter darauf, die Lizenz zur Wissensverbreitung wieder in die Hände einer Riege «objektiver» Hüter zu geben.
Im Februar berichtete die Tech-News-Site «Recode» über eine parteiübergreifende 65-Millionen-Dollar-Initiative mit dem Namen «Project for Good Information». Deren Gründerin Tara McGowan ist eine altgediente Aktivistin der Demokratischen Partei und CEO von Acronym, einer Mitte-Links-Non-Profit-Organisation für digitale Werbung und Wählermobilisierung, deren Arm zur Politfinanzierung unter anderem von Regisseur Steven Spielberg, Linkedin-Co-Gründer Reid Hoffman und dem Risikokapitalgeber Michael Moritz finanziert wird.
Obamas ehemaliger Wahlkampfmanager David Plouffe, gegenwärtig Stratege bei der Chan Zuckerberg Initiative, ist offizieller Berater bei Acronym. In einem Artikel der «New York Times» vom Februar wurde in aller Bescheidenheit die Einsetzung eines «Realitätszaren» vorgeschlagen, der «die Speerspitze für die Reaktion der Bundesregierung auf die Realitätskrise» werden könnte.
Cui bono?
Die Vorstellung eines gottgleichen Wissenschaftlers, der im Namen der US-Regierung über die Medien wacht, ist fast hundert Jahre alt. Nach dem Ersten Weltkrieg versuchte eine entschieden progressive und reformistische Propagandaforschung die Rolle mächtiger Interessen bei der Gestaltung von Nachrichten aufzudecken. Ende der 1930er-Jahre begann die Rockefeller Foundation die Vertreter einer neuen Disziplin namens Kommunikationsforschung zu fördern. Die Psychologen, Politikwissenschaftler und Berater hinter dieser neuen Bewegung rühmten sich ihrer methodischen Raffinesse und ihrer absoluten politischen Neutralität. Sie boten Arendts «psychologische Prämisse von der Manipulierbarkeit des Menschen» Regierungsbeamten und Geschäftsleuten an. Ähnlich wie es die ersten Fachleute für TV-Werbung taten. Sie stellten sich in den Dienst des Staates.
Dem Kommunikationswissenschaftler Jack Bratich zufolge ist die gegenwärtige Anti-Desinformations-Industrie Teil eines «Restaurationskriegs» der politischen Mitte Amerikas, die sich durch die wirtschaftlichen und politischen Krisen der letzten zwanzig Jahre in eine eher bescheidene Rolle gezwungen sieht. Die entpolitisierte Zivilgesellschaft, so Bratich, wird «das Terrain für die Restauration quasiamtlicher Verkünder der Wahrheit» wie, tja, Harvard, «New York Times» und des Council on Foreign Relations.
Bratichs Argumentation zufolge setzt das Establishment seine Methoden zur Diskreditierung von Informationen seiner geopolitischen Feinde jetzt gegen seine eigenen Bürgerinnen ein.
Die National Strategy for Countering Domestic Terrorism der Regierung von Präsident Joe Biden, übrigens die erste ihrer Art, verspricht «der nicht selten von Desinformation, Fehlinformation und gefährlichen Verschwörungstheorien online gespeisten Polarisierung» entgegenzuwirken. Hier wird nicht nur vor Milizen auf dem rechten Flügel und vor Frauen hassenden Incels gewarnt, sondern auch vor Antikapitalistinnen, Umweltschützern und Tierrechtsaktivistinnen. Dies kommt im Übrigen zu einem Zeitpunkt, an dem allenthalben Regierungen mittels rasch aus dem Boden gestampfter Notstandsgesetze gegen «Fake News» und «Desinformation» Dissidenten und Reporterinnen schikanieren, wenn nicht gar inhaftieren.
Man muss jedoch Bratichs Narrativ nicht einmal unterschreiben, um zu verstehen, wie Tech-Unternehmen und bestimmte Medienorganisationen vom Weltbild der big disinfo profitieren. Die Content-Riesen – Facebook, Twitter, Google – versuchen seit Jahren, aus der Glaubwürdigkeit und Sachkenntnis bestimmter journalistischer Formen Kapital zu schlagen, siehe hierzu ihre Initiativen für Factchecking und Medienkompetenz.
In diesem Kontext ist das Desinformationsprojekt nur eine inoffizielle Partnerschaft zwischen Big Tech, Medienkonzernen, Eliteuniversitäten und kapitalkräftigen Stiftungen. Kein Wunder, begann in den letzten Jahren die eine oder andere Journalistin zu klagen, ihr Job bestünde nur mehr aus Factchecking jener Plattformen, die ihrer Branche den Garaus machen.
Eine unheilige Allianz
Ironischerweise unterstützt diese Arbeit, insofern sie zu übertriebener Besorgnis über Desinformation führt, letztlich Facebooks eigenen Pitch. Was könnte für den Werbekunden attraktiver sein als eine Maschine, die jeden von allem zu überzeugen vermag? Von dieser Ansicht kann ein Unternehmen wie Facebook nur profitieren, das daraufhin noch mehr Fehlinformationen verbreitet, was zu noch mehr Besorgnis führt. Man nimmt traditionsreiche Medienunternehmen mit prestigeträchtigen Marken als vertrauenswürdige Partner an Bord und überlässt ihnen die Entscheidung, wann der Verschmutzungsgrad im Informationsökosystem (von dem man sich wie durch Zauberhand selber abgekoppelt hat) in den roten Bereich geht.
Für die alten Medienunternehmen ist dies ein Versuch, wieder relevant zu werden, eine Form der Selbsterhaltung. Für die Tech-Plattformen ist es eine oberflächliche Strategie, tiefschürfenden Fragen zu entgehen.
Und mit welchem Ergebnis? Nun, letztes Jahr hat Facebook damit begonnen, Trumps irreführende und desinformative Posts mit entsprechenden Hinweisen zu versehen. «BuzzFeed News» berichtete im November, dass derlei Hinweise die Rate, mit denen die Posts geteilt wurden, um gerade mal 8 Prozent reduzierten. Man hätte fast meinen können, dass es der grossen Mehrheit derer, die Trumps Posts weiterverbreiteten, egal war, dass Dritte seine Äusserungen als zweifelhaft markiert hatten. (Man fragt sich gar, ob für eine gewisse Sorte Mensch derlei warnende Hinweise nicht sogar einen Anreiz darstellen, sie mit anderen zu teilen.)
Facebook jedenfalls konnte sagen, man habe auf die Kritikerinnen gehört, und mehr noch, es konnte auf Zahlen verweisen, die darauf hindeuteten, dass man das Informationsökosystem um 8 Prozent sauberer gemacht hatte. Und Facebooks Kritiker konnten die Hände in die Taschen stecken, schliesslich hatte man auf sie gehört.
Die Vorpropaganda
Als 2020 das Virus die Welt in Beschlag nahm, drängte sich eine neue erkenntnistheoretische Metapher für Falschinformationen auf. Sie waren jetzt nicht länger exogene Toxine, sondern ansteckende Organismen, die einen bei Kontakt so unweigerlich überzeugten, wie einen der Kontakt mit dem Virus erkranken liess. In einer perfekten Inversion der Sprache des Hypes um digitale Medien war «viral gehen» nun plötzlich etwas Schlechtes.
Im Oktober 2020 nannte Anne Applebaum in «The Atlantic» Trump einen «Superspreader von Falschinformationen». Eine Studie der Cornell University hatte etwas früher im selben Jahr festgestellt, dass in 38 Prozent der auf Englisch geführten «Gespräche über Desinformation» in Bezug auf Covid-19 Trumps Name fiel. Laut «New York Times» machte ihn das zum «stärksten Motor der ‹Infodemie›».
Dieses Ergebnis passte zu jenen früherer Studien, laut denen Desinformation in der Regel der Unterstützung politischer und Medieneliten bedürfe, um weite Verbreitung zu finden. Was wiederum heisst, dass die Überzeugungskraft von Information in sozialen Medien vom Kontext abhängt. Propaganda entsteht nicht aus dem Nichts, und sie funktioniert nicht immer auf ein und dieselbe Art. Der Soziologe Jacques Ellul sprach von der unabdingbaren Rolle eines Phänomens, das er als «Vorpropaganda» bezeichnete:
Direkter Propaganda, die auf Veränderung von Meinungen und Haltungen abzielt, müssen eine soziologisch geprägte, langsame, allgemeine, eine Stimmung, ein Klima, eine Atmosphäre erzeugende Propaganda und diese begünstigende Voreinstellungen vorausgehen. Feststellen lässt sich dann, dass keine unmittelbare Propaganda ihre Wirkung entfalten kann ohne eine Vorpropaganda, die sich ohne jede direkt wahrnehmbare Einwirkung damit begnügt, Ambivalenzen zu erzeugen, Vorurteile abzubauen und Bilder ohne offenkundige Absicht zu verbreiten.
Diese Vorpropaganda liess sich auch als die Gesamtheit eines soziologischen, kulturellen, politischen und historischen Kontexts sehen. In den Vereinigten Staaten gehören zu diesem Kontext ein eher eigenwilliger Wahlprozess und ein Zweiparteiensystem, das zu einer asymmetrischen Polarisierung hin zu einem nativistischen, rhetorisch antielitären rechten Flügel geführt hat.
Ausserdem gehören dazu eine libertäre Sozialethik, ein «paranoider Stil», der «typisch amerikanische Amoklauf», zutiefst verantwortungslose nationale Fernseh- und Radiosender, verschwindende Lokalnachrichten, eine gewaltverherrlichende Unterhaltungsindustrie, ein aufgeblähtes Militär, massive Einkommensungleichheit, eine von ebenso brutalem wie hartnäckigem Rassismus geprägte Geschichte, die wiederholte Zerschlagung aufkommenden Klassenbewusstseins, ein gewohnheitsmässiger Hang zu Verschwörungstheorien sowie die Motive des weltgeschichtlichen Niedergangs und der Erlösung.
Diese spezifische amerikanische Situation schuf spezifische Menschentypen. Und zwar lange vor dem Aufstieg von Tech-Plattformen.
Wenn wir dieses Umfeld in seiner Gesamtheit betrachten – oder wenigstens so viel uns davon möglich ist –, dann sehen wir, dass es geradezu absurd unzulänglich sein muss, diese Plattformen als allein verantwortlich für traurige Extremsituationen in den USA zu sehen. Das gilt auch für den Sturm auf das Kapitol am 6. Januar. Und doch überrascht es angesichts des technologischen Determinismus, der den Desinformationsdiskurs beherrscht, nicht gross, dass die Anwälte einiger der Aufrührerinnen am Kapitol an einer Verteidigung arbeiten, die Social-Media-Unternehmen die Schuld für ihr Handeln gibt.
Es reagieren nur bestimmte Menschentypen in bestimmten Umständen auf bestimmte Arten von Propaganda.
So berücksichtigt zum Beispiel die beste Berichterstattung über QAnon die Beliebtheit der Verschwörungsbewegung bei weissen Evangelikalen. Die beste Berichterstattung über Impf- und Maskenskepsis berücksichtigt das bunte Mosaik an Erfahrungen, die hinter der Einstellung der Amerikanerinnen gegenüber dem Fachwissen ihrer Gesundheitsbehörden stehen.
Social-Media-Plattformen verfügen mitnichten über eine magische Überzeugungskraft; sie sind ein neuer und wichtiger Teil des Bildes, aber nicht das Ganze. Facebook ist, so sehr Mark Zuckerberg und Sheryl Sandberg uns das womöglich einreden wollen, nicht allmächtig.
Jedem, der Facebook in jüngster Zeit benutzt hat, dürfte das aufgefallen sein. Die Plattform ist voller hässlicher Memes und langweiliger Gruppen, ignoranter Argumente, sensationshaschender Clickbaits. Sie ist voller Produkte, die keiner will, und verkümmerter Features, die keinen mehr interessieren. Und gerade die Leute, die Facebooks negativen Einfluss für besonders alarmierend halten, sind auch jene, die sich darüber beschweren, was für ein lausiges Produkt Facebook doch sei.
Es drängt sich die Frage auf: Warum halten sich Desinformationsarbeiter für die Einzigen, denen aufgefallen ist, dass Facebook zum Himmel stinkt? Warum sollten wir davon ausgehen, dass sich der Rest der Welt von der Plattform hypnotisieren lässt? Warum haben wir die Silicon-Valley-Erzählung von unserer eigenen Manipulierbarkeit so willig geschluckt?
Dafür finden sich in den wissensbildenden Berufen einige verständnisvolle Erklärungen struktureller Art. Sozialwissenschaftlerinnen erhalten Subventionen für Forschungsprojekte, die in den Nachrichten landen könnten. Thinktanks wollen quantifizierbare politische Probleme. Journalisten zielen ebenso darauf ab, mächtige Heuchlerinnen blosszustellen, wie darauf, «Wirkung» zu haben. In der Tat sind die Tech-Plattformen derart unfähig und leicht zu erwischen, wenn sie gegen ihre eigenen Regeln hinsichtlich verbotener Informationen verstossen, dass eine ganze Generation ehrgeiziger Reporter auf eine unerschöpfliche Quelle von Heuchelei gestossen ist. Für die Politik schliesslich ist es viel einfacher, sich auf einen regulierbaren Algorithmus zu konzentrieren als auf festgefahrene gesellschaftliche Verhältnisse.
Das Establishment profitiert
Berufliche Anreize erklären jedoch nur bis zu einem gewissen Punkt, warum das Narrativ von der Desinformation gar so beherrschend geworden ist. Der Soziologe Ellul verwarf eine «geläufige Vorstellung von Propaganda», die «besagt, sie sei das Werk … von böswilligen Naturen, die blenden und verführen». Er verglich dieses grob vereinfachende Narrativ mit Studien der Jahrhundertmitte über die Werbung, die den «Käufer … als Opfer und als Beute» darstellen. Es ist seiner Ansicht nach vielmehr so, dass Propaganda durch ein Miteinander von Propagandistin und Propagandiertem entsteht.
Ein Grund, die Prämisse des Silicon Valley zu übernehmen, wir könnten mechanistisch überzeugt werden, liegt darin, dass uns das davon abhält, zu sehr über die eigene Rolle nachzudenken, die wir dabei spielen, die Dinge zu übernehmen und zu glauben, die wir glauben wollen. Es verwandelt die grosse Frage nach dem Wesen der Demokratie im digitalen Zeitalter – Was ist, wenn die Menschen verrückte Dinge glauben und jeder das jetzt weiss? – in eine technokratische Verhandlung zwischen Tech-Unternehmen, Medienriesen, Thinktanks und Universitäten.
Es gibt aber einen tiefer liegenden verwandten Grund, aus dem so viele Kritikerinnen an Big Tech derart schnell bereit sind, das technologistische Narrativ menschlicher Überzeugbarkeit zu akzeptieren. Wie der Politologe Yaron Ezrahi bemerkt hat, verlässt sich die Öffentlichkeit auf wissenschaftliche und technologische Demonstrationen politischer Ursache und Wirkung, weil so etwas unseren Glauben an die Rationalität der demokratischen Regierungsform aufrechterhält.
Es ist also tatsächlich möglich, dass das Establishment das Theater um die Überzeugungskraft der sozialen Medien dafür braucht, eine nach wie vor sinnvolle politische Welt aufzubauen, ebenso zur Erklärung von Brexit und Trump und warum wir den Glauben an die maroden Institutionen der westlichen Welt verloren haben.
Die Verwerfungen, zu denen es in der gesamten demokratischen Welt vor fünf Jahren kam, stellten die grundlegenden Annahmen so mancher Teilnehmer an der Debatte infrage: von Social-Media-Managerinnen, Wissenschaftlern, Journalistinnen, Leuten in Thinktanks und der Meinungsforschung. Eine gemeinsame Ansicht zu den Überredungskünsten der sozialen Medien liefert eine bequeme Erklärung dafür, wie so viele Leute sich mehr oder weniger zur selben Zeit so geirrt haben konnten.
Mehr noch als das schafft es eine Welt der Überzeugungskraft, die für das Kapital lesbar und damit nützlich ist – für Werbetreibende, politische Berater, Medienunternehmen und natürlich auch die Tech-Plattformen selbst. Es ist ein Modell von Ursache und Wirkung, bei dem die von einigen wenigen Konzernen verbreitete Information die absolute Macht hat, die Überzeugungen und Verhaltensweisen der Bevölkerung zu rechtfertigen.
In gewisser Hinsicht spendet eine solche Welt auch Trost. Leicht zu erklären, leicht zu justieren und leicht zu verkaufen, ist sie ein würdiger Nachfolger für die konsolidierte Vision des amerikanischen Lebens, wie sie uns das Fernsehen des 20. Jahrhunderts beschert hat. Also keineswegs eine «verrückte Idee», wie Zuckerberg meinte. Schon gar nicht, wenn wir sie alle glauben.
Joseph Bernstein ist Senior Reporter bei «BuzzFeed News» und Nieman Fellow des Jahres 2021. Dieser Beitrag erschien erstmals unter dem Titel «Bad News – Selling the Story of Disinformation» bei «Harper’s Magazine».