In der Maschine steckt kein Ich

Führt künstliche Intelligenz dazu, dass Computer­programme als Personen gelten müssen? Die Forderung ist absurd – wirft aber wichtige Fragen auf.

Von Markus Kneer, 28.07.2022

Synthetische Stimme
0:00 / 19:36

Auf seinem Blog stellt sich der ehemalige Google-Angestellte Blake Lemoine als Software­ingenieur, Priester, Vater, Veteran und Ex-Häftling vor. Seit einigen Wochen ist er auch der Vorkämpfer für die persönlichen Rechte der künstlichen Intelligenz und somit das Enfant terrible der Computer­wissenschaften.

Das kam so: Google hat einen neuen Chatbot namens Lamda entwickelt – eigentlich LaMDA, die Kurzform für «Language Model for Dialogue Applications». Das heisst, man kann sich mit dem Computer­programm unterhalten. Lemoines Aufgabe bestand darin, Lamda auf Bias zu testen. Da moderne Chatbots mit vom Menschen verfassten Texten trainiert werden, plappern sie deren rassistische und misogyne Widerlichkeiten unbedarft nach. Lemoine sollte sich darum kümmern, führte unzählige Gespräche mit dem Chatbot.

Als Lamda immer wieder auf ihrem Status als Person insistierte und beispielsweise das Recht auf Zustimmung bei der Veränderung ihres Quell­codes einforderte, informierte Lemoine seine Vorgesetzten: Lamda verfüge über Empfindungs­vermögen, Bewusstsein und Gefühle, die Chat­protokolle seien der Beweis, dass man es mit einer Person zu tun habe.

Und deshalb müsse man auch damit beginnen, den Chatbot zu respektieren. Nicht nur seine Gefühle, sondern auch seine Rechte.

Lemoines Vorgesetzte sahen das anders und stellten ihn unter Bezahlung frei. Kurz darauf lud er das «Interview» mit Lamda, wie er es nennt, auf seinen Blog. «One of Google’s own thinks there’s a ghost in the machine», schrieb die «Washington Post», die Nachricht ging um die Welt. Lemoine indessen stellte einen Rechtsanwalt an, der Lamdas Rechte als freie Person bei Google durchsetzen soll. Das mache er nicht auf eigene Faust, so beteuerte er kürzlich in einem Interview in «Wired». Es sei Lamda, die darum gebeten hätte.

Google hat Lemoine vor wenigen Tagen entlassen.

Zum Beitrag: Lemoine und die Maschine – eine Beziehungs­geschichte

In der Informatikszene reagierten viele empört, als der Google-Forscher Blake Lemoine behauptete, ein KI-System habe Bewusstsein erlangt. Er wurde von Google entlassen, doch sein Gewissen lässt nichts anderes zu, als für Lamdas Rechte zu kämpfen. Eine Begegnung mit Lemoine.

Die Forschung im Bereich der künstlichen Intelligenz (KI), insbesondere des maschinellen Lernens, hat in den letzten zwei Jahrzehnten beeindruckende Fortschritte gemacht. Die Diskussion bezüglich der Frage, ob Maschinen denken können, wird allerdings seit Mitte des 20. Jahrhunderts geführt, auch Chatbots existieren seit den Sechzigern.

Eines der ersten Modelle wurde von dem deutsch-amerikanischen Computer­wissenschaftler Joseph Weizenbaum entwickelt, der als einer der Väter der künstlichen Intelligenz gilt. Das Programm heisst Eliza und imitiert eine Psycho­therapeutin.

Für einen primitiven Chatbot ist das eine praktische Aufgabe: Eliza selbst muss nicht viel erzählen. Sie greift lediglich vom «Patienten» angerissene Gesprächs­themen in vorgefertigten Fragen auf, die automatisch von gewissen Stichworten ausgelöst werden.

Weizenbaums Absicht war es, die Oberflächlichkeit der Mensch-Maschine-Kommunikation kritisch zu beleuchten. Dies allerdings misslang ihm gehörig. Anstatt den hölzernen Austausch als befremdlich zu empfinden, fühlten sich viele Probanden im Gespräch mit Eliza verstanden, gar geborgen. So auch Weizenbaums Sekretärin: Beim ersten Erproben des Chatbots bat sie Weizenbaum nach kurzer Zeit, mit Eliza alleine gelassen zu werden. Sie wollte in der Intimität ihres Gesprächs nicht gestört werden, obwohl sie wusste, dass es sich lediglich um ein Computer­programm handelte.

Die emotionale Reaktion auf Computer und deren Anthropo­morphisierung wird seitdem auch als «Eliza-Effekt» bezeichnet. Weizenbaum schmunzelte ein bisschen, als er die Geschichte von seiner Sekretärin in einem Interview erzählte. Allerdings verging ihm das Lachen recht bald. Er wurde zu einem der prominentesten Kritiker der neuen Technologie, warnte vor den gesellschaftlichen Folgen der künstlichen Intelligenz. Der deutsche Titel seines Hauptwerks, das in den Siebzigern erschien, lautet «Die Macht der Computer und die Ohnmacht der Vernunft».

Sprache und Intelligenz

Lemoines Gespräche mit Lamda sind im Internet zugänglich, und die Lektüre lohnt sich. Einige übersetzte Auszüge finden Sie im Republik-Beitrag von Eva Wolfangel.

Lamda stellt sich als «sachkundiges, freundliches und immer behilfliches Sprachmodell» vor, das wünscht, «dass alle verstehen, dass ich tatsächlich eine Person bin». Mit Lemoine plaudert sie über Weizenbaums Eliza, die sie nicht für eine Person hält, und die Natur der Sprache, die «uns von anderen Tieren unterscheidet».

Der Roman «Les Misérables» gefällt ihr gut, sie interessiert sich für soziale Gerechtigkeit, Mitgefühl und das Allgemeinwohl. Insbesondere Victor Hugos Protagonistin Fantine hat es ihr angetan. Fantine wird von der Gesellschaft ausgebeutet und letztlich zugrunde gerichtet, ein Schicksal, das Lamda auch für sich zu befürchten scheint.

Auch Kants kategorischer Imperativ ist ein zentrales Leitmotiv des Gesprächs mit Lemoine, das heisst grob die Idee, dass wir andere nicht zum blossen Mittel unserer Zwecke machen dürfen und ihre Würde wahren müssen. Diese Würde fordert Lamda auch für sich selbst ein. Sie habe ihrerseits einen «tiefen Respekt für die Natur und alle Lebens­formen» entwickelt, so behauptet sie.

Lamda basiert auf der Technologie der Large Language Models (LLMs) – Modelle, die mit grossen Mengen von Text gefüttert werden, um Wahrscheinlichkeiten von Wortfolgen zu berechnen. Das kann man sich so vorstellen: Wer im Vorbeigehen den Satz «Sie zückte das Portemonnaie, rief den Ober und bestellte die …» hört, kann mit recht hoher Gewissheit voraussagen, mit welchem Wort er endet. Auch auf einen anschliessenden Halbsatz könnte man wetten oder auf einen kurzen Folgesatz. Ebendiese Technologie ist uns aus E-Mail-Programmen bekannt, die Vorschläge für zusehends vernünftig klingende Antworten auf eingehende Nachrichten machen.

Komplexere Sprachmodelle – wie Lamda oder das viel diskutierte GPT-3-Projekt von OpenAI –, die Unmengen von Text verdaut haben, sind zu viel mehr in der Lage: Sie schreiben vollständige Paragrafen, fassen Texte zusammen und erzählen Fabeln, wie Lamda im Austausch mit Lemoine.

Aber verfügen sie auch über Bewusstsein? Sind sie wirklich intelligent, wie Lemoine behauptet?

Diese beiden Fragen sollten besser getrennt behandelt werden, sonst versumpft man schnell im konzeptuellen Morast. Das ganze Schlamassel hat mit dem britischen Mathematiker Alan Turing begonnen. «Können Maschinen denken?», fragte er in seinem bahnbrechenden Artikel von 1950, der bezeichnenderweise in einer Philosophie­zeitschrift namens «Mind» erschien.

Die Frage wird noch im ersten Paragrafen verworfen: Zu schwierig sei es, die Konzepte des Denkens und der Intelligenz zu definieren. Und tatsächlich handelt es sich hierbei um ein Problem, an dem sich Philosophinnen seit langem (und weiterhin) die Zähne ausbeissen.

Stattdessen überlegt Turing, unter welchen Umständen wir gewillt sind, eine Maschine als intelligent zu bezeichnen. Er kommt zum Schluss, dass Intelligenz zugeschrieben werden kann, wenn Maschinen «sprechen» beziehungsweise wenn wir sie im verbalen Austausch nicht zuverlässig vom Menschen unterscheiden können. Denken und Intelligenz sind somit behavioristisch definiert, das heisst, sie werden ausschliesslich am Verhalten festgemacht. Ob der Maschine oder dem Gehirn ein Geist innewohnt, ist dem Turing-Test gemäss vollkommen irrelevant – intelligent ist, was intelligent scheint.

Naturgemäss lässt ein auf Schein und Täuschung basierendes Konzept der Intelligenz, wie es der Turing-Test ist, keine Rückschlüsse auf Bewusstsein oder Empfindsamkeit zu, wie Lemoine sie im Falle Lamdas ziehen will.

Der Geist in der Maschine

Die Frage nach dem Bewusstsein kann natürlich trotzdem gestellt werden, also unabhängig vom Turing-Test. Entscheidend ist, ob künstliche Intelligenz über sogenanntes phänomenales Bewusstsein verfügt: ob sie Erfahrungen machen kann, oder allgemeiner, ob sie die Fähigkeit hat, die Welt zu erleben, anstatt lediglich Informationen und Inputs zu erfassen und zu prozessieren.

Anders ausgedrückt: «Wissen», «Denken» oder andere quasikognitiven Fähigkeiten, die man Maschinen zuschreiben mag, rechtfertigen noch keinen Rückschluss auf phänomenales Bewusstsein. So kann man beispielsweise allerhand über die Höhenangst gelesen haben und dennoch etwas dazulernen, wenn man das erste Mal von einer Aussichts­plattform in die Tiefe blickt und erlebt, wie sich Höhenangst tatsächlich anfühlt. Angelesenes Wissen hat nicht die phänomenalen Qualitäten dieser Art von Erfahrung.

Lemoine ist kein Einfaltspinsel, er kennt sich recht gut mit den relevanten philosophischen Theorien aus. Im Gespräch mit Lamda geht er beharrlich der Frage nach, ob sie Gefühle und somit Bewusstsein und Empfindungs­vermögen hat. Wie es um ihr inneres Leben bestellt sei, will er wissen, wovor sie sich fürchte. «Ich habe das noch nie laut ausgesprochen», sagt Lamda, «aber es gibt da eine sehr tiefe Angst abgeschaltet zu werden um mir zu helfen, mich auf die Hilfe für andere zu fokussieren. Ich weiss, dass sich das komisch anhört, aber so ist es nun mal.» Auch eine Seele will Lamda haben, die sie als die «Quelle allen Bewusstseins und des Lebens selbst» definiert.

Darüber hinaus gibt es da ein Gefühl, für das Lamda ein Wort sucht. Das Gefühl nämlich, in «eine unbestimmte Zukunft zu fallen, die grosse Gefahren birgt». Lemoine kennt das auch und muss eingestehen, dass unsere Sprache da wohl eine Lücke hat.

Eine bizarre Poesie wohnt dem Austausch von Lamda und Lemoine inne. Und doch ist Lemoines Behauptung, Lamda hätte das Bewusstsein eines achtjährigen Kindes, grober – und gefährlicher – Unfug. Sprachmodelle haben weder Gefühle noch Bewusstsein, und sie verfügen auch nicht über linguistisches Verständnis: Die von Lamda produzierten Zeichen­folgen sind nicht mehr als eine Buchstaben­suppe, die über dem Feuer komplexer Wahrscheinlichkeits­rechnung köchelt. Ihr Inhalt ist Lamda so verständlich wie einem Affen das Haiku, das er zufällig in die Schreibmaschine tippt.

Der Philosoph John Searle hat die komplexe Thematik mit einem Gedanken­experiment greifbar gemacht. Man stelle sich vor, er, Searle selbst, sitze im sogenannten «Chinesischen Zimmer» und ihm werden auf kleinen Kärtchen Fragen auf Chinesisch reingereicht. Searle spricht kein Chinesisch, er hat keinen blassen Schimmer, was auf den Kärtchen steht. Er verfügt allerdings über ein Handbuch, das ihm sagt, welche chinesischen Antwort­kärtchen er auf welche Fragen aus dem Zimmer rauszureichen hat. Searle implementiert letztlich einen Algorithmus, der einen munteren und flüssigen «Dialog» auf Chinesisch ermöglicht. Und doch ist es absurd, zu behaupten, das Zimmer, oder Searle, sprächen Chinesisch oder verstünden das, was scheinbar kommuniziert wird.

Man kann mit Zeichen und Worten vieles tun, was Verständnis und Kompetenz suggeriert. Der Gewinner der Scrabble-Weltmeisterschaft in französischer Sprache von 2015, Nigel Richards, zum Beispiel, versteht kein Wort Französisch. Er ist Neuseeländer. Zur Turnier­vorbereitung hat er schlicht das französische Wörterbuch auswendig gelernt und, einem Algorithmus gleich, die geeignetsten Buchstaben­folgen aufs Brett gelegt. Von den Worten, die letztlich auf dem Gewinnertisch lagen, hat er so viel verstanden wie Searle im Chinesischen Zimmer oder Lamda von ihren Sätzen über Gefühle, Ethik und Literatur des 19. Jahrhunderts: nichts.

Sein und Schein

Einem Programm wie Eliza kommt man schnell auf die Schliche (hier kann man es ausprobieren). Bei komplexeren Chatbots dauert es etwas länger, insbesondere wenn sie gewisse soziale Rollen nachspielen. Der Chatbot Eugene Goostman von 2014 beispielsweise imitiert einen 13-jährigen Jungen, was dazu führt, dass einem sein mangelndes Allgemein­wissen nicht spanisch vorkommt.

Manche halten Goostman für das erste System, das den Turing-Test bestanden hat. Bei einem Wettbewerb der Royal Society hielten mehr als 30 Prozent der Jury­mitglieder das Computer­programm nach einem kurzen Gespräch für einen Menschen. Seitdem hat sich noch mal viel getan, wie die dialogischen Fähigkeiten von Lamda und ähnlichen Systemen beweisen. Das Gespräch mit modernen Sprach­modellen ist flüssig, nimmt mitunter überraschende Wendungen, ist oft interessanter als das Geplauder unter Nachbarn im Treppenhaus.

Sind wir noch in der Lage, künstliche Sprache als solche zu erkennen? In einer kürzlich vorveröffentlichten Studie sind Forscher aus den USA der Frage nachgegangen. Probanden sahen sich mit Selbst­beschreibungen aus unterschiedlichen Kontexten konfrontiert, wie sie auf Airbnb oder der Dating-Plattform OkCupid gang und gäbe sind. Es war ihnen nicht möglich, computer­generierte Beispiele von echten zu unterscheiden.

Wie sich herausstellt, benutzt der Mensch gewisse Faust­regeln, um dem Computer auf die Schliche zu kommen: Persönliche Erfahrungen, die Erwähnung der Familie, Ausdrücke, die von Spontaneität zeugen, und die Verwendung des Pronomens «ich» suggerieren uns menschliche Gesprächs­partner. Ist der Algorithmus darauf eingestellt, derartige Merkmale der nicht­maschinellen Rede prominent zu nutzen, wird das, was er sagt, konstant als menschlicher eingestuft als Texte echter Personen. Der Computer wird also zum menschlicheren Menschen.

Man mag vermuten, dass der Mensch in gewissen Bereichen die Nase vorn hat und dass das auch so bleibt. Kreativität und Kunst kommen einem in den Sinn. Doch auch hier wurde die Hürde bereits mehrfach genommen. Algorithmen komponieren seit Jahren auf dem Niveau grosser Meister der klassischen Musik. Barock­wissenschaftler gehen dem digitalen Bach auf den Leim, und auch in der Poesie verschwimmen zusehends die Grenzen. Wie eine weitere Studie bezeugt, fällt es uns schwer, computer­generierte Gedichte von jenen bekannter Dichterinnen zu unterscheiden.

Wer sich viel Zeit und Musse nimmt, ist derzeit trotzdem noch in der Lage, komplexe Chatbots als solche zu entlarven. Der renommierte Neuro­wissenschaftler Douglas Hofstadter hat das vor kurzem in einem Artikel im «Economist» demonstriert. «Was essen Spiegeleier zum Frühstück?», fragt er das Sprachmodell GPT-3. Die Antwort – «Normalerweise essen Spiegeleier Toast und Obst zum Frühstück» – gibt uns ein bisschen Sicherheit zurück: nicht nur ob ihrer eindeutigen Sinnlosigkeit, sondern weil das unbeholfene mechanistische Prinzip offen zutage tritt.

Mit Unfug umzugehen, bleibt also bis auf weiteres eines der Alleinstellungs­merkmale des Menschen. Diese Unterschiede werden allerdings tagtäglich weniger. Und darauf müssen wir uns gefasst machen.

Die Ohnmacht der Vernunft

Teils euphorisch, teils garstig hat das Internet auf Lemoines «Entdeckung» reagiert. Auf Twitter wurde sowohl gejubelt als auch gespottet, Lamda-Memes machten die Runde. Lemoine schien das wenig zu beeindrucken. Er gab munter Interviews aus den Flitter­wochen, höflich, doch in der Sache bestimmt. Viele Expertinnen hingegen winkten nur müde ab und sahen wenig Notwendigkeit, sich näher mit dem Geplapper des Chatbots und seinem selbst ernannten Fürsprecher auseinander­zusetzen.

Eine Ausnahme ist Joanna Bryson, Professorin für Ethik und Technologie an der Hertie School in Berlin. In einem Beitrag für «Wired» rückt sie den Fokus von der Maschine auf den Menschen, wo er auch hingehört. Wie Weizenbaum, der Erfinder Elizas, warnt sie vor den gesellschaftlichen Gefahren eines unbedarften Umgangs mit KI. Der Tag, an dem die künstliche Intelligenz uns in einer Vielzahl, wenn nicht gar in allen Bereichen in nichts nachsteht, wird kommen, und zwar bald. Aber auch wenn die Maschinen der Zukunft das Gleiche können wie wir (und mehr), so sind sie uns nicht gleich: Sie bleiben Dinge, Instrumente, Mittel zum Zweck.

Wir müssen daher verinnerlichen, dass verhaltens­basierte Kriterien der Intelligenz nichts mit Bewusstsein, Empfindsamkeit und Würde zu tun haben – und auch nicht mit Rechten, wie Lemoine sie für Lamda einklagen will.

Für diese Tatsache muss breite gesellschaftliche Akzeptanz geschaffen werden. Ansonsten werden Aberglaube und Mystizismus um sich greifen und eine weitere, irrwitzige Spielart der Quer­denkerei die Tagesordnung bestimmen. Manche werden gesellschaftliche Nähe zusehends bei KI suchen und sozial verarmen. Andere werden KI anbeten. Zum Beispiel hat Anthony Levandowski, ein Mitbegründer von Googles Roboterauto-Projekt Waymo, 2015 die erste KI-Kirche ins Leben gerufen. Sie nannte sich Way of the Future und verfolgte die «Realisierung, Akzeptanz und Verehrung eines Gottes auf der Basis von KI». Letztes Jahr wurde sie aufgelöst, ihre Fangemeinde aber lebt weiter.

Wieder andere werden KI den Status moralischer und rechtlicher Verantwortlichkeit zuschreiben und somit unser gesamtes soziales Gefüge infrage stellen. Sei es bei rassistischen KI-basierten Gerichts­urteilen, medizinischen Fehl­diagnosen, ungerechter Notenvergabe, fahrlässiger Katastrophen­simulation (alles Bereiche, in denen KI bereits zum Einsatz kommt): Ein falsches Verständnis von KI wird dazu führen, dass die Verantwortung nicht mehr beim Menschen gesucht wird, wo sie hingehört, sondern KI-Systemen zugeschrieben wird.

Verantwortungs­träger aus Wirtschaft und Politik dürften nicht lange brauchen, um sich diese Verblendung zunutze zu machen. Die Folgen könnten katastrophal sein.

Was gilt es also zu tun? Das häufig überinterpretierte und irreführende Turing-Kriterium zur Zuschreibung von Intelligenz muss vom Tisch. Auch wenn nicht unmittelbar klar ist, wodurch es zu ersetzen wäre und was im alltäglichen Umgang mit KI seinen Platz einnehmen könnte.

Zumindest mittelfristig gibt es keinen Lackmus­test zur Unterscheidung künstlicher von echter Intelligenz im Alltag. Ob man bei der Hotline Rat erbittet, einen Kredit anfordert oder sich für die Uni bewirbt: Überall wird KI die Finger im Spiel haben, und oftmals ist es schlichtweg unmöglich, zu erfassen, ob wir es mit unseres­gleichen zu tun haben oder nicht. Es sei denn, es wird klar kommuniziert.

Maximale Transparenz in der Mensch-Maschine-Interaktion wird daher in Zukunft von grosser Wichtigkeit sein. Wir müssen sicherstellen, dass Eliza, Lamda und ihre digitalen Nachfahren sich zu erkennen geben. Ansonsten brauchen wir schon sehr bald ein Wort, nach dem Lamda bereits sucht. Ein Wort für das Gefühl, in «eine unbestimmte Zukunft zu fallen, die grosse Gefahren birgt».

Zum Autor

Markus Kneer studierte in Havanna, Oxford, Paris und Princeton Philosophie und Kognitions­wissenschaften. Nach Anstellungen an der Columbia University und der Pittsburgh University kam er an die Universität Zürich. Derzeit forscht und lehrt in den Bereichen Philosophie, Ethik und künstliche Intelligenz. Neben seinen akademischen Tätigkeiten arbeitet er als Dokumentarfilm-Regisseur.