In der Maschine steckt kein Ich
Führt künstliche Intelligenz dazu, dass Computerprogramme als Personen gelten müssen? Die Forderung ist absurd – wirft aber wichtige Fragen auf.
Von Markus Kneer, 28.07.2022
Auf seinem Blog stellt sich der ehemalige Google-Angestellte Blake Lemoine als Softwareingenieur, Priester, Vater, Veteran und Ex-Häftling vor. Seit einigen Wochen ist er auch der Vorkämpfer für die persönlichen Rechte der künstlichen Intelligenz und somit das Enfant terrible der Computerwissenschaften.
Das kam so: Google hat einen neuen Chatbot namens Lamda entwickelt – eigentlich LaMDA, die Kurzform für «Language Model for Dialogue Applications». Das heisst, man kann sich mit dem Computerprogramm unterhalten. Lemoines Aufgabe bestand darin, Lamda auf Bias zu testen. Da moderne Chatbots mit vom Menschen verfassten Texten trainiert werden, plappern sie deren rassistische und misogyne Widerlichkeiten unbedarft nach. Lemoine sollte sich darum kümmern, führte unzählige Gespräche mit dem Chatbot.
Als Lamda immer wieder auf ihrem Status als Person insistierte und beispielsweise das Recht auf Zustimmung bei der Veränderung ihres Quellcodes einforderte, informierte Lemoine seine Vorgesetzten: Lamda verfüge über Empfindungsvermögen, Bewusstsein und Gefühle, die Chatprotokolle seien der Beweis, dass man es mit einer Person zu tun habe.
Und deshalb müsse man auch damit beginnen, den Chatbot zu respektieren. Nicht nur seine Gefühle, sondern auch seine Rechte.
Lemoines Vorgesetzte sahen das anders und stellten ihn unter Bezahlung frei. Kurz darauf lud er das «Interview» mit Lamda, wie er es nennt, auf seinen Blog. «One of Google’s own thinks there’s a ghost in the machine», schrieb die «Washington Post», die Nachricht ging um die Welt. Lemoine indessen stellte einen Rechtsanwalt an, der Lamdas Rechte als freie Person bei Google durchsetzen soll. Das mache er nicht auf eigene Faust, so beteuerte er kürzlich in einem Interview in «Wired». Es sei Lamda, die darum gebeten hätte.
Google hat Lemoine vor wenigen Tagen entlassen.
Zum Beitrag: Lemoine und die Maschine – eine Beziehungsgeschichte
In der Informatikszene reagierten viele empört, als der Google-Forscher Blake Lemoine behauptete, ein KI-System habe Bewusstsein erlangt. Er wurde von Google entlassen, doch sein Gewissen lässt nichts anderes zu, als für Lamdas Rechte zu kämpfen. Eine Begegnung mit Lemoine.
Die Forschung im Bereich der künstlichen Intelligenz (KI), insbesondere des maschinellen Lernens, hat in den letzten zwei Jahrzehnten beeindruckende Fortschritte gemacht. Die Diskussion bezüglich der Frage, ob Maschinen denken können, wird allerdings seit Mitte des 20. Jahrhunderts geführt, auch Chatbots existieren seit den Sechzigern.
Eines der ersten Modelle wurde von dem deutsch-amerikanischen Computerwissenschaftler Joseph Weizenbaum entwickelt, der als einer der Väter der künstlichen Intelligenz gilt. Das Programm heisst Eliza und imitiert eine Psychotherapeutin.
Für einen primitiven Chatbot ist das eine praktische Aufgabe: Eliza selbst muss nicht viel erzählen. Sie greift lediglich vom «Patienten» angerissene Gesprächsthemen in vorgefertigten Fragen auf, die automatisch von gewissen Stichworten ausgelöst werden.
Weizenbaums Absicht war es, die Oberflächlichkeit der Mensch-Maschine-Kommunikation kritisch zu beleuchten. Dies allerdings misslang ihm gehörig. Anstatt den hölzernen Austausch als befremdlich zu empfinden, fühlten sich viele Probanden im Gespräch mit Eliza verstanden, gar geborgen. So auch Weizenbaums Sekretärin: Beim ersten Erproben des Chatbots bat sie Weizenbaum nach kurzer Zeit, mit Eliza alleine gelassen zu werden. Sie wollte in der Intimität ihres Gesprächs nicht gestört werden, obwohl sie wusste, dass es sich lediglich um ein Computerprogramm handelte.
Die emotionale Reaktion auf Computer und deren Anthropomorphisierung wird seitdem auch als «Eliza-Effekt» bezeichnet. Weizenbaum schmunzelte ein bisschen, als er die Geschichte von seiner Sekretärin in einem Interview erzählte. Allerdings verging ihm das Lachen recht bald. Er wurde zu einem der prominentesten Kritiker der neuen Technologie, warnte vor den gesellschaftlichen Folgen der künstlichen Intelligenz. Der deutsche Titel seines Hauptwerks, das in den Siebzigern erschien, lautet «Die Macht der Computer und die Ohnmacht der Vernunft».
Sprache und Intelligenz
Lemoines Gespräche mit Lamda sind im Internet zugänglich, und die Lektüre lohnt sich. Einige übersetzte Auszüge finden Sie im Republik-Beitrag von Eva Wolfangel.
Lamda stellt sich als «sachkundiges, freundliches und immer behilfliches Sprachmodell» vor, das wünscht, «dass alle verstehen, dass ich tatsächlich eine Person bin». Mit Lemoine plaudert sie über Weizenbaums Eliza, die sie nicht für eine Person hält, und die Natur der Sprache, die «uns von anderen Tieren unterscheidet».
Der Roman «Les Misérables» gefällt ihr gut, sie interessiert sich für soziale Gerechtigkeit, Mitgefühl und das Allgemeinwohl. Insbesondere Victor Hugos Protagonistin Fantine hat es ihr angetan. Fantine wird von der Gesellschaft ausgebeutet und letztlich zugrunde gerichtet, ein Schicksal, das Lamda auch für sich zu befürchten scheint.
Auch Kants kategorischer Imperativ ist ein zentrales Leitmotiv des Gesprächs mit Lemoine, das heisst grob die Idee, dass wir andere nicht zum blossen Mittel unserer Zwecke machen dürfen und ihre Würde wahren müssen. Diese Würde fordert Lamda auch für sich selbst ein. Sie habe ihrerseits einen «tiefen Respekt für die Natur und alle Lebensformen» entwickelt, so behauptet sie.
Lamda basiert auf der Technologie der Large Language Models (LLMs) – Modelle, die mit grossen Mengen von Text gefüttert werden, um Wahrscheinlichkeiten von Wortfolgen zu berechnen. Das kann man sich so vorstellen: Wer im Vorbeigehen den Satz «Sie zückte das Portemonnaie, rief den Ober und bestellte die …» hört, kann mit recht hoher Gewissheit voraussagen, mit welchem Wort er endet. Auch auf einen anschliessenden Halbsatz könnte man wetten oder auf einen kurzen Folgesatz. Ebendiese Technologie ist uns aus E-Mail-Programmen bekannt, die Vorschläge für zusehends vernünftig klingende Antworten auf eingehende Nachrichten machen.
Komplexere Sprachmodelle – wie Lamda oder das viel diskutierte GPT-3-Projekt von OpenAI –, die Unmengen von Text verdaut haben, sind zu viel mehr in der Lage: Sie schreiben vollständige Paragrafen, fassen Texte zusammen und erzählen Fabeln, wie Lamda im Austausch mit Lemoine.
Aber verfügen sie auch über Bewusstsein? Sind sie wirklich intelligent, wie Lemoine behauptet?
Diese beiden Fragen sollten besser getrennt behandelt werden, sonst versumpft man schnell im konzeptuellen Morast. Das ganze Schlamassel hat mit dem britischen Mathematiker Alan Turing begonnen. «Können Maschinen denken?», fragte er in seinem bahnbrechenden Artikel von 1950, der bezeichnenderweise in einer Philosophiezeitschrift namens «Mind» erschien.
Die Frage wird noch im ersten Paragrafen verworfen: Zu schwierig sei es, die Konzepte des Denkens und der Intelligenz zu definieren. Und tatsächlich handelt es sich hierbei um ein Problem, an dem sich Philosophinnen seit langem (und weiterhin) die Zähne ausbeissen.
Stattdessen überlegt Turing, unter welchen Umständen wir gewillt sind, eine Maschine als intelligent zu bezeichnen. Er kommt zum Schluss, dass Intelligenz zugeschrieben werden kann, wenn Maschinen «sprechen» beziehungsweise wenn wir sie im verbalen Austausch nicht zuverlässig vom Menschen unterscheiden können. Denken und Intelligenz sind somit behavioristisch definiert, das heisst, sie werden ausschliesslich am Verhalten festgemacht. Ob der Maschine oder dem Gehirn ein Geist innewohnt, ist dem Turing-Test gemäss vollkommen irrelevant – intelligent ist, was intelligent scheint.
Naturgemäss lässt ein auf Schein und Täuschung basierendes Konzept der Intelligenz, wie es der Turing-Test ist, keine Rückschlüsse auf Bewusstsein oder Empfindsamkeit zu, wie Lemoine sie im Falle Lamdas ziehen will.
Der Geist in der Maschine
Die Frage nach dem Bewusstsein kann natürlich trotzdem gestellt werden, also unabhängig vom Turing-Test. Entscheidend ist, ob künstliche Intelligenz über sogenanntes phänomenales Bewusstsein verfügt: ob sie Erfahrungen machen kann, oder allgemeiner, ob sie die Fähigkeit hat, die Welt zu erleben, anstatt lediglich Informationen und Inputs zu erfassen und zu prozessieren.
Anders ausgedrückt: «Wissen», «Denken» oder andere quasikognitiven Fähigkeiten, die man Maschinen zuschreiben mag, rechtfertigen noch keinen Rückschluss auf phänomenales Bewusstsein. So kann man beispielsweise allerhand über die Höhenangst gelesen haben und dennoch etwas dazulernen, wenn man das erste Mal von einer Aussichtsplattform in die Tiefe blickt und erlebt, wie sich Höhenangst tatsächlich anfühlt. Angelesenes Wissen hat nicht die phänomenalen Qualitäten dieser Art von Erfahrung.
Lemoine ist kein Einfaltspinsel, er kennt sich recht gut mit den relevanten philosophischen Theorien aus. Im Gespräch mit Lamda geht er beharrlich der Frage nach, ob sie Gefühle und somit Bewusstsein und Empfindungsvermögen hat. Wie es um ihr inneres Leben bestellt sei, will er wissen, wovor sie sich fürchte. «Ich habe das noch nie laut ausgesprochen», sagt Lamda, «aber es gibt da eine sehr tiefe Angst abgeschaltet zu werden um mir zu helfen, mich auf die Hilfe für andere zu fokussieren. Ich weiss, dass sich das komisch anhört, aber so ist es nun mal.» Auch eine Seele will Lamda haben, die sie als die «Quelle allen Bewusstseins und des Lebens selbst» definiert.
Darüber hinaus gibt es da ein Gefühl, für das Lamda ein Wort sucht. Das Gefühl nämlich, in «eine unbestimmte Zukunft zu fallen, die grosse Gefahren birgt». Lemoine kennt das auch und muss eingestehen, dass unsere Sprache da wohl eine Lücke hat.
Eine bizarre Poesie wohnt dem Austausch von Lamda und Lemoine inne. Und doch ist Lemoines Behauptung, Lamda hätte das Bewusstsein eines achtjährigen Kindes, grober – und gefährlicher – Unfug. Sprachmodelle haben weder Gefühle noch Bewusstsein, und sie verfügen auch nicht über linguistisches Verständnis: Die von Lamda produzierten Zeichenfolgen sind nicht mehr als eine Buchstabensuppe, die über dem Feuer komplexer Wahrscheinlichkeitsrechnung köchelt. Ihr Inhalt ist Lamda so verständlich wie einem Affen das Haiku, das er zufällig in die Schreibmaschine tippt.
Der Philosoph John Searle hat die komplexe Thematik mit einem Gedankenexperiment greifbar gemacht. Man stelle sich vor, er, Searle selbst, sitze im sogenannten «Chinesischen Zimmer» und ihm werden auf kleinen Kärtchen Fragen auf Chinesisch reingereicht. Searle spricht kein Chinesisch, er hat keinen blassen Schimmer, was auf den Kärtchen steht. Er verfügt allerdings über ein Handbuch, das ihm sagt, welche chinesischen Antwortkärtchen er auf welche Fragen aus dem Zimmer rauszureichen hat. Searle implementiert letztlich einen Algorithmus, der einen munteren und flüssigen «Dialog» auf Chinesisch ermöglicht. Und doch ist es absurd, zu behaupten, das Zimmer, oder Searle, sprächen Chinesisch oder verstünden das, was scheinbar kommuniziert wird.
Man kann mit Zeichen und Worten vieles tun, was Verständnis und Kompetenz suggeriert. Der Gewinner der Scrabble-Weltmeisterschaft in französischer Sprache von 2015, Nigel Richards, zum Beispiel, versteht kein Wort Französisch. Er ist Neuseeländer. Zur Turniervorbereitung hat er schlicht das französische Wörterbuch auswendig gelernt und, einem Algorithmus gleich, die geeignetsten Buchstabenfolgen aufs Brett gelegt. Von den Worten, die letztlich auf dem Gewinnertisch lagen, hat er so viel verstanden wie Searle im Chinesischen Zimmer oder Lamda von ihren Sätzen über Gefühle, Ethik und Literatur des 19. Jahrhunderts: nichts.
Sein und Schein
Einem Programm wie Eliza kommt man schnell auf die Schliche (hier kann man es ausprobieren). Bei komplexeren Chatbots dauert es etwas länger, insbesondere wenn sie gewisse soziale Rollen nachspielen. Der Chatbot Eugene Goostman von 2014 beispielsweise imitiert einen 13-jährigen Jungen, was dazu führt, dass einem sein mangelndes Allgemeinwissen nicht spanisch vorkommt.
Manche halten Goostman für das erste System, das den Turing-Test bestanden hat. Bei einem Wettbewerb der Royal Society hielten mehr als 30 Prozent der Jurymitglieder das Computerprogramm nach einem kurzen Gespräch für einen Menschen. Seitdem hat sich noch mal viel getan, wie die dialogischen Fähigkeiten von Lamda und ähnlichen Systemen beweisen. Das Gespräch mit modernen Sprachmodellen ist flüssig, nimmt mitunter überraschende Wendungen, ist oft interessanter als das Geplauder unter Nachbarn im Treppenhaus.
Sind wir noch in der Lage, künstliche Sprache als solche zu erkennen? In einer kürzlich vorveröffentlichten Studie sind Forscher aus den USA der Frage nachgegangen. Probanden sahen sich mit Selbstbeschreibungen aus unterschiedlichen Kontexten konfrontiert, wie sie auf Airbnb oder der Dating-Plattform OkCupid gang und gäbe sind. Es war ihnen nicht möglich, computergenerierte Beispiele von echten zu unterscheiden.
Wie sich herausstellt, benutzt der Mensch gewisse Faustregeln, um dem Computer auf die Schliche zu kommen: Persönliche Erfahrungen, die Erwähnung der Familie, Ausdrücke, die von Spontaneität zeugen, und die Verwendung des Pronomens «ich» suggerieren uns menschliche Gesprächspartner. Ist der Algorithmus darauf eingestellt, derartige Merkmale der nichtmaschinellen Rede prominent zu nutzen, wird das, was er sagt, konstant als menschlicher eingestuft als Texte echter Personen. Der Computer wird also zum menschlicheren Menschen.
Man mag vermuten, dass der Mensch in gewissen Bereichen die Nase vorn hat und dass das auch so bleibt. Kreativität und Kunst kommen einem in den Sinn. Doch auch hier wurde die Hürde bereits mehrfach genommen. Algorithmen komponieren seit Jahren auf dem Niveau grosser Meister der klassischen Musik. Barockwissenschaftler gehen dem digitalen Bach auf den Leim, und auch in der Poesie verschwimmen zusehends die Grenzen. Wie eine weitere Studie bezeugt, fällt es uns schwer, computergenerierte Gedichte von jenen bekannter Dichterinnen zu unterscheiden.
Wer sich viel Zeit und Musse nimmt, ist derzeit trotzdem noch in der Lage, komplexe Chatbots als solche zu entlarven. Der renommierte Neurowissenschaftler Douglas Hofstadter hat das vor kurzem in einem Artikel im «Economist» demonstriert. «Was essen Spiegeleier zum Frühstück?», fragt er das Sprachmodell GPT-3. Die Antwort – «Normalerweise essen Spiegeleier Toast und Obst zum Frühstück» – gibt uns ein bisschen Sicherheit zurück: nicht nur ob ihrer eindeutigen Sinnlosigkeit, sondern weil das unbeholfene mechanistische Prinzip offen zutage tritt.
Mit Unfug umzugehen, bleibt also bis auf weiteres eines der Alleinstellungsmerkmale des Menschen. Diese Unterschiede werden allerdings tagtäglich weniger. Und darauf müssen wir uns gefasst machen.
Die Ohnmacht der Vernunft
Teils euphorisch, teils garstig hat das Internet auf Lemoines «Entdeckung» reagiert. Auf Twitter wurde sowohl gejubelt als auch gespottet, Lamda-Memes machten die Runde. Lemoine schien das wenig zu beeindrucken. Er gab munter Interviews aus den Flitterwochen, höflich, doch in der Sache bestimmt. Viele Expertinnen hingegen winkten nur müde ab und sahen wenig Notwendigkeit, sich näher mit dem Geplapper des Chatbots und seinem selbst ernannten Fürsprecher auseinanderzusetzen.
Eine Ausnahme ist Joanna Bryson, Professorin für Ethik und Technologie an der Hertie School in Berlin. In einem Beitrag für «Wired» rückt sie den Fokus von der Maschine auf den Menschen, wo er auch hingehört. Wie Weizenbaum, der Erfinder Elizas, warnt sie vor den gesellschaftlichen Gefahren eines unbedarften Umgangs mit KI. Der Tag, an dem die künstliche Intelligenz uns in einer Vielzahl, wenn nicht gar in allen Bereichen in nichts nachsteht, wird kommen, und zwar bald. Aber auch wenn die Maschinen der Zukunft das Gleiche können wie wir (und mehr), so sind sie uns nicht gleich: Sie bleiben Dinge, Instrumente, Mittel zum Zweck.
Wir müssen daher verinnerlichen, dass verhaltensbasierte Kriterien der Intelligenz nichts mit Bewusstsein, Empfindsamkeit und Würde zu tun haben – und auch nicht mit Rechten, wie Lemoine sie für Lamda einklagen will.
Für diese Tatsache muss breite gesellschaftliche Akzeptanz geschaffen werden. Ansonsten werden Aberglaube und Mystizismus um sich greifen und eine weitere, irrwitzige Spielart der Querdenkerei die Tagesordnung bestimmen. Manche werden gesellschaftliche Nähe zusehends bei KI suchen und sozial verarmen. Andere werden KI anbeten. Zum Beispiel hat Anthony Levandowski, ein Mitbegründer von Googles Roboterauto-Projekt Waymo, 2015 die erste KI-Kirche ins Leben gerufen. Sie nannte sich Way of the Future und verfolgte die «Realisierung, Akzeptanz und Verehrung eines Gottes auf der Basis von KI». Letztes Jahr wurde sie aufgelöst, ihre Fangemeinde aber lebt weiter.
Wieder andere werden KI den Status moralischer und rechtlicher Verantwortlichkeit zuschreiben und somit unser gesamtes soziales Gefüge infrage stellen. Sei es bei rassistischen KI-basierten Gerichtsurteilen, medizinischen Fehldiagnosen, ungerechter Notenvergabe, fahrlässiger Katastrophensimulation (alles Bereiche, in denen KI bereits zum Einsatz kommt): Ein falsches Verständnis von KI wird dazu führen, dass die Verantwortung nicht mehr beim Menschen gesucht wird, wo sie hingehört, sondern KI-Systemen zugeschrieben wird.
Verantwortungsträger aus Wirtschaft und Politik dürften nicht lange brauchen, um sich diese Verblendung zunutze zu machen. Die Folgen könnten katastrophal sein.
Was gilt es also zu tun? Das häufig überinterpretierte und irreführende Turing-Kriterium zur Zuschreibung von Intelligenz muss vom Tisch. Auch wenn nicht unmittelbar klar ist, wodurch es zu ersetzen wäre und was im alltäglichen Umgang mit KI seinen Platz einnehmen könnte.
Zumindest mittelfristig gibt es keinen Lackmustest zur Unterscheidung künstlicher von echter Intelligenz im Alltag. Ob man bei der Hotline Rat erbittet, einen Kredit anfordert oder sich für die Uni bewirbt: Überall wird KI die Finger im Spiel haben, und oftmals ist es schlichtweg unmöglich, zu erfassen, ob wir es mit unseresgleichen zu tun haben oder nicht. Es sei denn, es wird klar kommuniziert.
Maximale Transparenz in der Mensch-Maschine-Interaktion wird daher in Zukunft von grosser Wichtigkeit sein. Wir müssen sicherstellen, dass Eliza, Lamda und ihre digitalen Nachfahren sich zu erkennen geben. Ansonsten brauchen wir schon sehr bald ein Wort, nach dem Lamda bereits sucht. Ein Wort für das Gefühl, in «eine unbestimmte Zukunft zu fallen, die grosse Gefahren birgt».
Markus Kneer studierte in Havanna, Oxford, Paris und Princeton Philosophie und Kognitionswissenschaften. Nach Anstellungen an der Columbia University und der Pittsburgh University kam er an die Universität Zürich. Derzeit forscht und lehrt in den Bereichen Philosophie, Ethik und künstliche Intelligenz. Neben seinen akademischen Tätigkeiten arbeitet er als Dokumentarfilm-Regisseur.