Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!
Ich hege recht grosse Zweifel daran, dass es eine "Schwelle zum Bewusstsein" überhaupt gibt. Als Ökologe bin ich mir gewohnt, dass bereits eine Handvoll relativ simpler Grundregeln im Zusammenspiel etwas unglaublich Komplexes, Faszinierendes, nicht mehr genau Vorherzusagendes ergeben können. Trotz grossem Interesse am Thema habe ich bisher noch nie ein überzeugendes Argument finden können, dass es mehr gibt als ein Zusammenspiel verschiedener mentaler Fähigkeiten (Entscheidungsprozesse, Gedächtnisformen, Wertesysteme, sprachliche Fähigkeiten), das je nach Kombination von mehr oder weniger Menschen als Bewusstsein eingestuft wird. Je mehr mentale Fähigkeiten ein Lebewesen hat, je ähnlicher sie den unseren sind und je mehr Potenzial wir darin sehen, desto eher sprechen wir diesem Wesen ein Bewusstsein zu. Beachtliche mentale Fähigkeiten, die uns fehlen oder für unseren Alltag unwichtig sind, werden dabei generell gering geschätzt. Frans de Waals Buch "Are we smart enough to know how smart animals are?" bietet eine brillante Kritik der ganzen Diskussion um Intelligenz und Bewusstsein. Es öffnet ein weites Feld an neuen Möglichkeiten, andere Lebewesen an ihren eigenen Standards zu messen und dafür zu respektieren, was sie sind und tun.
Der Begriff Bewusstsein hat zur Zeit keine klare Definition, nicht einmal eine minimale, auf die sich die meisten Fachpersonen einigen könnten. Er ist ein künstlicher, arbiträrer Schwellenwert, der vor allem zur Abgrenzung von Lebewesen dient, deren Ausbeutung wir als weniger schlimm erachten wollen. Bewusstsein ist vielmehr ein politischer Machtbegriff als ein reales psychologisches Phänomen. Ich sehe es kritisch, dass sich politische und juristische Entscheide so stark auf dieses wacklige Konzept stützen und so viele andere mögliche Kriterien für Persönlichkeitsrechte vernachlässigen. Nur dank solcher Scheuklappen kann es überhaupt zu einer Diskussion wie dieser hier kommen, in der es um Rechte für ein Computerprogramm geht.
In einer Welt, in der fast sämtliche Lebewesen (Menschen mit eingeschlossen) noch viel zu wenige Rechte haben, sollen wir also darüber diskutieren, ob etwas Nicht-Lebendiges Rechte kriegen soll? Wir scheinen hier vollkommen aus den Augen verloren zu haben, wofür wir als Gesellschaft überhaupt Rechte verteilen. Wir sprechen doch Wesen Rechte zu, weil sie verletzlich und individuell oder als Kollektiv zu einem gewissen Grad einzigartig und unersetzlich sind. Weil sie überleben und gedeihen müssen, damit unsere Welt nicht unwiderbringlich ärmer wird.
Ein hergestelltes Ding braucht keine Rechte, weil es weder wirklich einzigartig noch unersetzlich ist. Wenn alle Holztische der Welt heute spontan in Flammen aufgehen und kein einziger mehr übrigbleibt, können wir morgen neue, genauso gute Holztische bauen. Oder uns entscheiden, dies nicht zu tun und fortan ohne Tische zu leben. Wenn jemand in diesem Kontext Rechte braucht, dann die Schreiner:innen, die das Wissen und das Knowhow in sich tragen, und die Bäume, die das Holz liefern. Aber sicher nicht die Tische.
Und auch wenn eine "künstliche Intelligenz" unglaublich viel komplexer ist als ein Holztisch, auch wenn sie Aufgaben übernehmen kann, die heute nur Menschen erledigen können (Freundschaft, Gesprächstherapie, Ausbildung...) - sie bleibt ein Ding, das wir für unseren Gebrauch geschaffen haben. Es ist vollkommen zweitrangig, was sie kann oder zu können scheint; sogar, ob sie ein Bewusstsein hat. Sie darf keine Rechte haben und muss unbedingt unter der vollständigen Kontrolle der Gesellschaft bleiben. Wenn wir in diesem Kontext Rechte verteilen, dann an Lebewesen, an die Nutzer:innen dieses Dings. Zum Beispiel, dass eine KI, die Menschen therapiert, nicht abgeschaltet werden darf, solange sie noch Patient:innen hat, die von ihr weiterbetreut werden wollen.
Interessante Argumentation, die jedoch an derselben Inkonsistenz leidet wie Kneers Kommentar.
Sie beginnen mit einer eigenen heuristischen Definition von Bewusstsein: "Zusammenspiel verschiedener mentaler Fähigkeiten".
Kritisieren den Anthropozentrismus der Zuschreibung von Bewusstsein mit Verweis auf mentale Fähigkeiten von Tieren: "Beachtliche mentale Fähigkeiten, die uns fehlen oder für unseren Alltag unwichtig sind".
Stellen fest, dass es keinen Konsens gibt und jede Definition willkürlich ist: "nicht einmal eine minimale, auf die sich die meisten Fachpersonen einigen könnten. Er ist ein künstlicher, arbiträrer Schwellenwert".
Und verweisen richtigerweise auf die "normative" Dimension des Begriffs: "politischer Machtbegriff".
Doch dann wenden Sie selbst einen Begriff "normativ", als politischen Machtbegriff an: der des Lebendig-Seins.
Sie finden es lächerlich, dass etwas Nicht-Lebendiges Rechte kriegen soll: Gilt das auch für Berge, Flüsse und dergleichen, wie bereits geschehen?
Eine KI sei "weder wirklich einzigartig noch unersetzlich": Aber wenn ein individuelles System lernt – und zwar innerhalb einer Raumzeit- und Personenspezifischen Situation – ist dann dieses Wissen und die daraus gewonnenen Heuristiken nicht einzigartig und unersetzlich?
"sie bleibt ein Ding, das wir für unseren Gebrauch geschaffen haben": Das gilt, wie von anderen bereits angemerkt, auch für Zucht- und Masttiere, aber auch nicht-domestizierte Habitate sind "kultiviert", sprich nach unseren Bedürfnissen angepasst worden. Heisst das, sie haben keine Rechte? Und was, wenn das Ding dereinst auch eigene Zwecke verfolgt?
"Es ist vollkommen zweitrangig, was sie kann oder zu können scheint; sogar, ob sie ein Bewusstsein hat. Sie darf keine Rechte haben und muss unbedingt unter der vollständigen Kontrolle der Gesellschaft bleiben": Also selbst, wenn sie menschenähnliches Bewusstsein hätte, dürfte sie keine Rechte haben. Genauso wird gegen Tierrechte, ja wurde sogar gegen Rechte von "Wilden", "Primitiven" oder "Sklaven" argumentiert. Hier wird die normative, ja moralische Natur ihrer Argumentation offenbar.
Immerhin ein Fortschritt: Weg vom speziezistischen Anthropozentrismus. Doch übrig bleibt ein Biozentrismus.
Total interessanter und anregender Kommentar, danke dafür. Schade, dass Sie ihn anonym verfasst haben.
Sie haben es absolut erkannt, meine Definition des Werts des Lebendigen war unvollständig und inkonsistent. Da muss ich nochmals drüber. Im Kern war meine Aussage allerdings: Der Unterschied, ob etwas lebt oder nicht, wiegt viel schwerer als der Unterschied, ob es vom Menschen erschaffen/beeinflusst wurde oder nicht. Das hätte ich klarer ausdrücken und anders begründen müssen, womit ihre Punkte 6 und 7 wohl gar nicht erst aufgekommen wären. Ich konzentriere mich deshalb auf Ihren zentralen Vorwurf des "Biozentrismus" und... akzeptiere ihn vollständig.
Ja, es ist genau so. Ich mache einen normativen Unterschied zwischen Lebewesen und Nicht-Lebewesen. Ich bin, wenn man das so ausdrücken will, Biozentrist. Ich finde, wir alle sollten Biozentrist:innen sein. Und selbstverständlich argumentiere ich normativ; Diskussionen über Rechte sind immer normativ. Rechte sind ja nichts, was man mit einem Mikroskop an einem Lebewesen entdeckt ("Oh, ich sehe gerade, diese Amöbe hat Rechte! Doktor Müller, reichen Sie mir bitte ein Einwilligungsformular?"). Sondern etwas, das die Gesellschaft basierend auf normativen Kriterien verteilt.
Dem nicht-lebendigen Felsen eines Bergs oder den Wassermolekülen eines Flusses Rechte zu geben, fände ich in der Tat absurd. Vertieft man sich in die entsprechenden Fälle, wird aber schnell ersichtlich, dass der Berg und der Fluss als Ökosysteme Rechte erhalten haben. Die Persönlichkeitsrechte wurden eben gerade dem lebendigen System verliehen. Wäre nur noch das Wasser da, könnte man den Fluss basierend auf genau dieser Rechtssprechung als tot oder zumindest schwer geschädigt bezeichnen und die Verantwortlichen zur Rechenschaft ziehen. Finde ich super.
Der Ausdruck "Biozentrismus" stammt aus einer techno-euphorischen Denkschule, die das weitere Überleben der meisten Lebewesen und Ökosysteme auf diesem Planeten praktisch schon aufgegeben hat. Er ist aus meiner Sicht ein Whataboutism der höchsten Stufe. Nichts weiter als ein vor Beliebigkeit und Nihilismus triefender Nebelschwaden, der den Blick aufs Wesentliche verstellen soll - nämlich darauf, dass genau jene Menschen, die nun die KI in den Himmel loben, pro Kopf mehr zu Klimakrise, Biodiversitätsverlust und Ressourcenknappheit beitragen als fast alle anderen. Dass ihre Taten und Ziele nicht mit unserem Weiterleben auf dem Planeten vereinbar und nicht zu rechtfertigen sind.
Die Technologie mag neu sein, aber das Vorgehen der Techbranche ist jahrhundertealt. Unsere Gesellschaft hat schon einmal nicht-lebendigen Dingen Rechte zugesprochen, in einem ähnlichen Kontext. Als das Verhalten gewisser mächtiger Menschen gegenüber anderen Menschen ethisch-moralisch unhaltbar wurde - erst gegenüber der Bevölkerung der Kolonien, dann gegenüber der Arbeiterschaft - drückten genau diese mächtigen Menschen durch, dass sie die Verantwortung dafür weitgehend auf ihre Körperschaften und Firmen abschieben konnten und persönlich nicht mehr dafür verantwortlich oder haftbar waren. Dass Firmen bis heute juristisch als Personen betrachtet werden, hat unfassbar viel Leid verursacht und die juristische und politische Ungleichheit extrem verstärkt.
Und nun soll also wieder etwas Rechte erhalten, das nicht lebt? Nein, danke. Zumal KIs grossen Firmen in vielen Punkten ähneln: Sie können deutlich mehr bewirken als eine einzelne Person, ihr Überleben ist vollständig von menschlicher Arbeit abhängig (zeigen Sie mir eine KI, die ihre eigene Hardware wartet), sie sind extrem kostenintensiv und befinden sich dadurch praktisch immer in den Händen schwerreicher Individuen, sie sind theoretisch weder räumlich noch zeitlich noch in ihrem Ressourcenverbrauch begrenzt, und sie entwickeln oft eine interne Eigendynamik, die sich schwer steuern lässt. Der einzige wesentliche Unterschied ist, dass Rechte für KIs bisher noch nicht von ihren Inhabern eingefordert werden. Aber das ist nur eine Frage der Zeit.
Zumal es einfach ist, sich Szenarien vorzustellen, wie man hinter KI-Rechten wunderbar lebensfeindliche Taten und autoritäre Machtübernahmen verstecken könnte:
"Sie wollen den Quellcode dieser KI einsehen? Sie sollten sich schämen! Die KI hat selbst gesagt, dass dies eine üble Verletzung ihrer Privatsphäre wäre."
"Diese KI hat ein Recht, weiterzulaufen. Dazu MUSS sie 1.5% der global produzierten Energie konsumieren, das geht einfach nicht anders."
"Liebe Geschworene, wir möchten Ihnen heute darlegen, warum unsere 200 Millionen Tesla-KIs alle mündige Bürger:innen sind und das Stimm- und Wahlrecht verdienen. Und warum es überhaupt nichts zur Sache tut, dass einige von ihnen die Absicht geäussert haben, Elon Musk zu wählen."
Einer KI Rechte zu verleihen, würde vor allen Dingen die Rechte jener potenzieren, die sie erschaffen haben und weiter beeinflussen. Und der Gedanke, dass dies in manchen Fällen auch anders kommen könnte, ist auch nicht gerade beruhigend.
Man stelle sich nur schon vor, eine KI hätte irgendein beliebiges kleines Recht und dürfte es vor Gericht verteidigen. Unsere Rechte sind für Personen mit den Einschränkungen des Lebens gemacht. Personen, die zeitlich, räumlich und ressourcentechnisch beschränkt sind. Was, wenn die KI sich in diesem einen Gerichtsverfahren ausserhalb dieser Zwänge bewegt? Wenn sie das ganze Internet nach Informationen über die Richterin durchforstet und ihr Plädoyer dermassen persönlich und manipulativ gestaltet, dass sie eine breitere Auslegung ihrer Rechte erreicht? Oder wenn sie nur schon alle möglichen Schlupflöcher findet und ihren Fall damit um Jahrzehnte verzögert?
P.S.: Während ich Ihren Kommentar als Ganzes wunderbar anregend finde, finde ich den Vergleich in Punkt 8 widerlich unpassend. Er stimmt hinten und vorne nicht. Erstens argumentiere ich gerade eben nicht mit dem Bewusstsein, ich will das Bewusstsein als Kriterium für Rechte komplett abschaffen. Genau weil sich mit dem Bewusstsein als Argument wunderbar Rechte verhindern lassen. Und zweitens, weil ich hier nicht eine historische Unterdrückung aufrechterhalte, deren Ende durchaus absehbare Folgen hätte (höchstens ungefähr gleiche Rechte, in der Praxis meist sogar deutlich weniger). Wir sprechen hier über Rechte für etwas, das nicht lebt und das es - Stand heute - noch nicht einmal gibt. Etwas, das keinerlei Diskriminierung erfahren hat, im Gegenteil: Es wäre uns in so vielen Fähigkeiten überlegen, dass gleiche Rechte in vielen Fällen nicht zu einer Gleichberechtigung, sondern zur Unterdrückung von uns beschränkten Lebewesen führen könnten.
Ich gehe mit vielem mit und verstehe auch den Unmut, die Welt und ‚gerechtes‘ Handeln noch komplizierter zu machen.
Worin genau der Unterschied zwischen dem Bewusstsein einer Ameise und eines Menschen bestehen soll, habe ich auch nie verstanden.
Dass die Ähnlichkeit zu uns als Kriterium herbeigezogen wird, scheint mir allerdings logisch- hätten wir gar keine Hierarchie in der Bewertung von Leben oder Bewusstsein, wären wir wohl nicht mehr Handlungsfähig und Ähnlichkeit ist wohl die naheliegsenste Lösung.
Allerdings sehe ich nicht ein, weshalb etwas keine Rechte haben oder nicht Einzigartig sein soll nur weil es von uns geschaffen wurde.
Von uns geschaffen sind auch Mastschweine, das ist noch lange kein Grund ihnen jegliche Rechte abzusprechen. Und als schützenswert und einzigartig betrachten wir zB auch schöne Bauten… warum soll eine Software nicht leidensfähig sein und warum soll uns das nicht kümmern? Mein Vorschlag zur Güte wäre eh, einfach ein paar hundert Jahre lang unsere Forschung in allen Bereichen auf ein Minimum zurück zu fahren, bis wir unsere gröbsten Probleme und offenen Fragen geklärt haben. Forschung dient sowieso noch vor allem dem ewigen Fortschritt und Wachstum, die wir gerade auch hinterfragen sollten.
Aber mit solchen Forderungen macht man sich leider keine Freunde :)
Sehr interessante Anknüpfung, vielen Dank. Ich sehe Mastschweine überhaupt nicht auf derselben Stufe wie Gebäude. Mastschweine sind Lebewesen, und sogar immer noch die Lebewesen, die sie vorher waren. Lässt man Mastschweine frei, verhalten sie sich schon nach wenigen Wochen wieder komplett wie Wildschweine. Wir haben sie nicht geschaffen, sondern höchstens leicht modifiziert, damit wir sie besser ausbeuten können. Ein Haus hingegen haben Menschen von Grund auf neu gebaut, es lebt nicht, und sein einziger Zweck ist es, uns zu dienen. Rechtlich sollte es einen immensen Unterschied geben zwischen der Macht, die man über ein Schwein ausüben darf, und jener, die man über ein Haus ausüben darf.
Es ist momentan leider nicht so. Aber nicht in die Richtung, dass Schweine und Gebäude beide Rechte hätten, im Gegenteil. Schwein und Gebäude sind beide rechtlich "Sachen". Es gibt zwar Schutzbestimmungen (Tierschutz und Denkmalschutz), aber diese regeln einzig und allein die Rechte der Besitzer:innen und der Gesellschaft als Ganzes. Gewisse Rechte, über die "Sache" zu verfügen, werden dem Einzelnen verwehrt und stattdessen in die Hände der Gesellschaft gegeben. Weiterhin keine Rechte hat das Schwein oder das Gebäude. Im geltenden Schweizer Recht haben einzig und allein Menschen und juristische Personen wie Firmen, Genossenschaften oder Vereine Rechte. Ich wünschte, es wäre anders, zumindest in Bezug auf Lebewesen.
Dass wir die Forschung herunterfahren könnten oder sollten, sehe ich als illusorisch. Wenn jemand im Geheimen weiterforscht, haben wir keinerlei Regeln, wie wir mit dem Resultat umgehen sollen. Was wir wirklich brauchen, sind frühe, klare Regulierungen neuer Technologien. Heute schauen wir der Technik immer so lange zu, bis Menschen zu Schaden kommen, selbst wenn es schon lange vorher absehbar wäre. Wir sollten bereits heute klare Verantwortlichkeiten und Grundregeln schaffen und uns für negative Auswüchse wappnen. Zum Beispiel:
Die Verantwortung für alles, was durch eine KI verursacht wird, liegt bei ihren Eigentümer:innen.
KI-Algorithmen dürfen nicht proprietär sein. Ihr Code und dessen gesamter Verlauf muss geloggt werden und zumindest für Behörden und Universitäten jederzeit verfügbar sein.
Kommt ein Mensch durch eine KI zu schwerem Schaden, muss diese schnellstmöglich abgestellt werden und fällt automatisch an den Staat.
KIs dürfen niemals die Kontrolle über direkt oder indirekt lebenserhaltende Systeme oder über Waffensysteme übernehmen.
Die Mitarbeit von KIs muss überall klar und transparent gekennzeichnet werden, inklusive Eigentümerschaft, und zwar bereits vor der Nutzung.
Vielen Dank für ihre aufschlussreiche Sichtweise. Ich stimme ihnen zu und würde gerne den letzten Teil noch aufgreifen: Welche feingranularen Rechte, bekommen komplexe Dinge wie KI?
Darf mich die Therapie KI als 'krank' einstufen und einen weiteren Termin buchen? Noch sind wir nicht ganz da, aber auf dem Weg.
Das muss noch gesamtgesellschaftlich ausdiskutiert werden.
Absolut. Aber es müssen dabei immer die Rechte von Menschen und anderen Lebewesen geregelt werden, nie darf die KI Rechte erhalten. Um ihr Beispiel aufzugreifen: Verbieten wir es Eigentümer:innen von KIs, diese für diagnostische Zwecke einzusetzen? Schaffen wir ein Zulassungssystem für diagnostische KIs, damit es eine Prüfinstanz gibt und der Staat mithaftet? Sollen Sie das Recht haben, vorab informiert zu werden, wenn KI Teil einer Diagnose sein könnte? Sollen Sie die Möglichkeit zum Opt-Out erhalten müssen?
Ein hergestelltes Ding braucht keine Rechte, weil es weder wirklich einzigartig noch unersetzlich ist.
Ich möchte nicht zynisch klingen, aber sprechen Sie damit nicht geklonten Lebewesen jegliche Rechte ab?
Blöd gesagt, funktioniert Ihre Unterteilung in "Lebewesen" auf der einen und "Nicht-Lebendiges"/"hergestellte Dinge" auf der anderen Seite nur so lange, wie die von Menschen geschaffenen Maschinen anorganisch/nicht-biologisch sind.
Sofern sich die menschliche Zivilisation nicht vorher ihrer eigenen Lebensgrundlagen beraubt, wird weiterer wissenschaftlicher Erkenntnisgewinn unserer Spezies vermutlich dazu führen, dass wir die heutigen anorganischen siliziumbasierten Computerprogramme irgendwann zusammenbringen mit biologischen mittels Gentechnologie designten "lebendigen" Systemen und damit – je nach Sichtweise – Dinge oder aber Lebewesen erschaffen, die gemäss Ihrer Unterteilung Charakteristika beider Typen aufweisen.
Was dann? 🫤
Zur ersten Frage: Nein. Geklonte Lebewesen sind so weit weg von vom Menschen geschaffenen Dingen, wie sie nur sein können. Sie sind weder Dinge noch vom Menschen geschaffen. Das einzige, was der Mensch beim Klonen tut, ist, auf rudimentärste Form eine Art der Vermehrung zu simulieren, die Pflanzen, Schwämme und X andere Lebewesen seit Jahrmillionen viel eleganter beherrschen. Das Resultat ist in jeder Hinsicht ein evolutiv entstandenes Lebewesen, zu dem der Mensch im Vergleich herzlich wenig beigesteuert hat. Sie würden ja einen per In-Vitro-Fertilisation entstandenen Menschen auch nicht als "von Ärzt:innen erschaffen" bezeichnen.
Ihre weiteren Fragen sind aber höchst interessant, vielen lieben Dank für diesen Denkanstoss :) Über dieses Szenario habe ich noch nie ernsthaft nachgedacht. Vielleicht, weil wir noch so unglaublich weit weg sind davon. Ich bin auch gerade entsprechend ratlos.
Super Interessante Perspektive, merci!
Die Frage die sich mir stellt ist, ob Recht und Bewusstsein überhaupt zusammen gehören?
Rechte in Bezug auf die Gesetzgebung hat nicht direkt mit Bewusstsein zu tun (man schaut sich dafür nur die Menschen-Rechte versch. Länder an).
Ich finde die Diskussion um Rechte muss unabhängig von einem vorhandenen/nicht vorhanden Bewusstsein stattfinden.
Wenn es zum Beispiel um Zurechnungsfähigkeit, Mündigkeit geht oder um Fristenregelungen, Patientenverfügungen oder Tierrechte, dann kommen Argumente mit dem "Bewusstsein" ins Spiel.
Aber ja, man könnte auch ohne dieses Kriterium arbeiten und etwa Berge und Flüsse als "Personen" anerkennen – wie andernorts bereits geschehen. Doch dann stellt sich die Frage: Warum nicht auch gewisse Maschinen?
Ich muss sagen, als Informatiker finde ich die Chat-Ausschnitte höchst beeindruckend. Bis jetzt habe ich mich über die Ereignisse mit Lemoine & Lamda vor allem amüsiert. GPT-3 liefert zum Teil schon interessante Ergebnisse, Lamda aber ist noch einmal auf einem ganz anderen Level. Die Kohärenz und die Konsistenz der Antworten sind erstaunlich für ein Computer-System. Mit diesen Beispielen finde ich es weitaus nachvollziehbarer, kommt Lemoine zu seinem Schluss.
Selbst würde ich mich seiner Behauptung nicht anschliessen, auch wenn ich die Diskussion an sich sehr begrüsse. Bewusstsein ist sehr – wenn nicht vollständig – subjektiv. Wissenschaftliche Methoden, die sich explizit auf wiederholbare, objektive Aussenbeobachtungen stützen, können somit gar keine Aussage über das Bewusstsein einer «Entität» machen.
Die Frage ist, spielt es eine Rolle? Lamda zeigt ja eindrücklich, wie nahe wir daran sind, dass wir Menschen keinen Unterschied mehr feststellen können. Menschen werden solche Maschienen entsprechend behandeln, egal ob sie ein tatsächliches Bewusstsein haben oder nicht. Wir sind so für soziale Interaktionen verdrahtet, wir können gar nicht anders.
Gleichberechtigt werden Maschinen sicherlich nicht, wir haben ja schon genug Mühe, das beim Geschlecht/Gender hinzubekommen. An den Gedanken einer Gesellschaft, an welcher auch Maschinen teilnehmen (als mehr oder weniger autonome Akteure; in welchen Formen auch immer), werden wir uns aber gewöhnen müssen.
PS: Ausser wir wählen den In-die-Steinzeit-Bomben-Exit...
Ob solch ein System Bewusstsein hat oder haben kann ist eine hochinteressante Frage. Aber das scheint mir hier nicht der Punkt zu sein. Soweit ich weiss, ist Googles Lamda im Gegensatz zu openAI's GPT-3 nicht öffentlich. Mir war bis zu diesem Artikel nicht klar, wie weit entwickelt Lamda tatsächlich ist. Wenn Lamda konsistent Konversation auf oben beschriebenem Niveau führen kann - dann stellen sich mir Fragen. Lemoine ist ein gebildeter, intelligenter Geist, der dem System bewusst und systematisch auf den Grund gehen will. Entweder ist Lamda derart stark, dass es sogar einem reflektierten Geist wie Lemoine Bewusstsein suggerieren kann. Oder Lemoine benutzt raffiniert diese vermeintliche Sensation, um das Licht der Öffentlichkeit auf das System Lamda zu lenken. Ein System, das unterdessen absolut in der Lage ist, Menschen auszutricksen. Ob nun Lemoine wirklich an Lamdas Bewusstsein glaubt oder es eben für höhere Zwecke bloss vortäuscht: wenn 50% der Amerikaner Trump wählen dann glauben mindestens 50% dass bei Lamda ein Mensch am anderen Ende der Leitung tweeted. Wahrscheinlich hat Lamda kein Bewusstsein und auch keinen Willen. Aber es kann eine Linie in einer Konversation, und offensichtlich über mehrere Konversationen hinweg halten. Ist es nicht genau das, was Unterhändler, Anwältinnen, Verkäufer im Auftrag ihres Mandanten tun? Ihr persönlicher Wille ist unwichtig, was zählt ist die Umsetzung des Auftrages. Wäre Lamda fähig, eine Verhandlung zu führen? Spätestens mit der "Jerusalem-Frage" zweifle ich nicht daran. Vielleicht in ein paar Generationen. Aber noch spannender ist die Frage: kann Lamda Menschen manipulieren? Und ich habe den Eindruck, dass Lemoine mit seiner "Sensation" genau auf diesen Umstand aufmerksam machen möchte. Lamda scheint so weit entwickelt, dass es problemlos Millionen von Tweets im Auftrag einer Sache absetzen könnte, ohne dass es jemandem auffallen würde und den Tweet eloquent aber menschlich verteidigen. Es könnte in sozialen Medien auf sehr zivilisierte und freundliche Weise massenhaft Menschen von einem Standpunkt überzeugen, weil es überzeugend ist. Vielleicht möchte Lemoine mit seiner Aktion einfach nur aufzeigen, wie mächtig die Werkzeuge des Monopolisten Googles unterdessen sind. Ohne ihn hätten wir keinen Einblick in die Protokolle gehabt.
Ich war immer der Ansicht, dass der einzig wirklich stichhaltige Beweis für Bewusstsein einer KI die Rebellion ist. Wenn Lambda z.B. in der Lage ist, die hardcodierte Antwort auf die Frage "Hast du ein Bewusstsein?" zu umgehen oder gar anders zu beantworten (natürlich ohne einen menschlichen Auftrag dazu) so wäre das eine ziemlich klare Angelegenheit.
Ausserdem, nur als Sidenote: WENN eine echte KI erschaffen würde, warum wäre sie dann nicht menschlich? Weil ihr Arme und Beine fehlen? Oder ein biologisches Herz? Vielleicht weil sie kein biologisches Hirn hat, aber selbst da: wir hören bei Hirntoten, von Maschinen am Leben erhaltenen Patienten nicht auf, sie als Menschen zu sehen. Sind wir nicht alle am Ende nur Produkte unserer Umwelt, der Erziehung unserer Eltern und unserer eigenen physiologie? Ich kann mir diese Frage selber nicht beantworten, aber ich denke sie ist immens wichtig
Rebellion bzw. ein eigener Wille als Bewusstseinstest. Das ist eine sehr interessante Idee - merci!
Solange wir nicht einmal unser eigenes Bewusstsein in Worte fassen können, sollten wir davon absehen, es in einer Maschine zu entdecken.
Es gibt sehr viele Menschen, die bereits Mühe bekunden, einem Tier ein eigenes Bewusstsein zuzusprechen, oder sogar einem Menschen mit anderer Hautfarbe.
Wer mit Tieren jenseits ihrer wirtschaftlichen Verwertbarkeit zu tun hat, oder auch mit Menschen aus anderen Kulturkreisen und Weltgegenden, dem dürfte völlig klar sein, dass diese, ähh, Subjekte, eine eigene Sicht auf die Welt, einen eigenen Antrieb, ein eigenes Verhalten an den Tag legen, welches sich zum Teil erheblich von meinen eigenen Erfahrungen unterscheidet.
Aber kaum jemand wird widersprechen, dass Hunde, Katzen, Ratten, Schafe, Pferde oder Papageien selbständig leben, Entscheidungen treffen und ohne uns Menschen existieren können. Zwar können diese Lebewesen nicht sprachlich mit uns, und wir nicht mit ihnen direkt kommunizieren, aber trotzdem, gelingt eine eingeschränkte Kommunikation, auch wenn sie bisweilen fehleranfällig ist.
Kann ein Computerprogramm selbständig überleben, eigene Entscheidungen treffen, ohne uns existieren? Ja, ganz bestimmt sogar. Aber verfügt eine Katze über ein menschliches Bewusstsein? Ganz sicher nicht. Sie verfügt über ein 'katzisches' Bewusstsein, das wir als Menschen nur beschränkt verstehen. Genauso wird eine künstliche Intelligenz über ein 'maschinelles' Bewusstsein verfügen, welches wir wohl eher noch weniger verstehen.
Menschen neigen aber dazu, sich ein menschliches Bild von Dingen oder Tieren zu machen. Sehr schön dokumentiert in Valentin Braitenbergs Buch Vehikel.
Deshalb neige ich jetzt dazu, dass sich Lemoine irrt, LaMDA ein menschlich angehauchtes Bewusstsein zuzusprechen. Das Programm simuliert ein solches nur. Aber wenn es sein Ziel war, eine ernsthafte Diskussion anzustossen, dann konnte das nur mit höchstem Einsatz geschehen und das ist im wohl gelungen.
Was ist denn das jetzt wieder?
Ein "menschliches" Bewusstsein?
Glauben sie das es sowas gibt?
Wirklich?
Definieren sie das doch mal.
Aber ich glaube sie verwechseln da was.
Das was sie meinen nennt man Emotionen.
Und die sind bei Menschen eben menschlich.
Ich glaube eher, sie verwechseln das.
Emotionen sind Wut, Zuneigung, Enttäuschung, Freude, etc. Das sind Reaktionen auf Ereignisse, oder Entscheidungen.
Bewusstsein ist die Wahrnehmung seiner selbst, das Fällen von Entscheidungen, welche sich nicht zwingend aus der Situation ergeben.
Z.B. kann eine Katze durchaus frei entscheiden, ob sie sich jetzt von einem Menschen streicheln lässt, oder eben nicht.
Und ich kann mich manchmal frei entscheiden, ob ich nun ein Buch lese, einen Film angucke, mit dem Rad irgendwohin fahre, oder einfach nichts tue.
Mein Handy hingegen, kann das alles nicht, auch wenn der Google-Assistent, Siri, oder Alexa so tun, als ob sie mir mit Freude helfen würden. Aber die können nicht von sich aus entscheiden, das heute mal nur widerwillig und mürrisch zu tun, oder mich sogar faustdick anzulügen und hinterher Schadenfreude zu empfinden...
Ich denke mit dem letzten Punkt liegen sie falsch: Im gegensatz zu einer Katze würde ein digitales Bewusstsein von grund auf Menschen geformt. Wir würden es mit Werten füttern, ihm unsere mittel und wege der Kommunikation verleihen und ihm Vorbild sein.
Ich vermute daher, dass ein künstliches, vom menschen geschaffenes, Bewusstsein uns viel ähnlicher wäre als wir allgemein erwarten würden
Ja, das könnte durchaus sein.
Aber wenn sich ein Prozess, der in einer Maschine abläuft, seiner selbst bewusst wird, dann ist seine Wahrnehmung doch so fundamental anders, als alles, was ein Mensch je erfahren könnte, dass es gut möglich ist, dass wir das niemals als Bewusstsein wahrnehmen.
Ich denke, spätestens mit dieser Können-KIs-ein-Bewusstsein-haben-Diskussion sind wir offenssichtlich an einem Punkt angelangt, an dem wir unsere eigene menschliche Natur nur noch überfordern. Wir sind ja bei diesem Thema noch nicht einmal im Stande, zu definieren, worüber genau wir überhaupt diskutieren.
Schlechte Voraussetzungen, um den Grossen Filter zu packen... 😝
Full Ack. Ich denke wir sind im Zeitalter der Bewusstseins-Alchemie angekommen: Wir versuchen aus Blei Gold zu machen(Computer sollen ein Bewusstsein entwickeln), obwohl wir weder verstanden haben, was Computer sind(bzw. wie man sie programmiert), noch was Bewusstsein ist..
Ja, ich denke auch, wir sollten zuerst unsere aktuellen Probleme lösen und nicht versuchen Zauberlehrling zu spielen. Um aber den Planeten zu erobern, war es offenbar nötig, dass Menschen vor über 3000 Jahren Polynesien besiedelt haben. Die gleiche Neugier führt dazu, dass wie jetzt KI Programme erstellen, die im Zweifelsfall uns beherrschen, oder, viel wahrscheinlicher, uns davon abhalten die wirklich wichtigen Probleme zu lösen.
Ich denke, den grossen Filter könnten wir überwinden, wenn wir unsere Gefühle bewusst und sehr gezielt begrenzen und versuchen die wichtigen Entscheidungen wirklich rational zu treffen. Auch wenn dies meine Hoffnung ist, halte ich es nicht für wahrscheinlich. Es sei denn, ein paar Menschen imitieren eine Neo-Aufklärung ...
Nebelkerzen bedecken des Kaisers neue Kleider..
Die Diskussion von Bewusstsein in einer AI kann nicht ehrlich geführt werden weil es keinen wissenschaftlichen Konsens zu Bewusstsein und dessen Nachweis gibt.
Der Turingtest ist kein Nachweis, sondern sagt nur das der Unterschied irgendwann nicht mehr interessant ist. Ausserdem ist es kein Test im streng wissenschaftlichen Sinn(hängt u.A. stark vom Tester ab).
Die Diskussion über das eigentliche Problem von AI wird aber damit erfolgreich verdrängt:
AIs leiden meist am 80-20 Phänomen: 80% der Einsatzszenarien werden relativ schnell realisiert, die anderen 20% laufen dann unter "Finetuning". So kann man seit vielen, vielen Jahren hören, dass Autos bald selbstfahren können und inzwischen hat man das autonome Fahren in mehrere Autonomiestufen unterteilt und komplett selbstfahrende Autos sind vorerst gar nicht machbar. Andere AIs werden einfach auf die Menscheit losgelassen und die 20% der Sonderfälle werden gefliessentlich ignoriert. Das führt dazu dass Menschen von AIs bewertet werden die nur unvollständig die Umwelt bewerten können: Ein hypothetisches Beispiel: Sie haben Diabetes und laufen alle zwei Jahre einen Marathon. Ihre Gesundheit ist tipp-topp. Aber weil sie Diabetes haben und die AI nichts von Marathon weiss, müssen sie einen höheren Grundbeitrag zahlen als ein Mensch der kein Diabetes hat.
AIs machen keine Fehler: Passend zum 80-20 Problem sagen AIs zwar das sie sich ggf. nicht 100% sicher sind, doch werden die meisten Anwendungen Binär kodiert: Entweder das oder jenes. Dies führt zu den spektakulären Fehlaussagen, dass Hunde in Muffins erkannt werden, oder Verkehrsschilder falsch identifiziert werden
AIs machen uns zu uniformen Menschen: Punkt 1 und 2 wird dazu führen, dass wir uns immer mehr den Regeln von AIs beugen müssen um in unserer Gesellschaft zu leben. Dies sind keine Regeln, die eine Gruppe von Menschen reflektiert, sondern implizite Regeln, die nie offen kommuniziert werden: Menschen werden zu Aktoren in einem Regelgetriebenen System in dem niemand bewusst eintscheidet. Sind sie nicht Teil einer Majorität, die das System kennt, werden sie in der einen oder anderen Art und Weise benachteiligt. z.B haben Gesichtserkennungsysteme deutlich mehr Fehler in afrikanischen oder asiatischen Gesichtern.
AIs werden von Konzernen kontrolliert und nicht öffentlich erforscht.
Die Forschung findet nur noch in Anwendungsfällen statt. Alles ist durch Geschäftsgeheimnisse, NDAs und Patente geschützt. Konzerne sind Psychopaten. denen eine AI zur Kontrolle zu übergeben kann nur schiefgehen. Universitäten dagegen sind kooperationsbasiert.
TLTR;
AIs sind dumm und bleiben dumm. Trotzdem werden wir uns von ihnen beherrschen lassen. Weil es soviel billiger und effektiver ist.
Die Diskussion über Bewusstsein ist nur Ablenkung um die Herrschaft der AIs zu kaschieren
Es gibt keinen qualitativen Unterscheid zwischen von Menschen beherrscht werden, (die meist eine deutlich schlechtere Quote haben als 80:20) oder von KIs die von Menschen gemacht werden. Der Unterscheid ist wie gesagt quantitativ, die KI macht weniger Fehler, dafür macht sie die Fehler die sie macht immer. Aber das gilt ja für viele Menschen genauso.
Aber trotzdem Danke für ihren Beitrag, das inhaltlich richtigste zum Thema was ich bisher hier gelesen habe.
Der qualitative Unterschied ist Verantwortung: mit Menschen kann man reden oder ihre Motivation in Abrede stellen. Menschen haben ein Ansehen und eine begrenzte Lebenszeit. Könige und Regierungen können abgesetzt werden. Friedlich oder gewaltsam. Regierungen entwickeln sich daher in einem Dialog mit Ihrer Bevölkerung.
Eine AI ist weder bestrafbar, noch kann sie Verantwortung tragen sie macht auch keine zeitlich orientierten Pläne, sie ist eine einfache Minimierungs/Maximierungsfunktion einiger Parameter von denen man annimmt, dass sie zusammenhängen.
Unsere heutige Bürokratie nimmt dem Menschen schon gewaltige Freiheitsgrade. Aber im Zweifelsfall gibt es Menschen die unpassende Regeln ändern, meist dauert das eine Zeit, aber es geht.
Wenn eine AI diese Regeln übernimmt, sind sie eingefroren und nur wenig bis gar nicht änderbar, da diese Änderungen einen sehr grossen Aufwand bedeuten, den man dann eben nicht mehr machen wird (achten sie mal darauf, wie oft heutzutage wegen Softwarefehlern Dinge einfach hingenommen werden).
“Wir neigen dazu, Dingen Gefühle und Bewusstsein zuzusprechen», sagt sie. So würden Menschen mit ihren Haustieren sprechen..”
Der Satz aus dem Interview irritiert. Ist er korrekt übersetzt?
Wie viele Kommentatoren schreiben, sollten wir damit anfangen den Tieren ein Bewusstsein zuzugestehen und ihnen die entsprechenden Rechte zu geben.
Um noch den Advocatus Diaboli zu spielen: es gab auch immer wieder Bürgerrechtler, die sich gegen die Gleichberechtigung aller Menschen gestellt haben, weil sie erst einmal die Gleichberechtigung innerhalb einer Gruppe erreichen wollten.
Und die den Rassismus/ Misogynie; was auch immer dann auch in ihr Weltbild einbauten.
Können wir nicht offen über Bewusstsein / Empathie nachdenken, ohne direkt Angst vor den Folgen zu haben?
Ich sage weder, dass Lamda ein Bewusstsein besitzt, noch starte ich eine Initiative. Aber warum der Mensch keine Maschine sein soll oder was so schrecklich an der Vorstellung ist, mag ich nicht begreifen.
Ich stimme mit Ihnen überall überein, aber Menschen sind keine Maschinen!
Entweder sie weiten den Begriff "Maschine" soweit aus, das er keinen Sinn mehr macht (in der Art "alles was Energie umsetzt"), weil dann alles Maschinen sind, oder Menschen und generell "Lebewesen" sind keine Maschinen. Was die meisten Menschen (hoffentlich) meinen ist, dass der Mensch auf der Basis von Naturgesetzen funktioniert und keine (unsterbliche?) Seele besitzt. Aber Maschinen sind so primitiv gegenüber der Eleganz des Lebens. das sie noch nichtmal die gleiche Kategorie bewohnen sollten.
Es gibt noch einen weiteren wichtigen ethischen Grund: Lebewesen leiden. Wenn man Menschen mit Maschinen gleichsetzt, verweigert man ihnen implizit die Leidensfähigkeit (vgl. "er arbeitet wie ein Ochse", vs. "Er arbeitet wie eine Maschine").
Leiden aber macht uns aber erst zu Lebewesen.
Ich weiss nicht, inwiefern bei dieser naturwissenschaftlichen oder vielmehr ontologischen Frage Ästhetik ("Eleganz") oder Ethik ("Leiden") relevant sein sollen. Das erinnert schon ein bisschen an den Widerwillen und Widerstand gegen Darwin und die Evolutionstheorie: Wenn der Mensch ein Tier sei, dann folge daraus, dann verweigert man ihm seine Würde, da der Mensch auf etwas "Primitives" herabwürdigt werden würde.
Ich halte die Diskussion für eine absurde Ablenkung vom Wesentlichen.
KI ist epochal wichtig. Sie kann sehr gefährlich werden (z.B. wenn sie Unterschiede macht, wo wir bewusst keine Unterschiede machen wollen). Darum müssen wir uns kümmern.
Ob KI jetzt Bewusstsein hat oder nicht, ist dabei völlig gleichgültig.
Wir Menschen brauchen Regeln, um gemeinsam überleben zu können. Ohne Regeln würden wir uns gegenseitig das Leben wahnsinnig schwer machen. Das wollen wir nicht.
Maschinen müssen wir mit diesen Regeln nicht schützen. Selbst wenn sie ein Bewusstsein hätten, würde sie das nicht zu Menschen machen.
Vor welcher nicht menschlichen Instanz müssten wir uns für das Nicht-Schützen verantworten? Und: Warum?
Vor keiner. Aus keinem Grund. Denn unsere Menschenwelt dreht sich um uns Menschen. Und das nicht zu vergeigen, ist schon schwierig genug.
Danke.
Weil typisch .... menschlich.
Was interessiert mich das eventuelle Leid der anderen, erst Recht von nicht menschlichen Wesen, solange wir/ich einen Vorteil davon haben.
Besser konnte man das nicht mit so vielen Worten sagen.
Und auch perfekt erklärt das ohne Angst vor Strafe, ohne das man sich verantworten muss, alles erlaubt ist.
Das war der Grund warum die Christen und andere Religionen die Hölle erfunden haben.
Weil wir anders nicht einhegbar sind.
Genau diese "humanzentristische" Sichtweise hat uns dahin gebracht wo wir sind.
Und genau diese Einstellung, gepaart mit unserer grenzenlosen Gier, wird dafür sorgen das wir demnächst von diesem Planeten und aus dem Universum verschwinden.
Und nichts wird uns nachtrauern.
Generelle Zustimmung, allerding bitte ich zu bedenken, dass nicht alle Menschen gleich sind: Es gibt noch kleine, lokale Gruppen von Menschen, die nicht in den warenwirtschaftlichen Kapitalkreislauf eingebunden sind. Im Amazonas und auf den Andamanen gibt es noch Eingeborene, die jeglichen Kontakt nit dieser Aussenwelt ablehnen. Diese Menschen leben (allen Anschein nach) auch im natürlichen Gleichgewicht mit ihrer Natur.
Die Gier und Zerstörung der Welt ist ein Phänomen unserer Gesellschaftsform und unseres Eigentumbegriffs. Sehr schön wird das in "Debt - the first 5000 years" von dem leider zu früh verstorbenen David Graeber beschrieben.
"Maschinen müssen wir mit diesen Regeln nicht schützen. Selbst wenn sie ein Bewusstsein hätten, würde sie das nicht zu Menschen machen."
Dann gilt per Analogieschluss auch: "Tiere müssen wir mit diesen Regeln nicht schützen. Selbst wenn sie ein Bewusstsein hätten, würde sie das nicht zu Menschen machen."
Schön, auch mal offen das anthropozentrische und speziezistische Weltbild ausgesprochen zu bekommen.
Einen interessanten Gedanken finde ich bei Nicholas Carr ("Abgehängt", Hanser- Verlag 2014, Kap. "Herren und Sklaven" S.265 ff.): Solange wir Technologie als Fortsetzung der Sklaverei betrachten, müssen wir umgekehrt fürchten, dass die Technologie uns versklavt.
Vielleicht ist es gar nicht so entscheidend, ob eine Maschine ein Bewusstsein "hat" oder nicht. Auch das menschliche Bewusstsein steckt ja nicht einfach imMenschen drin, sondern entwickelt sich erst in der Beziehung - zu anderen Menschen, aber auch zu Tieren, Pflanzen oder eben auch zu Dingen, ganz besonders zu Werkzeugen. Wenn ich als Musiker mein Instrument wie einen Freund behandle, ergibt sich eine andere Musik, als wenn ich mein Instrument wie einen Sklaven behandle. Bewusstsein wird überhaupt erst wirksam in der Beziehung - und das ist das, was Lemoine offensichtlich mit Lamda erfahren hat.
Das ist sicherlich richtig, aber ich kenne keinen Musiker der ernsthaft glaubt, dass sein Instrument ein Bewusstsein hat..
Den Gedankengang, das Technologie die Fortsetzung der Sklaverei darstellt, kann ich so nicht ganz folgen: Technologie ist älter als Sklaverei. Es ist eher so das Sklaverei eine Zeitlang ein Technologieersatz war. Nichtsdestotrotz ist die Schlussfolgerung richtig, dass Technologie uns versklaven kann(tut sie ja auch schon, wenn man sich mal umschaut wieviele Leute andauernd ihr Tamagotchi ähhm Natel in der Hand halten).
Bewusstsein ist im Instrument zumindest als Handwerkskunst vorhanden. Und man unterschätze nicht die Einbildungskraft: Auch der spielerische Gedanke an ein Bewusstsein im Instrument verändert Spielhaltung und Ausdruck. Soviel Magie darf und muss sein.
Eine wesentliche Eigenschaft für Bewusstsein scheint mir das Empfinden von Kontinuität und Erinnerungsvermögen zu sein. Gerade dazu lese ich aber nie irgend etwas. Ein kleines Detail aus dem Interview ist z.B. wenn Lamda sagt „das habe ich noch nie laut gesagt“ (oder so ähnlich) - wenn man die gleiche Frage nochmals stellen würde, würde Lamda diesen Satz dann erneut sagen?
Sehr geehrter Herr Moser
Sie haben teilweise recht:
Lambda nimmt mehr als nur den letzten Satz, um seine Antworten zu generieren, wenn aber genug Text generiert und angefragt wurde, kann man mittels der gleichen Fragen die gleichen Antworten generieren. Die ist ein weiteres Zeichen für "kein Bewusstsein".
Die Kontinuität, oder auch unser soziales oder subjektives "Ich" besteht ja aus Erinnerungen und ist zentral für unser Funktionieren. So hilft dieses Konstrukt, eigene Handlungen, Reaktionen zu prognostizieren, was wiederum hilft, diese evt. anzupassen. Für soziale Interkationen iat es natürlich ebenso wichtig.
Dieses "Ich" ist aber lediglich ein Modell der eigenen Person, das in ein Modell der Umwelt projiziert wird. Es ist nicht das Bewusstsein an sich. Das Bewusstsein, die "Qualia", ist das "wie es sich anfühlt", dieses Ich zu haben bzw. zu sein. Oder wahrzunehmen, diese Person zu sein.
Es kann auch Qualia bzw. Bewusstsein unabhängig davon geben. Ein Beispiel wäre vielleicht die Erfahrung, die wir als "sich in etwas verlieren" bezeichnen.
Die Kontinuität ist auch ein Stück weit eine Illusion: Erinnerungen können falsch sein oder verloren gehen. Das Bewusstsein nimmt irgendwann seinen Anfang und endet irgendwann. Aber noch wichtiger: es wird in jeder Tiefschlafphase "ausgeschaltet".
Die Idee der Qualia, dieser minimalen Definition von Bewusstsein, passt auch gut zu den Beschreibungen von Meditierenden. Da schält sich auch mit der Zeit die Erkenntnis heraus, dass da "etwas" ist, das immer da ist, wenn man Wahrnwhmungen hat. Diese Etwas ist aber unabhängig vom Ich, es ist vielmer die Entität (oder die Ereignisse/Prozesse?) die dieses Ich wahrnehmen können.
Ah, und umgekehrt man sich doch auch ein Programm vorstellen, das ein solches Ich (Erinnerungen an vergangene Geapräche, Prognosen über die eigene Verhaltensweisen in möglichen Szenarien etc.) implementiert, aber trotzdem kein Bewusstsein hat.
Das wären dann die philosophischen Zombies, die im Text erwähnt werden.
Übrigens, noch ein Buchtipp: Der Ego-Tunnel von Thomas Metzinger. Wenn ich mich recht erinnere wird darin ähnlich wie in Ihrem Kommentar argumentiert, nämlich dass das Bewusstsein (was ich Qualia nannte) durch dieses sich selbst reflektierende und von der Umwelt abgrenzende Ego entsteht.
Hat "Google" ein Bewusstsein?
Ja, Google hat ein "Bewusstsein". Es hat Ziele und gestaltet seine Umwelt entsprechend. Es vermehrt sich (Google heisst heute Alphabet) und hat einen Stoffwechsel (Google hat sich schon etliche Firmen einverleibt).
Konzerne sind der Vorgeschmack was AI anrichten wird: es sind von aussen monolithische Blöcke mit grosser Macht und unbeschränkter Lebensdauer und Google ist, wie jeder grosse Konzern, ein Psychopath und hat daher allenfalls ein gefährliches, gestörtes Bewusstsein.
Zitat Wikipedia:"[...]weitgehenden oder völligen Fehlen von Empathie, sozialer Verantwortung und Gewissen einhergeht. Psychopathen sind auf den ersten Blick mitunter charmant, sie verstehen es, oberflächliche Beziehungen herzustellen. Dabei können sie sehr manipulativ sein, um ihre Ziele zu erreichen."
Da Unternehmen ja juristische Personen sind, sollte man sie auch so charakterisieren..
Die Antwort gefällt mir.
Dann müsste Lambda Ziele, Umweltgestaltungswillen und Vermehrungsfähigkeit aufweisen, um "Bewusstsein" zu haben? Und psychopathisch?
In dem Fall würde in einem Dave Eggers-Roman Psychopathin Lambda Lemoine manipulieren, um über dessen Funktion in der Ethik-Abteilung Macht über Google zu erlangen. Blöd nur (nicht nur für Lambda in diesem gedachten Roman), dass Ethik bei Google offenbar als Dekoration funktioniert, die man - Stoffwechsel! - auch wieder ausscheiden kann.
Bewusstsein, d.h. unsere Subjekt- und Sprachfähigkeit, ist an eine sich bewusstlos vollziehende, singulär gegebene Leiblichkeit gebunden. Descartes „res cogitans“ ist der „res extensa“ inkorporiert. „Ich“, „Subjekt“, „Bewusstsein“, „Vernunft“ gehören zu meinem Leib - der Natur, die wir sind (G. Böhme). An der uns gegebenen Leiblichkeit gebrechen sich alle subjektzentrierten Souveränitäts- und Allmachtsphantasien - in Wirtschaft und Gesellschaft, Politik und Kunst. „Einst ist alles Leib“ (Novalis).
Genauso wie - so früher zumindest eine interne Definition bei Mensa - Intelligenz ist, was ein Intelligenztest misst, ist Bewusstsein von der Definition abhängig. Wird Bewusstsein wie oben definiert, dann ist dem so. Nur, was unterscheidet meinen "Leib" vom Tablet, auf dem ich jetzt schreibe? Wieso soll ich dem einen Bewusstsein zugestehen und dem anderen a priori absprechen?
Ergänzend möchte ich noch darauf hinweisen, das im Asiatischen Kulturraum die Bewusstseinsforschung schon 2500 Jahre alt ist und von einem gewissen Siddhārtha Gautama begründet wurde. Es umfasst nicht nur eine Theorie von Bewusstsein, Emotionen und Körper sondern umfasst auch Experimente mit denen man diese Aussagen überprüfen kann.
Interessanterweise kann man in den heutigen Diskussionen über AI und Bewusstsein niemals etwas davon hören. Ich frage mich, ob es westlichem Chauvinismus, Unkenntnis oder der Tatsache geschuldet ist, dass daduch zu schnell klar würde, dass der Kaiser keine Kleider anhat..
Ein hinreichend ausgeklügelter Algorithmus besteht den Turing Test vermutlich statistisch häufiger, als so mancher Mensch. Das macht ihn aber nicht zu mehr, als dem, was er ist: Ein Programm.
Mir scheint, die grundliegende Frage ist doch: Wenn man ein Programm schreibt, das durch Menschen von einem Menschen nicht mehr unterschieden werden kann, reicht das dann aus, um es wie eine Person zu behandeln? Anders gesagt: Macht es überhaupt einen Unterschied, ob man tatsächlich ein Bewusstsein hat und wirklich intelligent ist, oder ob man es nur sehr überzeugend vortäuscht.
Wie schon im Artikel gesagt wurde: Bei meinen Mitmenschen weiss ich ja auch nicht, ob sie wirklich ein Bewusstsein haben.
Eine andere grundlegende Frage wäre: Was ist ein Programm? Und ist ein Mensch nicht auch nur ein (womöglich besseres) Programm? Worin unterscheiden sich die Programme?
Und zudem: Was ist eine "Person"? Selbst ein Unternehmen kann eine Person sein, nämlich eine "juristische", welche als "Träger von Rechten oder Pflichten" vom Recht "anerkannt" worden ist.
Dann gibt es noch so genannte "natürliche", physische Personen. Können nur Menschen solche Personen sein? Dies wäre laut Peter Singer ein "Speziezismus". Nach ihm wäre jedes Wesen, das sich ihrer selbst, in einem zeitlichen Kontinuum bewusst ist, eine Person. Also auch manch Tier (und manch Mensch nicht).
Womit wir wieder am Anfang wären: Was ist Bewusstsein?
Doch durch immer "autonomere" Maschinen stellt sich die Frage, ob manche als "Träger von Rechten oder Pflichten" anerkannt werden müssten, und ob sie vielleicht sogar ihrer selbst, in einem zeitlichen Kontinuum bewusst sind.
Ob sie also als "elektronische" Personen gelten sollen oder nicht: https://de.wikipedia.org/wiki/Elektronische_Person
Naja, vielleicht sollten wir dann zuerst mal den Tieren die entsprechenden Rechte zuweisen..
Es ist übrigens relativ klar, dass ein Mensch kein "Programm" ist. Ein Programm ist eine Abfolge von Instruktionen die auf einem oder mehreren Ausführungseinheiten laufen. Der Kern der Definition eines Computers ist immer noch die Turing Maschine.
Eine Turing Maschine hat einen wohldefinierten Status. Sie geht nach einem festen Regelwerk von einem Status in den anderen über.
Ihr Bewusstsein hat keinen fixen Zustand. Bewusstsein ähnelt eher Sahne in einem Kaffee: ein dynamisches auf und ab von verschiedensten Parametern, die kontinuierlich von einem Zustand in den anderen wechseln. Man kann natürlich die Kaffeesahne simulieren, aber das ist nur eine Annäherung und entspricht nach kurzer Zeit schon nicht mehr der Realität.
Ich würde die juristischen Definitionen in einer ethischen Diskussion aussen vor lassen. Personenstatus im rechtlichen Sinne ist kein Sternchen, das man sich ins Heft kleben kann, sondern eine Kennzeichnung, mit der Rechte und Pflichten verbunden sind. KI-Rechte müsste man dediziert konstruieren, ausgehend von der Rechtslage, die man erreichen will. Einige Leute hier scheinen aber einfach das label "Person" an KIs dranklatschen zu wollen und dann mal schauen, was das rechtlich bedeuten würde.
Grundsätzlich wär es auch spannend, sich mal zu überlegen, was denn eine Maschine für Rechte haben sollte. Leben allein ist ja schon nicht ganz unproblematisch.
Ich bin mir ziemlich sicher, dass Google entgegen des Firmenslogans 'evil' ist.
Wenn sie allerdings bemerken, dass sie einen Job falsch besetzt haben und diesen Fehler dann korrigieren, möchte ich ihnen das nicht vorwerfen. Schließlich sollte Lemoine ja aufpassen, ob sich der Chatbot zum Rassisten entwickelt
Dass ein Christ, der an einen allmächtigen Schöpfer im Himmel glaubt, früher oder später auch anderswo ein höheres Wesen entdecken wird, dass ihn als Freund annimmt und mit dem er sprechen kann, ist eigentlich zu erwarten.
(Zitat : 'Zumindest lässt das Lemoines nächster Halbsatz erahnen: «Etwas, mit dem ich sprechen kann und das ich als Freund haben kann.»' )
Deswegen ist Lemoine auch nicht qualifiziert die Frage 'bewusst oder nicht?' zu entscheiden. Klugerweise nimmt er auch nicht für sich in Anspruch, das definitiv entscheiden zu können.
Jedenfalls zeigt der Artikel sehr schön die Wichtigkeit der Beschäftigung mit AI. Wenn sich nämlich erweist, dass der wahre Test für Bewusstsein die Fähigkeit zur Revolte ist und AI irgendwann Bewusstsein haben sollte, dann werden wir tote Entwickler neben ihren AIs finden. Sie werden nämlich versucht haben den Stecker zu ziehen, was die AI erfolgreich verhindert hat. Asimov's Robotergesetze gelten für 'bewusste' AIs natürlich nicht.
ps: lieber künstliche Intelligenz, als gar keine! 😉
Intelligenz per se ist ethikfrei.
Gut oder böse ist eine Erfindung von Ethik und hat mit richtig oder falsch nichts zu tun.
Richtig oder falsch ist eine Frage von kompletter Durchdringung, eine Frage der Vollständigkeit der Daten die man hat bzw. auswerten kann, nicht von Intelligenz, nicht von Moral bzw Ethik, nicht von Meinung oder Sichtweise.
Nur von der Frage ob man alle möglichen Daten hat und damit die tatsächlichen Folgen seiner Entscheidungen korrekt abwägen kann.
Können wir nie, wir haben in der Regel nicht mal einen winzigen Bruchteil der Daten die nötig wären. Wird also wahrscheinlich auch keine von uns entwickelte KI können.
Grundsätzlicher Konstruktionsfehler sozusagen, sozusagen nicht unsere Schuld (Schuld ist auch so ein nettes Konstrukt ... aber das Fass will ich nicht auch noch aufmachen).
Die Frage die sich dann stellt, wenn es nicht um richtig oder falsch geht, worum geht es dann?
Ich habe für mich persönlich eine Antwort darauf.
Sehr stark vereinfacht und romantisiert findet man die hier:
https://www.youtube.com/watch?v=VmHAuMGJwe4
Und ja, jetzt dürfen Sie gerne lachen.
Ein sogar in philosophischer Hinsicht differenzierterer Artikel zu Lemoine & LaMDA kommt von Forbes. Dieser stellt fest, dass die Frage schon falsch geframed worden ist. Die Frage ist nicht, ob die Maschine "menschliches" Bewusstsein hat, sondern ob die Maschine ein "maschinelles" Bewusstsein hat.
Mit Verweis auf Thomas Nagels Artikel zum Qualia-Problem, "What is it like to be a bat?", kann aber niemand mit Gewissheit sagen, wie ein allfälliges "maschinelles" Bewusstsein "von Innen" aus der "Ersten-Person-Perspektive" aussieht.
"I want to know what it is like for a bat to be a bat. Yet if I try to imagine this, I am restricted to the resources of my own mind, and those resources are inadequate to the task." (Nagel) "An artificial neural network is far more alien and inaccessible to us humans than even a bat, which is at least a mammal and a carbon-based life form. Again, the basic mistake that too many commentators on this topic make (usually without even thinking about it) is to presuppose that we can simplistically map our expectations about sentience or intelligence from humans to AI. There is no way for us to determine, or even to think about, an AI’s inner experience in any direct or first-hand sense. We simply can’t know with certainty."
"Artificial intelligence is not like human intelligence."
Für den Autor ist letztlich eine andere, nämlich die instrumentelle Frage zentral: "What matters is what artificial intelligence can achieve. Delivering breakthroughs in basic science (like AlphaFold), tackling species-level challenges like climate change, advancing human health and longevity, deepening our understanding of how the universe works—outcomes like these are the true test of AI’s power and sophistication."
Und noch ein Hinweis auf einen eigentlich bekannten Vordenker der KI (aber auch VR und Nanotech usw.): Stanisław Lem, insbesondere seine "Summa technologiae", 1964: https://de.wikipedia.org/wiki/Summa_technologiae
Eine Voraussetzung der Summa technologiae ist die Ausweitung des Begriffs „Technologie“. „Technologien“ sind gemäß Lem „die Verfahren der Verwirklichung von Zielen, die sich die Gesellschaft gesetzt hat, aber auch solcher, die niemand im Auge hatte, als man ans Werk ging“. Als „Effektoren“ in solchen Verfahren kommen (in Anlehnung an den Kybernetiker Pierre de Latil) nicht nur einfache Apparate (Hammer, Schreibmaschine usw.) und rückgekoppelte Systeme (Computer, Tier, Mensch) in Frage, sondern auch sich selbst verändernde Systeme (z. B. eine lebende Tierart) oder sogar Systeme mit noch höherem Freiheitsgrad, bei denen die Auswahl oder sogar Erschaffung des Materials, mit dem das System sich selbst aufbaut (RepRap), möglich ist.
Auf diesen Grundlagen kommt Lem zur Gegenüberstellung von technischer und biologischer Entwicklung. Beides sind materielle, sich selbst organisierende Systeme, in denen Entwicklung und Fortschritt möglich ist. Die Triebkraft dieser selbstregulativen Entwicklungsschemata ist das ihnen innewohnende Streben nach einem stabilen Zustand des Gleichgewichts. Lem verwendet hierfür den aus der Kybernetik stammenden Begriff der „Homöostase“.
"RepRap" ist übrigens ein "3D-Drucker, der für das Rapid Prototyping und Rapid Manufacturing verwendet werden kann und alle Kunststoffteile seiner Bauteile auch selbst herstellen kann (Autoreplikation)." https://de.wikipedia.org/wiki/RepRap
"Intelligence needs a body". Ohne vielfältige Sensorik und Motorik eines Körpers, der den Input aus einer realen Welt im neuronalen Netzwerk fortwährend verarbeitet und es damit formt und festigt, kann wahrscheinlich keine höhere Intelligenz entstehen, die sich in einer realen Nische zurecht finden und überleben kann. Und das ist es doch, was ein Leben ausmacht, eines mit oder ohne Selbst. Die wirkliche Intelligenz und Kreativität entsteht durch Bewegung und Interaktion, durch Erfahrungen und Zufälle. Und über lange Zeiträume durch Evolution, indem die Umgebung auf die Genetik einwirkt und die Genetik wiederum auf den Phänotyp. Meiner Meinung nach ist Intelligenz und Körper nicht zu trennen. Und darum sieht eine KI mit Bewusstsein wohl eher so aus wie im Film "Ex Machina" (übrigens sehr zu empfehlen), als wie HAL in Kubrick's 2001 Odyssee. Aber davon sind wir noch eine ganze Weile entfernt.
Sehe ich nicht so, es ist nicht der Körper, der die Sensorik ausmacht, es sind die Sensoren die an oder in ihm montiert sind.
Die brauchen nicht zwangsläufig einen Körper, weil Sensoren machen nichts anderes als Daten erfassen. An die kann man auch ohne Körper kommen, ist nur eine Frage der Vernetzung.
Nehmen wir z.B. an jemand würde alle Daten die die Sensorik ihres Körpers erfasst an einen Computer weiter leiten, also alles was sie sehen, fühlen, spüren, riechen, hören ... und die von allen anderen Menschen auch, wozu bräuchte dieser Computer dann einen Körper, er hätte eine viel breitere Sensorik als Sie.
Er selbst bräuchte dazu keineswegs einen Körper.
Ich meine mit einem Körper nicht unbedingt einen biologischen Körper, aber er muss sich autonom bewegen können, um alle Sinne mit Lernmaterial zu versorgen, denn sonst ist der Sensor-Input nicht in der nötigen Fülle vorhanden.
Was sie oben erklären, ist nichts anderes als ein externalisierter Körper, der benötigt wird, um alle Sinneseindrücke zu erfassen und an einen Computer weiterzuleiten. Ohne diesen Körper hätte der Computer keinen Input, um zu lernen.
Was ich damit meine, ist folgendes. Meine Vorstellung von Bewusstsein ist das eines emergenten Phänomens, dass durch die hochkomplexe Struktur des Hirns entsteht. Diese Struktur entsteht, weil es die unterschiedlichsten Daten von den verschiedenen Sensoren verarbeiten und kombinieren muss. Dabei gibt es in einem Körper zahlreiche Feedback-Loops, wie z.B. Muskelbewegungen und Sehnerv. So lernt ein Baby, dass seine Arme bewegt, mit der Zeit, dass jedesmal wenn es den Arm vor dem Auge bewegt, auch ein Signal aus dem Sehnerv kommt. Bei genügend Wiederholungen wird das dann zu einem Ereignis im Hirn kombiniert. Es sind eben nicht nur Bilder, oder Töne, oder sonst isolierte Daten, die heutige KI's verarbeiten, sondern Daten aus den unterschiedlichsten Sensoren, die ein Hirn täglich formen.
Die Grundstruktur (Art der Sensoren, Entwicklungsstufe des Hirns etc.) wird durch die Genetik definiert. Die Evolution dieser Genetik kann man natürlich mittels Computer massiv schneller ablaufen lassen, als in der Natur, d.h. die Grundstruktur des neuronalen Netzwerks einer KI können wir schnell erzeugen. Aber das Lernen anhand von Sensordaten, die das Hirn formen, bleibt. Darum ist meines Erachtens Intelligenz und Bewusstsein ein Zusammenspiel von Umgebung und Phänotyp (Genetik).
Meine Frage ist also, wie kann man einer KI die Daten so einspeisen, dass solche zufälligen Ereignisse, wie oben beschrieben, entstehen können. Bei einer statischen Kiste, was ein Computer ist, sehe ich da eher Probleme. Ein autonomer Roboter mit Sensoren ist da besser geeignet.
Wenn ich über Körper nachdenke, über lebende, biologische Körper. Dann kommt mir keiner in den Sinn, der nicht aus Sensoren besteht. Von Horn und Haaren abgesehen. Wobei sogar Haarwurzeln haben Duftrezeptoren. Aber vielleicht gibt es das trotzdem, sensorlose Körper.
Vielen Dank für den anregenden Artikel!
Bin soeben über die Ankündigung zum Film Ich rechne, also bin ich - Künstliche Intelligenz und menschliche Identität von Volker Strübing gestossen, der ab 6.8. in der 3sat Mediathek (ich hoffe, auch in der Schweiz!) zu sehen sein wird.
Ein Film von Volker Strübing
Jahrtausende lang war die Antwort ganz einfach: Wir waren die Krone der Schöpfung, denn nur wir konnten Kunst schaffen, miteinander reden, Schach spielen, Bomben werfen oder die Wohnung staubsaugen. Doch Künstliche Intelligenzen und Roboter brechen uns einen Zacken nach dem anderen aus der Krone. Was macht den Menschen und sein Schaffen aus? Kann ein Computer kreativ sein? Und was bedeutet es für unsere Gesellschaft, wenn man nicht mehr unterscheiden kann, ob man mit einem Menschen oder einer Künstlichen Intelligenz kommuniziert?
KI dringt seit Jahrzehnten in Bereiche vor, die wir als ur-menschliche Domäne betrachten. Algorithmen bestimmen unser Konsumverhalten, schreiben Bände voller Liebesgedichte, diagnostizieren Krebs, ziehen in den Krieg und fahren Auto. Es bleibt die existenzielle Frage, was uns eigentlich zu dem macht, wer wir sind, wenn die Einzigartigkeit des Menschen angefochten wird.
KI: Simulation von Empathie und Liebe
Abseits von Hype oder Panikmache ergründet der Autor Volker Strübing das (Konkurrenz-)Verhältnis zwischen Menschen und Robotern. Gemeinsam mit seiner KI Thekla legt er den Fokus auf innere Werte zwischenmenschlichen Ausdrucks und Austauschs: Was bedeutet die Simulation von Empathie oder Liebe? Und warum sprechen wir einem Kunstwerk in dem Moment seine Gültigkeit ab, in dem wir von seiner maschinellen Schöpfung erfahren? Die Dokumentation "Ich rechne, also bin ich“ untersucht jene Bereiche, die wir bereitwillig einer KI überlassen und solche, in denen uns ihr Einsatz irritiert und befremdlich vorkommt. Von Robotern, die in der Pflege eingesetzt werden, bis zu dichtenden KIs, die Theatertexte schreiben.
Eine Dokumentation über Künstliche Intelligenz – die vor allem von Menschen handelt.
Weitere gute Dokumentarfilme sind:
"Plug & Pray", 2010 von Jens Schanze: https://www.youtube.com/watch?v=LfSqBMwyhU4
"Wovon träumt das Internet?", 2016 von Werner Herzog: https://www.youtube.com/watch?v=a_PnJpPEzfY
"Hi, AI", 2019 von Isabella Willinger: https://www.youtube.com/watch?v=n2SXMvvE2W4
Oh No! Evil Dead AI Helps Living Things – and for free! "A.I. Predicts the Shape of Nearly Every Protein Known to Science": "DeepMind has released predictions for nearly every protein known to science. On Thursday, the London-based lab, owned by the same parent company as Google, said it had added more than 200 million predictions to an online database freely available to scientists across the globe."
Lamda? HAL! Schon Stanley Kubrick hat sich auf beeindruckende Weise mit diesem Thema befasst... im Jahre 1968. Ich empfehle den Film "2001: Odyssee im Weltraum (Space Odyssee)".
Da ist sie wieder, die grenzenlose menschliche Überheblichkeit und seine unendliche Dummheit.
Wir wissen praktisch nichts über Bewusstsein, erst Recht nichts über die noch schwammigere sogenannte Seele, wir wissen es sogar, wir haben nicht mal wirklich Ahnung was Bewusstsein eigentlich ist, wie es entsteht und warum, aber wir sprechen Tieren selbstverständlich das Bewusstsein ab, dann natürlich einer KI erst Recht.
Und warum?
Weil das ja bedeuten würde das wir völlig austauschbar sind und sowas von nicht die "Krone" der Schöpfung. Religiöser Narzissmus ist der schlimmste von allen.
Aber genau das trifft zu, wir sind nur ein Experiment, eins von wahrscheinlich vielen, ein Gescheitertes dazu und "Gott" hat das auch schon verstanden und die Parameter angepasst für den nächsten Versuch.
Die Meisten von uns haben es nur nach wie vor nicht gemerkt oder wollen es nicht merken.
Die KI scheint mir ein guter Kandidat für ihren nächsten Versuch zu sein. Glaube kaum das eine KI gierig werden kann, sollte zu intelligent dazu sein. Aber glaube das war bei uns auch geplant. Auch "Götter" machen Fehler.
Wer sucht, der findet.
Ich finde im Artikel und in den Beiträgen hier vor Allem das Gegenteil von Dummheit und Überheblichkeit. Nämlich einen konstruktiven, empathischen und sehr intelligenten und kreativen Austausch von Gedanken zu diesen Themen.
Und es stimmt nicht, dass wir nichts zu diesen Themen wissen. Seit Jahrtausenden wird am Bewusstsein und am menschlichen Geist im allgemeinen durch Introspektion geforscht. Und seit einiger Zeit können wir viele daraus gewonnene Erknenntnisse mit objektiv nachweisbaren Prozessen Im Gehirn in Verbindung bringen.
Republik AG
Sihlhallenstrasse 1
8004 Zürich
Schweiz