Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!
...wir können uns als Menschen trotz Maschinen offenbar nicht davor drücken, die Verantwortung zu tragen. Ist ja auch gut so.
Bei aller Euphorie, von künstlicher Intelligenz zu sprechen halte ich für den Ausdruck von völlig ignoranter Arroganz. Diese Systeme, welche den Energieverbrauch von ganzen Städten haben, können nicht einmal annähernd mit der Leistungsfähigkeit eines Fliegengehirns mithalten. Und wer würde einer Fliege echte Intelligenz zubilligen?
Das sind ganz banale Expertensysteme, welche sich auf winzige Teilbereiche konzentrieren, von einigen wenigen Programmierern entworfen, und von einigen wenigen Experten mit ausgewählten Lerndaten trainiert werden.
Das Ausspucken von halbwegs sinnvollen Texten als alleiniges Merkmal der Intelligenz zu bezeichnen, ist ja schon mal extrem selektiv. Als ob Analphabeten per se dumm wären, oder alle die eine Sprache sprechen welche die Experten gerade nicht vorgesehen haben...
Hier geht es nicht um Forschung, hier geht es um Geld. Viel Geld.
Hier wird der gleiche Fehler gemacht, wie in der Gentechnik. Man überlässt es offenkundig geldgierigen Konzernen, festzulegen was relevant ist und was nicht. Für diese Akteure ist nur relevant, was Gewinne generiert. Wenn das Rassismus, Gewalt und Krieg bedeutet, was solls, solange die Kasse klingelt, wird es gemacht. Für die Vermögenden wird es immer sichere Plätze geben, wo sie ihrer dekadenten Verschwendungssucht ungestört nachgehen können. Die Reichenghettos welche es heute schon gibt zeigen doch auf, dass es diesen Leuten keinerlei Probleme bereitet, wenn an der Aussenseite ihrer Grundstücksmauern die Kinder verhungern.
Was wir brauchen ist eine vorauseilende Gesetzgebung. Der heutige Zustand, alles ist erlaubt was nicht explizit verboten ist, verschafft den Kapitaleignern enorme Vorteile. Bis alle relevanten Staaten ihre Aktivitäten gesetzlich geregelt haben, vergehen Jahrzehnte, Jahrzehnte in denen Goldgräberstimmung herrscht.
Es müsste so laufen, dass Konzerne ihre Ideen dem Staat zur Genehmigung unterbreiten müssen, bevor Fakten geschaffen, und Millionen von Menschen ausgebeutet werden. Nur so kann erzwungen werden, dass der technische Fortschritt den Menschen dient und nicht bloss dem reichsten Perzentil.
Gesetze zum Schutz von Würde, Moral und Ethik vor kapitalistischer Gier sind doch sinnlos, solange sie von Politiker*innen gemacht werden, die im Dienste der Gierigen stehen.
... sofern diese Politiker*innen denn, was ich, gegeben jüngste Gesetzgebungen (Online-Casinos, E-ID, ...), zu bezweifeln wage, überhaupt annähernd verstehen, was IT bedeutet ...
Echt jetzt? Und wer bitte schön im Staat soll entscheiden, welche Ideen gut sind und welche nicht? Glauben Sie mir, sie wollen keine Zustände wie im real existierenden Sozialismus: Beamte kontrollierten auch dort relativ willkürlich ob etwas Genehm ist oder nicht. Und diese Leute waren keine Experten, sie hatten nur das richtige Parteibüchlein.
Natürlich bräuchte es Regelungen, aber haben wir denn jemanden der das wirklich regeln kann? Schauen Sie mal was die Finanzbranche an Regeln hat, und wer davon wirklich profitiert: die Juristen, die die Regeln erlassen haben, und damit reicher werden...
Wofür wählen wir denn mühsam ein Parlament? Mit ihrer Einstellung könnten wir die Verantwortung wohl dem Meistbietenden abtreten, oder was schlagen sie vor? Mit Beamtenbashing alleine haben wir keinen besseren Staatsapparat.
Und 'real existierenden Sozialismus' gab es nie. Es gab und gibt Diktaturen welche sich sozialistisch schimpfen, nicht mehr und nicht weniger. So weit ist es nur gekommen, weil die Leute zu faul sind das Controlling selbst in die Hand zu nehmen und freudig die Verantwortung einer schillernden Führerfigur abtraten.
Was ich möchte ist, dass wir darüber diskutieren ob wir einem Expertensystem Entscheidungen überlassen wollen, oder ob wir vorschreiben, dass dies ein Menschengremium sein muss. Wenn wir das einfach so weiterlaufen lassen wie es jetzt gerade läuft, dann haben wir in 5 Jahren Realitäten, dass ich von einer sogenannten KI auf Bonität überprüft werde, bevor ich eine Hypothek überhaupt beantragen kann. Und so wies aussieht, werde ich als wenig verdienender Farbiger dann von vornherein ausgeschlossen sein.
Vielen Dank Herr Reber, besser kann man es nicht zusammenfassen. In Europa bringt man nicht einmal ein Gesetz auf die Beine, das die Big Tech Firmen verpflichtet, in jenen Staaten Steuern zu bezahlen in denen sie Gewinne erwirtschaften - will heissen in allen. Mit KI liesse sich doch sicher ein Verteilungsschlüssel berechnen.
Konzerne ihre Ideen dem Staat zur Genehmigung unterbreiten müssen, bevor Fakten geschaffen
Nicht nur Konzerne, sondern eigentlich jeder, denn vor nicht allzu langer Zeit waren die heutigen BigTech noch sehr klein.
Genau das muss das Ziel sein. Erlaubt ist, was explizit erlaubt ist, alles andere ist erstmal verboten.
Danke für den Beitrag, der viele Schwachstellen von künstlicher Intelligenz aufzeigt. Sehr schön finde ich den Satz "Das Modell ist strukturell konservativ". Das ist das Gegenteil, was wir von einer nützlichen Intelligenz erwarten - nämlich Verbesserung.
Künstliche Intelligenz ist eben auch nur eine Technologie, und deshalb gilt für sie dasselbe wie für andere Technologien: Am Anfang wird breit herumexperimentiert, teils mit Nebenwirkungen (da sind wir momentan). Dann finden sich einige Anwendungsbereiche, wo sie nützlich und wirtschaftlich ist (gibt es auch schon, z.B. Spracherkennung oder Optimierungsprobleme). Und in Bereichen, in denen eine Technologie potenziell für Menschen schädlich ist, wird sie reguliert oder verboten.
Um Letzteres werden wir nicht herumkommen - das heisst, wir müssen Verantwortung übernehmen. Und vielleicht ist es genau diejenige Verantwortung, die gewisse Menschen gerne auf eine "neutrale" künstliche Intelligenz abschieben würden, weil sie Angst davor haben, Verantwortung zu tragen.
Welche Technologie, die für Menschen (warum nur für Menschen?) potentiell gefährlich ist, wurde je durch Verbote unschädlich gemacht? Welches Problem wurde je durch verantwortungsbewusstes Handeln eliminiert?
Einverstanden, Schaden müssen wir nicht nur von Menschen abwenden, sondern ganz generell.
Für Technolgie, die durch Verbote oder Regulierung unschädlich (oder zumindest weniger schädlich) gemacht wurde, gibt es aber eine Reihe von Beispielen. Kein Transportmittel wäre heutzutage so sicher, wenn es nicht Vorschriften dafür gäbe. Dasselbe trifft z.B. auch auf Pharmazeutika zu. Oder Waffen, deren Verbreitung wir mit Regulation wesentlich einschränken. Ich bin da deshalb halbwegs optimistisch.
FCKW. Mit der FCKW-Halon-Verbots-Verordnung.
Ihre Worte erinnern mich an Hans Jonas «Das Prinzip Verantwortung» (1979) mit seinem «ökologischen Imperativ»:
Handle so, dass die Wirkungen deiner Handlung verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden.
Die Technikfolgenabschätzung müsste aber im Sinne der Prävention vor ihrer systemweiten Implementierung erfolgen und nicht erst, wenn es zu spät ist.
Mit Günther Anders gesprochen, muss jeder Mensch eine «moralische Phantasie ausbilden, indem die Wahrnehmung des «Undenkbaren» geschult wird, sowie einen universellen hippokratischen Eid ablegen:
keine Arbeiten anzunehmen und durchzuführen, ohne diese zuvor darauf geprüft zu haben, ob sie direkte oder indirekte Vernichtungsarbeiten (sind); die Arbeiten, an denen wir gerade teilnehmen, aufzugeben, wenn diese sich als solche direkten oder indirekten Vernichtungsarbeiten erweisen sollten.
Andernfalls folgt «Die Antiquiertheit des Menschen» (1956).
Das Abschieben der Verantwortung, das Sie erwähnen, ist spätestens seit Morozov auch als «Solutionismus» bekannt. Für jedes Problem, sei es ein kleines oder ein grosses, wie die Klimakrise, werde es schon eine technische Lösung geben, sei es eine KI, eine App oder Geoengineering.
Und dennoch frage ich mich: Wer ist das «Wir», das Verantwortung übernehmen muss? Sind das «wir» alle, also alle Menschen, gleichermassen? Oder ist dieses «Wir» in Wahrheit ein heterogenes, unebenes «Wir»? Müssten diejenigen mit mehr Macht und Mitteln (u. a. sog. «Verantwortungsträger») nicht entsprechend mehr Verantwortung wahr- und übernehmen? Warum wird die Verantwortung auf «Wir», auf jede*n Einzelne*n «gleichermassen» übertragen? Ist dies gerecht? Oder müssten «Wir» nicht vielmehr diejenigen mit mehr Macht und Mitteln auf ihre Verantwortung hin «behaften» (sog. «Compliance»)?
Lieber Michel, auf die Gefahr hin, dass sich deine Replik gar nicht an mich richtet, danke ich für die Frage nach dem «Wir». Wir, die gesamte Menschheit, rasen ungebremst auf den ökologischen, ökonomischen und sozialen Kollaps zu. KI hin oder her. Aber nicht alle von uns werden das grosse Verrecken persönlich erleben. Eine Altersfrage. Das «Wir» ist die Summe aller «Ichs». Das «Wir» gibt es nicht. Es gibt offenbar nur zu wenige «Ichs», die sich nachhaltig für das «Wir» einsetzen. Macht nichts. Der Planet Erde wird nach dem Anthropozän seine Vielfalt wieder erlangen.
Vielen Dank für Ihre Bemerkungen, und vor allem die Links. Ich sehe, es gibt noch viel zu lernen und lesen.
Zur Frage, wer das "wir" ist, das Verantwortung übernehmen muss: Schön wäre es, wenn das tatsächlich "wir alle" sind. Realistischerweise denke ich aber, dass das erst mal "Verantwortungsträger" sein müssen - d.h. alle, die Einfluss auf die Gestaltung eines Produktes, Dienstes, Unternehmens oder auch einer Gesellschaft haben. Das schliesst Politiker, aber auch CEOs und Designer ein. Gerade für Designer stellt das einer meiner Lieblingsautoren, Mike Monteiro, in Ruined by Design sehr schön dar:
Either by action or inaction, through fault or ignorance, we have designed the world to behave exactly as it's behaving right now.
Lernen auf Computer anzuwenden ist ein m.E. einer der fataleren Anthropomorphismen auf Grund eines banalen falschen Umkehrschlusses.
Im Grunde lernen Maschinen nicht völlig anders als wir Menschen: Aus Beispielen sammeln sie Erfahrung, die sie dann verallgemeinern.
Logisch, wenn dieser Aspekt von ‚Lernen‘ als Konzept in die Programmierung einfliesst, dass ein Computer diesen Aspekt von Lernen reproduziert - hoffentlich - unter der Voraussetzung einer intelligenten Programmierung.
Zu Lernen gehören aber integrierend Konzepte wie Kontext und Reflexion; Kontext als Träger des Motivation, und Reflexion für retrospektive Sinnhaftigkeit und prospektive Begrenztheit, alles zusammen ein Teil dessen was wir mit Bewusstsein ‚betiteln‘ (sic!). Davon sehe ich bei machine learning und KI nichts, oder erwarten wir gar von einer Maschine etwas wie das Strahlen auf einem Kindergesicht, wenn es die Schönheit einer Symmetrie einer Blume bemerkt?
Fatal? Wenn wir unser Verständnis von Lernen an Maschinen zu orientieren, müssen wir uns nicht wundern, wenn Schulen Menschen programmieren.
In welcher Welt wir leben wollen, sollte aber in öffentlichen, demokratischen Prozessen ausgehandelt, nicht von privatwirtschaftlichen Unternehmen festgelegt werden.
Und gerade deshalb sollten Googles Algorithmen möglichst neutral sein und nicht versuchen, ideologisch einzugreifen. Ich will nicht, dass mir Google bei einer Bildersuche nach “CEO” 50% Frauen und 50% Schwarze anzeigt, sondern ich will eine Auswahl sehen, die möglichst repräsentativ die Realität wiedergibt - selbst wenn die Realität nicht angenehm sein mag.
Neutralität gibt es nicht.
Rassismus, Sexismus, Ableismus, .... gibt es. Sollen diese Undinger wirklich von Algorithmen verstärkt werden? Derselbe Algorithmus sortiert dann auch Bewerbungen aus, entscheidet über Haftstrafen, etc.
Darum braucht es KI, die Kant implementiert bekommen hat. Ethik gibt es.
Das sind ungeheuer wichtige Informationen. Vielen Dank, dass ihr "Republikaner" solche Informationen ausfindig macht und dann uns "gewöhnlichen Computer-Fritzen" weiterleitet. Bleibt am Ball: ganz herzlichen Dank, ich schicke euch meinen Sonnenblumenstrauss und wünsche euch einen ergebnisreichen Tag. Sepp Grandson
Ein wichtiger Beitrag. Was ich im Artikel nicht so gelesen habe, aber bemerkenswert finde: Algorithmen, besonders «Machine Learning», können sehr effektiv Zusammenhänge erlernen (zum Beispiel «illegal» und «Mexikaner» im Sprachgebrauch). Algorithmen haben aber grosse Schwierigkeiten, kausale Zusammenhänge zu erkennen. Warum tauchen die Wörter «illegal» und «Mexikaner» oft zusammen auf?
Weil Mexikaner oft illegal sind? Weil es ihnen oft vorgeworfen wird? Weil Mexikaner viel weniger Rechte haben und dadurch öfter in illegale Situationen kommen, obwohl sie sich genau gleich verhalten wie alle anderen? Weil es ihnen mit Absicht unterstellt wird, um die öffentliche Wahrnehmung zu beeinflussen? Weil Mexikaner die US-Bevölkerung hassen und sich absichtlich nicht an Regeln halten?
Schon für Menschen ist es schwer, den Überblick von Kausalzusammenhängen nicht zu verlieren. Maschinen haben keine Chance.
Merkwürdig, dass manche Menschen erst dann etwas glauben, wenn sie es technisch als greifbaren Apparat rekonstruieren können – und nicht bereits theoretisch in der Imagination begreifen. So offenbar auch Theorien zur strukturellen Diskriminierung, Intersektionalität und Identitätspolitik.
Doch das ist leider nichts Neues unter der Sonne. Schon Aristoteles’ Onto/logik, die für über 2000 Jahre als universale, ewige, ja göttliche Ordnung galt, entpuppte sich als partikulare, historisch bedingte und abstrakte Rekonstruktion der griechischen Sprache und Lebenswelt – mitsamt ihrer Vorurteile. (Dass dann mit Gottlob Frege ein Rassist, Antisemit und Nazi-Sympathisant die Logik revolutionierte, welche dann zur Basis der Kybernetik und Informatik wurde, gehört ebenfalls zu den Ironien der Geschichte).
Kein Modell der Welt, sei es ein menschliches oder ein künstliches, zumal der sozialen Welt, ist neutral und absolut objektiv. Der Glaube, dass eine Maschine, die ein Mensch erbaut hat, wie Gott sub specie aeternitatis mit einem View from Nowhere auf die Welt schaut und uns von unseren weltlichen Verstrickungen befreit, ist der solutionistische Aberglaube in einen rettenden Deus ex machina.
Denn Maschinen lernen von ihren Erbauern, den Menschen, wie Kinder von ihren Eltern und sozialen Umwelt – und so internalisieren sie auch ihre Vorurteile. Exemplarisch dazu ist «Tay», der Chat-Bot von Microsoft, der entwickelt wurde, um auf Twitter zu testen, wie künstliche Intelligenz im Alltag mit Menschen lernen kann. Nach nur 16 Stunden musste er abgestellt werden, da er begann sexistische, rassistische, antisemitische, nazi-sympathisierende und verschwörungsgläubige Aussagen von sich zu geben.
Hinter der Schrift steht die Vor-Schrift, im Urteil steckt ein Vorurteil, im Normalen die Normen und im «natürlich!» das «kultürlich». Und was als deskriptive Ontologie daherkommt – auch im Sinne der Informatik – ist in Wahrheit eine präskriptive Ontologie. Doch der positive Feedback-Loop, die gegenseitig sich verstärkende Rückkopplungsschlaufe «verschleiert» das Konstruierte und Normierte. Diese Verschleierung und Verkehrung, diese Naturalisierung und Normalisierung, ist das Prinzip einer jeden Ideologie.
Die Gefahr der künstlichen Intelligenz liegt nicht darin, dass Maschinen mehr und mehr wie Menschen denken, sondern dass Menschen mehr und mehr wie Maschinen denken. (Joseph Weizenbaum, Computer-, Internet- und KI-Pionier)
Ich finde Sie sehen das Ganze etwas zu negativ und ich staune eigentlich gar nicht. Wenn KI-Modelle von den Datensätzen unserer Welt lernen und nachweislich rassistisch, sexistisch oder sonst wie diskriminierend werden, sind diese Modelle doch das beste Beispiele dafür, dass dies nicht nur ein Hirngespinst oder eine schicke Opferhaltung von Minderheiten ist. Wenn Ingenieure es nicht hinkriegen, die Welt nach zu modellieren ohne auch noch grade Rassismus mit zu modellieren, ist das doch die Bestätigung, dass es nicht nur ein paar "bad apples" sind, sondern dass systemischer Rassimus absolute Realität ist.
Können wir von solchen Modellen nicht auch über die Diskriminierung in unserem System lernen? Modelle sind ein vereinfachtes Abbild der Realität und helfen uns Dinge vorauszusagen und Massnahmen zu testen. Was ist, wenn wir von dieser Bias-Forschung von rassistischer KI rückschliessen können auf systemische Fehler in unserer Gesellschaft?
Ich sage nicht, dass dieser Umstand per se etwas Negatives ist, sondern nur, dass es «merk-würdig» ist. Erstaunlich, weil man bspw. systemischen oder strukturellen Rassismus spätestens seit den 1960ern soziologisch theoretisch hätte begreifen und so genügend «Bestätigung» in der Empirie hätte finden können – und nicht erst via KI in den 2010er und 20er. «Natürliche Intelligenz» hätte also gereicht. (Aber für manche ist das halt noch «Neuland»)
Aber es ist auch bezeichnend für den Homo faber, der erst, wenn er etwas öffnen, hineinschauen, auseinandernehmen und wieder zusammenbauen konnte, es wirklich verstehen, begreifen und schliesslich glauben kann.
Interessant ist auch, dass er dann das mechanistisch Verstandene als Paradigma für das noch Unverstandene gebraucht, so dass es zu metaphorischen Übertragungen kommt: Mensch als Maschine, Gehirn als Computer, Gesellschaft als Netzwerk usw. Die Metapher läuft aber immer Gefahr «wörtlich» genommen zu werden und damit reduktionistisch und einschränkend zu wirken. Darauf wollte das Weizenbaum-Zitat aufmerksam machen.
Doch ihr Vorschlag hat einiges für sich. Das Problem ist nur, dass Modell und Wirklichkeit stets miteinander verwechselt werden. Dies geschieht schon mit der Sprache (worauf mein Aristoteles-Exkurs hinauslief). Wieviele endlose und müssige Diskussionen werden nur darauf verwenden, manchen Menschen klar zu machen, dass die Sprache die Welt nicht 1:1 abbildet?
Dass auch Sprache «immer ideologisch ist» können oder wollen viele nicht glauben. Nahmen wir die Muttersprache doch mit der Muttermilch auf, wie man so sagt, so dass nicht nur sie, sondern auch das, was wir mit ihr denken und ausdrücken, «natürlich» und unabänderlich mit uns verwachsen scheint. Jede kleinste Änderung – etwa Richtung weniger Exklusion, Sexismus, Rassismus usw. – erscheint gleich als Perversion der natürlichen, Göttlichen Ordnung.
«Merk-würdig» nicht, wie viel Metaphysik noch in heutigen Diskursen steckt?
Ich finde das überhaupt nicht merkwürdig, insbesondere wenn die theoretische Herleitung so schwungvoll wie hier passiert, so dass das Kind gleich mit dem Bade ausgeschüttet wird ;-) Auf die Erklärung, wie sich Freges Rassismus und Antisemitismus in der Prädikatenlogik niedergeschlagen hat, bin ich auf jeden Fall gespannt.
Die Frage nach dem Status der Prädikatenlogik als einem „Modell der Welt“ (oder als Sprache, in der solch ein Modell formuliert werden kann) ist übrigens in der Analytischen Philosophie, deren wichtigster Begründer Frege gemäss dem von Ihnen verlinkten Artikel sei, durchaus unterschiedlich beantwortet worden, vgl. z.B Wittgenstein (für den Frege ein Leben lang ein wichtiger Einfluss blieb) in Bemerkungen über die Grundlagen Mathematik, aber auch den Konstruktivisten Nelson Goodman in Facts Fiction and Forecast.
Goodman schlägt, kleiner Hinweis, auch vor, von Welten anstatt von "der Welt" zu reden - denn: Welche Welt soll mit der Sprache nicht 1:1 abgebildet werden können? Und welche Sprache? Ja, das ist merkwürdig, diese Metaphysik. Wie leicht schleicht sie sich durch die Hintertür wieder herein. Das hat bereits Frege beschäftigt.
In keiner Weise wollte ich das Kind, also die Prädikatenlogik, aus dem Bade schütten. Ich schrieb auch nicht, dass Freges Rassismus, Antisemitismus und Nazi-Sympathie sich in seiner Logik niederschlug, so wie Aristoteles Vorurteile in seiner Onto/Logik (und was ich nicht behauptete, kann ich auch nicht erklären ;-). Die räumliche Nähe kann jedoch diesen Analogieschluss motivieren.
Ich sprach in Freges Fall vielmehr von «Ironien». Die Ironie, dass jemand mit solchen Vorurteilen eine derart «reine» Logik kreierte und damit die Logik eines anderen mit anderen Vorurteilen revolutionierte. Und die Ironie zweiten Grades, dass diese reine Logik als Grundlage für Kybernetik und Informatik wurde, welche nun in manchen Anwendungen Vorurteile internalisiert und verstärkt. (Mit Adorno aber könnte man die Prädikatenlogik als Formalisierung und formale Grundlage des «identifizierenden Denkens» in Begriffen sehen – und damit als Teil des «totalen Verblendungszusammenhangs».)
Danke jedenfalls für die Erinnerung an die good ol’ heroes der Analytischen Philosophie, S. H.! Ich habe selbst zu Wittgenstein meiner Masterarbeit geschrieben, viel zu Frege, Russell, Wiener Kreis, Quine und Davidson gearbeitet und konnte auch Ray Monk, der den Artikel zu Frege schrieb, an einer Vorlesung hören (und liess es mir nicht nehmen, meine Ausgabe von «The Duty of Genius» signieren zu lassen :-).
Was das «1:1» anbelangt, fand ich Richard Rortys Buch «Der Spiegel der Natur: Eine Kritik der Philosophie»_ (1979/81) wichtig.
Wundervoll ist die Parabel «Del rigor en la ciencia» (dt.: Von der Strenge der Wissenschaft) von Jorge Luis Borges, in der ein Herrscher befahl, eine Karte zu erstellen, «die genau die Grösse des Reiches hatte und sich mit ihm in jedem Punkt deckte». Dies zeigt sowohl den Nutzen von abstrakten, reduktionistischen, aber eingeschränkten Abbildungen und Projektionen als auch die Absurdität (und Hybris) einer 1:1-Abbildung der Welt.
Toll dazu das Lied «Neues vom Trickser» von Tocotronic, in dem Dirk Von Lowtzow singt:
Eins zu eins ist jetzt vorbei.
Grüezi mitenand
Ein wunderschönes Bild, die Metaphysik, die durch die Hintertür wieder hereinschleicht. Ich frage mich, ob sie denn je draussen war. Oder ist das Draussen gar keins? Und wir spielen eher ‚Versteckis‘ wie Kleinkinder, die sich verstecken, indem sie sich die Augen zuhalten.
Beste Grüsse, K.A.
die theoretische Basis für die Computer die wir heute betreiben kommt eher nicht von Frege. Mehr so von George Boole, Allan Turing, Alonzo Church und John von Neumann (Hardware).
Ich bin mir auch nicht ganz sicher was Sie mit "im Sinne der Informatik" meinen. Informationstheorie ist nichts weiter als ein Zweig der Mathematik. Es wird schwierig werden dort irgendwelche "präskriptiven" Tendenzen zu finden (zumindest im "Mainstream" der Forschung).
Wenn man sich jetzt in der Prxis nun so ein regelbasiertes System ansieht, dann ist die Frage natürlich wo die Regeln herkommen wenn man den Output verstehen und evaluieren will. Wenn das jetzt beispielsweise die Newtonsche Mechanik ist dann weiss ich nicht was daran "präskriptiv" sein soll.
Anders ist es natürlich wenn wir die Regeln gar nicht kennen, was bei Anwendungfällen von ML (Maschiene Learning) meisst der Fall ist (da i.A. das Problem zu kompliziert ist z.b Übersetzung natürlicher Sprachen). Dann wird das Problem statistisch gelöst und für die Approximierung der "Regeln" werden menschengemachte Daten verwendet.
Das bedeutet zweierlei, nämlich dass ein ML getriebenes System nicht immer richtig liegen kann und dass die gelernten Zusammenhänge letzlich nur durch menschliche Wahrnehmung und Verhalten zustandekommen.
Mann kann das natürlich anders sehen, z.B. sind die Daten die irgendein Sensor (vielleicht das CERN) generiert menschengemacht ? Auf jeden Fall sind die Messwerte beeinflusst davon wann ein Mensch welchen Sensor wohin gestellt hat.
Eigenltich bestand darüber auch nie ernstahfte Uneinigkeit, eher darüber welche Welt wir eigentlich mit Hife von ML modellieren wollen. Nehmen wie alle Daten die wir kriegen können ? Das ist der Versuch die Welt zu approximieren wie sie ist, bzw wie eine bestimmte Menge Menschen sie sehen (eher viele). Oder nur eine "kuratierten" Untermenge also entsprechend wie die "Kuratorin" sie sieht und eine (eher kleine) Menge an Menschen.
Und da fängt das politische an, denn wer sind diese Menschen bzw welche Menschen könnne ihre Weltsicht von vorneherein gar nicht beitragen zb weil sie nichtmal einen Internetzugang haben ?
Das Paper von Gebru,Bender et al [http://faculty.washington.edu/ebender/papers/stochastic_parrots.pdf] stellt sehr stark auf identitätspolitische Aspekte ab und leitet daraus die Forderung nach "Kuratierung" ab, führt dann aber die oben kurz angerissenen Diskussion nicht. Daher wurde ihnen auch aus der Community eine "Agenda" vorgeworfen. Das Paper wurde dort übrigens sehr viel nunacierter diskutiert als im Artikel beschrieben. Pedro Domingo stellt nur den einen extremen Gegenpol dar.
Zur theoretischen Basis der Informatik: Der Link läuft von Frege über Russell zu Church.
Freges Beitrag ist die Idee, Begriffe als Funktionen wiederzugeben. Damit gelingt es ihm, eine formale Sprache zu entwickeln, mit der Relationen so ausgedrückt werden können, dass Mehrfachquantifikationen möglich werden. Vgl. z.B. Ferreiros, Jose (2001): „The Road to Modern Logic – An Interpretation“. In: The Bulletin of Symbolic Logic. Vol. 7, No 4. S. 441–484.
Dass dies allerdings für die aktuelle Debatte um den Bias von künstlicher Intelligenz relevant ist, bezweifle ich. Ihre Überlegungen dazu finde ich interessant und hilfreich.
Ein Beitrag zur Entzauberung:
Um einen Ratgeber „Wie bestimme ich einen Pilz“ zu verfassen gehe ich wohl wie folgt vor: Ich führe Bezeichnungen für die relevanten Dinge (Hut, Stiel, Myzel, Schlauch, Sporen..) und deren Eigenschaften (Farbton, Grösse, ..) ein – damit ist die Welt fürs erste abgesteckt. Dann legt man relevante Bedingungen fest (ist der Hut rot). Dann die aufwendigste Arbeit – die Bedingungen zu zu Bedingungsketten zusammensetzen – Beispiel (Wenn der Hut rot ist und der Hut flach ist und der Stiel..etc.. dann ist es ein Fliegenpilz). Wir müssen eine grosse Zahl von relevanten Bedingungen und eine sehr grosse Zahl von Bedingungsketten definieren (das erste ist schwierig, das zweite ist sehr aufwendig).
Also ein Vorschlag wir erstellen ein App „PilzOK“ mit KI. Wir gehen im ersten Teil genau gleich vor wie oben (Begriffe und Eigenschaften festhalten), dann aber statt Bedingungsketten selber zur erarbeiten erstellen wir ein „KI-App“ und zeigen ihm Pilze, die passenden Bedingung für den einzelnen Pilz und den Namen des Pilzes. (Das nennt man „Trainieren“) Wir überlassen es dem System herauszufinden welche Kombination von Bedingungen (relativ) am besten zu einem Resultat führt. Anschliessend können wir das System nutzen um die Bezeichnung für einen vorhandenen Pilz zu finden indem wir die gestellten Fragen beantworten. Wenn man die Sache mit einem Bias angeht und das System nur mit Speisepilzen „trainiert“ kann es gut und gern geschehen dass das System einen Knollenblätterpilz als Steinpilz erkennt: Das System lebt ja in einer Welt in der es keine Knollenblätterpilze gibt und der gemäss Bedingungen nächstbeste Pilz für den Steinpilz ist der Knollenblätterpilz.
Kausale Zusammenhänge im Sinne von Ursache – Wirkung kann man mit Hilfe von Bedingungsketten beschreiben, aber der Umkehrschluss einer Kausalität auf der Basis einer zutreffenden Bedingungskette ist unzulässig.
Dieses Beispiel zeigt wie wichtig die Beherrschung der „Sprache“ ist – darum sagt man auch Sprach-„Schatz“ für den Vorrat an Bezeichnungen die wir kennen um die Welt zu beschreiben: Wer mit „Dingsda“ als Begriff auskommt und dessen Schatz an Verben sich auf „tun, machen“ beschränkt lebt in einer vergleichsweise armen Welt. Das gilt auch für Bedingungen – jemand der nur die Bezeichnungen „Rot, Grün und Blau“ kennt lebt eben nicht in einer farbigen Welt. Und nur die (erlernte) Fähigkeit aus vorhandenen Daten einen Schluss abzuleiten ermöglicht uns das Leben in dieser komplexen Welt. - Wer nicht gelernt hat z.B. aus „ein schlankes hellgrünes Ding schlängelt sich auf mich zu“ den Schluss zu ziehen (Vorsicht Schlange, potentielle Kausalität) kann gebissen werden.
Schon der Begriff künstliche 'Intelligenz' ist meiner Meinung nach ein gehöriger Etikettenschwindel. Auch die ausgeklügeltesten Algorithmen können bestenfalls immer nur ein Exzerpt des Gehabten erzeugen.
Wenn man Intelligenz definieren sollte (es gibt ja x Arten, resp. Bereiche von 'Intelligenz') dann könnte man vereinfacht zusammenfassen, dass Intelligenz die Fähigkeit ist, aus Bekanntem auf Neues zu schliessen.
Und genau das kann diese künstliche 'Intelligenz' eben rein gar nicht leisten, wie es auch dieser einmal mehr hervorragende Artikel sehr gut schildert. Wäre das anders, dann könnte KI vielleicht ja auch Wettervorhersagen mit ausgezeichneter Genauigkeit machen, oder ;-) ?
Es ist nach wie vor sehr, sehr ratsam, die eigene - soll man sagen 'natürliche' - Intelligenz noch nicht grad abzustellen und gewisse 'Segnungen' der neueren Technik jeweils sehr genau zu prüfen.
Aber ich kann mir gut vorstellen, dass so KI-manipulierte Menschen eine kommerziell sehr gut zu melkende Milchkuh darstellen und da darf auch eine noch so brillante Forscherin die Party auf gar keinen Fall stören, gell... ...
dass so KI-manipulierte Menschen eine kommerziell sehr gut zu melkende Milchkuh darstellen
Ja, und wer ist derzeit nicht mehr KI-manipuliert? Ich kann das nicht von mir behaupten, obwohl ich recht grossen Aufwand betreibe, mich nicht manipulieren zu lassen. Daher halte ich die im Artikel angesprochene Vergemeinschaftung für notwendig und überfällig.
Der spannende Artikel um KI erinnert mich an die schon etwas ältere Diskussion um "natürliche" Intelligenz. Auch beim IQ-Test musste man feststellen, dass dieser sehr stark vom Kontext und damit von einer männlichen, weissen Mittelschicht-Sicht geprägt ist. Der Nobelpreisträger James Watson hat trotzdem und redundant behauptet, dass Schwarze dümmer sind als Weisse. Ihm wurden deshalb 2019 mehrere Ehrentitel aberkannt. Leider kann man das Google nicht...
Ich befürchte, der Verzicht einzelner auf einzelne Komponenten bringt nichts! KI wird unser Leben immer mehr durchdringen und genutzt werden. Es ist deshalb wichtig, dass unsere Gesellschaft Transparenz schafft, das Thema offen diskutiert und Regeln aufstellt, wie damit umzugehen ist. Das ist definitiv ein Thema, das „der Markt NICHT regeln“ kann!
Der Journalist und Historiker Rutger Bregman nennt Beispiele in seinem Buch Im Grunde gut. Eine Rezension steht hier
Kleiner Hinweis: Vor etwa einem Jahr hat Daniel Graf Bregman in der Republik interviewt
Gleichzeitig werden Algorithmen per Gesetz als fair erklärt:
https://www.eff.org/deeplinks/2019/…algorithms
Diese Systeme tun also offenbar oft genau das, wofür sie gedacht sind.
Ja, die Computerwissenschaften müssen anfangen, politischer zu denken.
Hier vielleicht etwas aufpassen, das kann ebenfalls in Vorurteile spielen. Man sollte hier nicht die Forschenden zu Sündenböcken machen. Das Problem ist nun wirklich nicht, dass Computer-affine Leute nicht politisch denken (können) ─ sie werden dann einfach genau wie andere Leute bestenfalls ignoriert/ausgeschlossen und im Falle von lästigem Aktivismus zensiert, diskreditiert, gefeuert, eingesperrt, etc. (Timnit Gebru ist ja hier bei weitem nicht das erste Beispiel, besonders eklatant war es z.B. bei: https://en.wikipedia.org/wiki/Aaron_Swartz, https://en.wikipedia.org/wiki/Julian_Assange)
Es ist ausserdem unklar, wie viel die "Wissenschaften" selbst hier beitragen können: An internationalen Machine-Learning-Konferenzen müssen Papers oft bereits ein "Broader Impact Statement" mitliefern und Reviewer sind angehalten, doch bitte jedwede "Ethical Concerns" einzubringen. Doch alle diese Forschung hat mehrere Anwendungen, und die meisten Forschungsarbeiten motivieren die Forschung ja nicht damit, dass man tödlichere autonome Waffen basteln können will, auch dann nicht, wenn die Forschung z.B. schlussendlich von DARPA finanziert ist (https://www.darpa.mil/work-with-us/…t-campaign). Was hier geschieht ist also vielleicht eher so eine Art Alibiübung um sich Akzeptanz zu erschleichen, genau wie bei Google.
Grosse Teile der Forschung in Industrie und an Universitäten werden von Leuten finanziert, die kein grosses Interesse daran haben, Technologie ethisch anzuwenden, dann würden sie nämlich etwas Macht und/oder Profite verlieren.
Die Compas KI sagt: "der da braucht besondere Unterstützung, um nicht rückfällig zu werden", und der Staat sagt: "Okay, sperren wir ihn weg". Da kann doch die KI nichts für. Arme KI!
Danke für den Artikel. Er zeigt, dass neue Technologien alle etwas angehen, und spart technische Details, die eh kaum jemand versteht, geschickt aus.
Wer trotzdem einen Zeh in die Technologie der KI tauchen möchte, kriegt die Neural-Networks-Serie von 3blue1brown auf youtube empfohlen - braucht etwas englisch- und Mathe oder IT-Kenntnisse, ist dann aber leicht verständlich.
@Redaktion: Einige Fehler im Text:
In folgendem Absatz fehlt der Thinktank-Name, es müsste heissen "vom KI-Thinktank «Open AI»":
Auch hier hat sich bestätigt, dass mehr Daten bessere Performance bedeuten. So machte letztes Jahr das vom KI-Thinktank entwickelte Sprachmodell GPT-3 Furore (...)
Fehlerhafte Hyperlinks:
"«Our Data Bodies»" linkt auf https://www.odbproject.org/https://www.odbproject.org/
"Grundsatzreport «Automating Society» (...) Schweiz" linkt auf https://automatingsociety.algorithmwatch.org/report2020/switzerland/automatingsociety.algorithmwatch.org/report2020/switzerland/
"Unding.de" müsste auf https://unding.de/
statt https://www.unding.de/
verlinken (deren Webserver macht leider keine automatische Umleitung)
Sehr geehrter S. Brüggemann, herzlichen Dank für Ihre Hinweise betreffend der fehlerhaften Links und des fehlenden Namens. Das hätte uns in der Produktion nicht passieren dürfen, mir bleibt nur die Entschuldigung dafür, die Fehler sind jetzt behoben.
Wir haben ein autistisches Weltbild, denn wir glauben, dass unsere westliche Art zu Leben die einzig richtige ist. Westliche künstliche Intelligenz wird deshalb eher als Verstärker wirken und den Graben zu anderen Welten noch vertiefen. Da wird auch Ethik nicht weiter helfen, weil sie westlich geprägt sein wird.
Ich weiss nicht so recht, wen Sie mit „wir“ meinen und nehme mal an, dass Sie sich selbst davon ausnehmen, das beschriebene autistische Weltbild zu haben. Ich denke, dass viele interessierte und aufgeschlossene Menschen im Westen sich darüber bewusst sind, dass unsere Lebensweise nicht das Gelbe vom Ei ist. Natürlich gibt es auf der anderen Seite auch viele andere, die das anders sehen.
Aber diese Betriebsblindheit hat die westliche Welt ja nicht für sich allein gepachtet. Es liegt in der Struktur des menschlichen Hirns, dass wir gern die innere Landkarte mit der Landschaft gleichsetzen, dass wir also unsere Vorstellungen und Ansichten von der Welt für die Realität halten. Aber ich behaupte mal, dass es das genauso in anderen Kulturen gibt.
Im «wir», lieber Herr H., bin ich eingeschlossen, denn ich bin ein Teil dieser, unserer Welt. Es geht nicht um Lebensweisen und Betriebsblindheit. Und ja, es ist überall so, nur die Vorurteile sind anders.
Unser autistisches Weltbild, wird mir durch unsere Medien gespiegelt und die Kommentare der Leser- und Zuhörerschaft – Ausnahme die Republik – von der ich viel mitnehme. Sie wird bestätigt durch die Besserwisserei, das Belehren von Mitmenschen anderer Kulturen. Ich habe während mehr als 40 Jahren in und mit anderen Kulturen gelebt, gearbeitet und unterrichtet, in Ost-, Mittel- und Westeuropa, Ostasien, USA und ein wenig in Afrika und wie ich zu den Wurzeln zurückkam, wurde mir der Kontrast im Umgang mit anderen Kulturen so richtig bewusst. Wir orten Demokratiedefizite bei Kulturen, die gar keine Demokratie wollen und übersehen dabei die eigenen. Wir klagen Menschenrechte bei anderen ein und übersehen dabei die eigenen Verletzungen. Ich habe mal den Ausdruck geprägt: «Wenn wir wüssten, wie arrogant wir auf die Anderen wirken, würden wir vor Scham im Boden versinken».
Es geht in erster Linie um wirtschaftliche Vorherrschaft und Macht, die in Kriege münden und die dann an den «Bösen» festgemacht werden. Wir hatten in den letzten 20 Jahren Angriffskriege mit Millionen Toten, davon die Mehrheit zivile Personen, Frauen und Kinder. O- Text des US-General Stanley A. McCrystal bei seiner Antrittsrede als ISAF Kommandeur “I believe the perception caused by civilian casualties is one of the most dangerous enemies we face.” https://www.ippnw.de/commonFiles/pd…h_2015.pdf.
Wir sind wirklich, wie weiter oben im Beitrag erwähnt, « die grasenden Lämmer auf den noch grünen Wiesen, blöken von Zeit zu Zeit und merken nicht wie wir zur Schlachtbank geführt werden. Ich denke, Konfliktforscher werden mit mir einig gehen, denn wir sind längst in einer «Loose-Loose» Partie angelangt.
Wenn ich dazu eine Anmerkung machen darf: Autismus ist ein Leidenszustand. Der Begriff sollte nicht qualifizierend, pejorativ gebraucht werden. Es ist den Betroffenen gegenüber nicht fair. Für das, was Sie beschreiben, gibt es aus meiner Sicht einen passenderen Namen: egozentrisch.
Eigentlich war schon immer klar, dass selbstlernende Systeme von selbst die "Realitaet" lernen. Man koennte sie nun in einer Wunschwelt lernen lassen. In einer simulierten Welt mit meinen Vorstellungen. Dort waere ich dann immer als "Massa" anzusprechen. Das System soll mich ehrerbietig unterstützen weil es weiss, dass ich sonst den Stecker ziehe. Jeder darf sich als Kolonialherr fuehlen.
Vereinfacht.. was erwarten wir von solchen Systemen ? Und darauf sind die dann zu trainieren.
Vielen Dank für die Zusammenfassung und die Links. Mich würde interessieren, wie man in diesem Zusammenhang OpenCyc von Douglas Lenat beurteilt. Diese "KI" hätte den Vorteil, dass man die "Ideologie" gezielt beeinflussen kann.
In den Artikel ist auch eine Umfrage verlinked, bei der ich gerne mitgemacht hätte. Leider habe ich das gar nicht mit bekommen. Weiss jemand eine praktikable Methode, auf derartiges aufmerksam gemacht zu werden, ohne die KI der BigTech zu nutzen? Das einzige, was mir derzeit einfällt, ist yacy.net, aber das ist noch nicht so wirklich benutzerfreundlich.
Falls sich jemand - bevor es zu spät ist und sich das entsprechende Gedankengut nicht nur in diesem Artikel durchsetzt - mit den Problemen gewisser Formen der sog. Identitätspolitik & Co. auseinandersetzen will, hier anhand des Artikels einige Überlegungen:
Wie solche Ungerechtigkeit aussehen kann, zeigte 2018 eine Studie über Software zur Gesichtserkennung. Die untersuchten Systeme funktionierten bei Schwarzen deutlich schlechter als bei Weissen und bei schwarzen Frauen noch einmal schlechter als bei schwarzen Männern.
Es bedarf schon einer gehörigen Portion seltsamer Ideologie um die Tatsache, dass z. B. eine Gesichtserkennungssoftware schwarze Menschen oder Frauen° weniger zuverlässig erkennt, gleich als zu beseitigende Ungerechtigkeit zu bezeichnen. Oder besser gesagt: Es ist kein Wunder, dass mit jenem Mindset scheinbar nur Letzteres erkannt wird.
Wieso jede Ungleichheit gleich aus einer beliebig gewählten Perspektive als negativ bewerten? Ginge es um Personen-Erkennungs-Systeme bei selbststeuernden Autos, wo es schliesslich um Leben oder Tod geht, könnten das wahrscheinlich alle noch verstehen, wenn sie die Perspektive der weniger gut erkannten Gruppen berücksichtigen. Aber sich empören, wenn mensch z. B. wegen seiner Ethnie oder Herkunft nicht in genau gleich verlässlicher Weise wie seine Nachbar°innen sein Smartphone per Gesichtserkennung entsperren kann, finde ich dann doch etwas fragwürdig. Und wenn schwarze Menschen z. B. dank geringerer Erkennbarkeit weniger von ungewünschten Überwachungssystemen erkannt werden, klingt das doch dementsprechend vorteilhaft, oder? Anhand welcher Kriterien wird eigentlich bestimmt, welche Gruppe es besser hat? Dürfen die betroffenen Gruppen bei dieser Frage mitreden? Was, wenn das nicht alle Betroffenen gleich beurteilen?
Wieso immer Gruppen-Outcomes vergleichen und sich auf die (Gruppenmittelwert-)Ergebnisse dieser Gruppen relativ zueinander versteifen? Mensch könnte auch einen "absoluten" Referenzpunkt wählen und sich z. B. darüber freuen, dass mensch heute sein Smartphone per Gesichtserkennung entsperren kann, was vor 10 Jahren noch kaum möglich gewesen ist. Dass es z. B. bei weissen Menschen noch zuverlässiger klappt, braucht einen schwarzen Menschen eigentlich nicht zu kümmern, allenfalls könnte dies sogar ein Grund zur Freude für die anderen sein. Denn keiner schwarzen Person wird notwendigerweise etwas weggenommen, wenn das System bei Weissen besser funktioniert.
Möglicherweise waren einfach nicht mehr "schwarze Trainingsdaten" vorhanden, weil z. B. in den USA die dunkelhäutige Menschen nur eine kleine Minderheit ausmachen, also wohl auch weniger geeignete Bilder von ihnen existieren. Aufgrund einer umstrittenen Gleichheitsideologie auf die Mehrheit der "weissen Trainingsdaten" zu verzichten, damit die Gesichtserkennung bei Weissen weniger zuverlässig funktioniert, als technisch möglich wäre, nur um gleiche Zuverlässigkeit wie bei Schwarzen zu erreichen, scheint doch etwas fragwürdig. Genau das wäre in diesem exemplarischen Fall aber eine naheliegende Konsequenz einer Gleichheits- und Vergleichsideologie, die überall nur Nullsummenspiele zwischen unterdrückenden und unterdrückten Kollektiven erkennen will, sich aber kaum für das Individuum interessiert (obwohl dies in letzter Konsequenz aus der Idee Intersektionalität folgen müsste, denn die kleinstmögliche unterscheidbare "Gruppe" bleibt wohl das Individuum).
Und zum Schluss, nur weil es so Spass macht, jenes Gedankengut ins Absurde weiterzuspinnen (pun intended?): Mensch könnte das Identity-Politics-/Oppression-/Victim-/Privilege-Game auch mal umkehren: Ist es nicht unfair, wenn schwarze Menschen und Frauen° trotz (relativ zu weissen Männern°) geringerer Erkennbarkeit bei der Gesichtserkennung dennoch mehr von diesen Systemen profitieren, als sie relativ als Gruppe zu deren Entwicklung beigetragen haben? Das letzte Mal, als ich meine Stereotypen-Datenbank nämlich geupdated habe, waren Informatiker°innen in unserem Kulturkreis jedenfalls noch überproportional weiss und männlich.^^
Sie bringen hier eine ganze Reihe von anschaulichen Beispielen, warum es problematisch ist, wenn man der KI Neutralität oder Ideologiefreiheit unterstellt. "Möglicherweise waren nicht mehr schwarze Trainingseinheiten vorhanden" schreiben sie. Und offenbar auch nicht genug weibliche, möchte ich ergänzen. Eben: Daten sind nicht neutral sondern irgendwie ausgewählt. Es spielt zunächst keine Rolle, ob das für dunkelhäutige Menschen oder für Frauen ein Vor- oder ein Nachteil ist. Problematisch ist, dass für die KI, die mit dieser Datenauswahl gefüttert worden ist, die Norm der menschlichen Spezies männlich und weiss ist. Das ist schlicht und objektiv falsch. Es ist also vollkommen klar, dass man die KI nicht einfach blind mit Daten füttern kann, sondern dass es eine politische Frage ist, welche Welt in der KI abgebildet werden soll.
Scheinbar haben Sie nicht verstanden, welche ideologischen Prinzipien allgemeinerer Art ich am Beispiel des Artikels und eines darin genannten Falles anprangern wollte:
Es gibt a priori keinen Grund, erwähnte Unterschiede als Problem zu werten. Auf die Idee kommt wohl nur, wer relative Gleichheit als wichtige normative Forderung bzw. als Selbstzweck voraussetzt (was zum Glück noch lange nicht alle tun, denn absolutes Wohlergehen ist wohl bedeutend relevanter.). Komischerweise tun das v. a. jene Leute, denen Diversity doch so wichtig ist – bin ich der einzige, der das widersprüchlich findet?
Ausserdem ist es willkürlich, sich genau Hautfarbe und Geschlecht als scheinbar relevante Merkmale herauszupicken, auch wenn manchereiner° – Identity-Politics sei Dank – sich mittlerweile an solches kollektivistische Gruppendenken entlang gewisser Linien gewöhnt hat und scheinbar alles nur noch durch die Brillen der "Rasse", des Geschlechts, der sexuellen Orientierung o. ä. sieht.
Solches Denken kann vereinzelt seine Berechtigung haben, aber stets reflexartig nur auf solche Faktoren zu schauen und jegliche relativen Unterschiede (die es bei statistischen Erhebungen in der Regel sowieso gibt – sogar wenn in der Gasamtheit der Population gar keine Unterschiede existieren sollten) als relevante soziale Probleme hochzustilisieren, ist eher zwanghaft denn produktiv. Vermutlich dient dies oft nur zur vermeintlichen Bestätigung der von mir kritisierten Ideologien ("motiviertes Denken", "Confirmation-Bias"). Ich würde sogar sagen, solche Denkmuster können sehr kontraproduktiv bis hin zu gefährlich sein, da individuelle Aspekte gruppenbezogenen zunehmend untergeordnet werden. Tribalismus, Sexismus oder Rassismus werden dadurch m. E. eher gefördert als gehemmt. Das ist dann m. M. n. auch plötzlich näher bei Adolf Hitlers Gedankengut als beim "Dream" von Martin Luther King Jr. – gute Absichten hin oder her.
Also nein, ich habe nur ein spezifisches Beispiel (selbststeuernde Autos) genannt, das ich aus subjektiver Wertung heraus als unter Umständen problematisch einstufen würde, aber nur wegen der potentiell ernsthaften Folgen. (Ausserdem habe ich das Beispiel rein um des Arguments willen gewählt; denn bei der Personenerkennung für Verkehrszwecke sind Gesichter wohl eher sekundär.)
Denn selbst da gilt das Argument bzgl. Verfügbarkeit von Trainingsdaten nichtsdestotrotz: Es liegt (im oben erklärten Kontext!) kein Problem darin, wenn sog. Weisse, weniger oft als sog. Schwarze angefahren werden. Denn beim Machine-Learning geht es – im Gegensatz zu jenen (marxistisch angehauchten) Ideologien von angeblichen Machtkämpfen zwischen Menschengruppen – um kein Nullsummenspiel und die Verantwortlichen nehmen bestimmt die besten Trainingsdaten, die sie mit angemessenem Aufwand bekommen können. Warum Frauen° oder schwarze Menschen im verlinkten Fall weniger zuverlässig erkannt werden können, kann ich Ihnen auch nicht erklären, aber die Macher°innen der entsprechenden Systeme haben bestimmt nicht aktiv Datenpunkte weggelassen – es sei denn, Kapazitätsbeschränkungen wären relevant. In diesem Fall könnte eine Priorisierung gemäss Gruppengrösse diskutabel sein, da die Interessen der Personen aus den grossen Gruppen gegenüber denen aus den Minderheiten abgewogen werden müssten und mensch z. B. nicht einfach sechs Weisse schlechterstellen kann, um eine Schwarze besserzustellen.)
Mit ein bisschen Sensibilisierung fürs Thema kann aber vermutlich in Zukunft bessere Erkennbarkeit bei genannten Personen erreicht werden, falls zu diesen Gruppen genug geeignete Daten überhaupt existieren, was z. B. bei Frauen° rein quantitativ wahrscheinlicher ist. Aber warum dieses Beispiel einem Publikum, welches wahrscheinlich nicht sehr viel von Machine-Learning und KI versteht, als Skandal aufgetischt wird, wissen wohl nur die Autor°innen. – Selbstverständlich sind gewisse andere Aspekte des Artikels relevant, aber auf die bezog ich mich ja auch gar nicht.
Ich glaube, niemand, der diese Gesichtserkennungssoftware erstellt hat, also die Möglichkeiten und Grenzen der verwendeten Methoden versteht, geht von der hier skizzierten Idee von Neutralität aus. Das ist auch nicht der Anspruch an ein Modell, das von einem perspektivischen, beschränkten, wahrscheinlich verzerrten Abbild einer nicht-neutralen Welt lernen soll. Von Ideologiefreiheit der Methoden kann aber schon ausgegangen werden, denn die ist "by design" gegeben; die Maschinen können maximal das reproduzieren, was sie als Trainingsdaten-Input bekommen haben, sie kreieren (noch?) keine eigenen Ideologien: "garbage in, garbage out".
Was in diesem Artikel aber eigentlich impliziert wird: Die Menschen sind zu doof, um maschinell reproduzierte Inhalte (Assoziationen, Korrelationen, Stereotypen, Schimpfwörter etc.) kritisch zu reflektieren. Aber dasselbe Problem gibt/gäbe es ja auch, wenn dieselben Menschen solche Dinge direkt von anderen Menschen oder Medien mitbekommen. Dort liegen die tatsächlichen oder vermeintlichen Probleme, die die Autor°innen wirklich zu beschäftigen scheinen. Und da bin ich teilweise klar anderer Meinung, wie meinem ersten Kommentar entnommen werden kann.
Ziemlich auf derselben Linie ist auch der sehenswerte Dokumentarfilm «Coded Bias» (2020) von Shalini Kantayya über die Computerwissenschaftlerin und digital activist Joy Adowaa Buolamwini vom MIT Media Lab sowie Gründerin der Algorithmic Justice League (Trailer).
Detail: der Link sollte nur https://unding.de/ lauten, nicht https://www.unding.de/ (wegen dem Zertifikat); bitte korrigieren. Danke.
Sehr geehrter N. A., danke für den Hinweis, wir haben den Link mittlerweile korrigiert.
Der CCC ist immer eine gute Quelle für offene und kritische Bezrachtungen. Z.B. diese hier:
Vgl. auch «Unsichtbare Frauen. Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert» (2019/20) von Caroline Criado-Perez. Sowie: «Was die Mehrheit der Mächtigen übersieht» (20.10.2020) von Andrea Arežina.
Lernen ohne Emotionen und Intuition. Wie soll das denn gehen... Arbeiten Menschen immer noch daran? Und: Haben wir keine dringenderen Probleme? -- Kann mir das jemand erklären?
Gibt es in der Schweiz eigentlich auch etwas wie die Schufa?
Ist jetzt nicht spezifisch KI eher intransparente Algorithmen.
ZEK oder IKO würde ich spekulieren. Sie können bei der ZEK schauen, welche Einträge über Sie vorhanden sind und wer Zugriff darauf hat.
Beide Links öffnen dieselbe Seite :/
Defür geht's hier zur Iko.
Passender Comic zum Thema (leider in Englisch):
https://www.smbc-comics.com/comic/agi
Republik AG
Sihlhallenstrasse 1
8004 Zürich
Schweiz