Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!
Das Verrückte an diesem Diskurs ist, dass hier menschliches Denken den Algorithmen der Drohnen gegenüber gestellt wird, wo ersteres besonders anfällig für Fehler ist. Wie Kahneman es treffend bezeichnet, ist schnelles Denken nicht geeignet komplexe Entscheidungen zu fällen. Es ist geleitet von einem narrativen Modus des Alltags, was diese eine Minute der Panik genau nicht ist. Das spricht aber um Himmels Willen nicht für die Algorithmen, sondern nur dagegen, dass hier der Mensch die Lösung sein kann. Der Mensch kann nur durch den Dialog – wie in Genf – zur Lösung beitragen.
Sehr eindrücklicher 8-Minuten Film dazu, wieso autonome Waffensysteme als Massenvernichtungswaffen gesehen werden können: Slaughterbots. Der Film ist von 2017 und gemäss dem Herren im Abspann hat sich seither wenig gebessert:
A UN report [of 2021] on the Libya conflict has revealed that, for the first time, humans were “hunted down” and presumably killed by “lethal autonomous weapons systems such as the STM Kargu-2”, which were programmed to attack targets with no human control. The Kargu-2 is a plate-sized quadcopter equipped with cameras, onboard AI and a warhead of roughly 1kg, enough to kill a room full of people.
[...]
The Slaughterbots film, which premiered at the 2017 Geneva meeting, was designed to explain in simple, graphic terms exactly what the AI community was trying to say. As an AI researcher, I knew that every piece of technology shown in the film was already feasible. Yet I clearly remember the Russian ambassador saying there was no point in discussing science fiction that would not be real for 25 or 30 years. As he spoke, Kargu prototypes were already being built and were announced a month later.
Ähnlich wie bei der Black Mirror TV-Serie sind mir solche Spielfilme jeweils mehr hängen geblieben als die vielen Texte, die es mittlerweile zu den Gefahren im Umgang mit Technologie gibt. Sicherlich effekthascherisch, aber sicher auch intuitiver greifbar.
Vielleicht können Sie noch eine Warnung zum Kurzfilm Slaughterbots anfügen? Bei mir hat damals dieser Film einen länger andauernden deprimierten Zustand ausgelöst, als ich ihn bei Scobel auf 3Sat gesehen habe. Jetzt musste ich natürlich auch gleich wieder an diesen Film denken. Einfach grauenhaft!
Ich finde, das Interview bzw. Frau Bodes Argumentation geht in eine völlig falsche Richtung. Es ist doch nicht das Problem, dass die automatischen Waffensysteme wegen fehlender Intelligenz oder unzureichender technischer Präzision Fehler machen. Damit argumentiert sie meiner Meinung nach genau im Sinne des von ihr angesprochenen technischen Solutionismus.
Wenn beispielsweise ein Killerdrohnenschwarm über einer Stadt losgelassen wird mit dem Auftrag, alle Menschen im wehrfähigen Alter zu töten, ausser solche die sich zuvor registriert haben und einen Überlebenscode (meine Wortschöpfung) vorweisen können, und dieser Schwarm den Auftrag mit einer Präzision von 99.9% ausführt, dann haben wir trotz viel niedrigerer ziviler und militärischer „Kollateralschäden“ als in einem „konventionellen Krieg“ ein dramatisch grösseres Problem. Und leider sehe ich nicht, wie man dieses Problem effektiv angehen könnte.
Lieber Herr H. Danke für Ihren Kommentar. Ich bin nicht sicher: Haben Sie das Interview wirklich ganz durchgelesen? Ich glaube Sie haben etwas missverstanden.
Frau Bode argumentiert ja genau so: Die jetzigen "nicht- intelligenten" Systeme und technischen Verbesserungen alleine seien nicht zielführend (das war ja die Position der USA und nicht ihre eigene). Sie sagt ja: " Doch man darf nicht dem Glauben verfallen, dass sich alle Probleme durch Technik lösen lassen." Ausserdem sehe ich nirgendwo im Interview das vermeintliche Argument, dass AWS Fehler machen würden, weil sie nicht intelligent "genug" seien. Sie problematisiert die Automatisierung generell aufgrund schlechten Daten, ungenauen Sensoren...
Frau Bode argumentiert als Forscherin (Internationale Beziehungen) und eben nicht-ideologisch oder aktivistisch. Man muss zu diesem Thema alle Argumente und Aspekte (Ethik, Recht, Industrie, Militär) in die Waagschale werfen, ansonsten könnten wir nach 3 Fragen bereits das Gespräch beenden. "Müssen AWS verboten werden? JA. Ende der Diskussion".
Sie recherchiert anhand von Untersuchungen und Studien konkrete Fehler rund um AWS und der vermeintlichen menschlichen "Kontrolle" zu AWS, denn nur so gibt es ja auch eine Diskussionsgrundlage für die Verhandlungen zu dem Thema.
Auch wenn ich persönlich diese Ansicht (Verbot von AWS) teile, wäre das kein Fachgespräch gewesen. Die Frage ist: Was ist politisch überhaupt machbar? Wo gibt es Konsens unter den beteiligten Nationen? Wo kommt man einen Schritt weiter?
Die Industrienationen haben zu mächtige Interessen und wenn man da als Forscherin einen Fundamentalopposition-Standpunkt einnimmt, wäre das, wie gesagt, nicht wirklich wissenschaftlich. Das führt auch dazu dass die Pattsituation bestehen bleibt, weil sich kein Staat bewegen möchte. In der Zwischenzeit forschen und entwickeln die USA, Japan, Israel, China etc weiter. Und lassen ihre "Drohnen" auf die Leute los. Weil das Völkerrecht sie darin nicht einschränken wird.
Ich habe ja als Interviewerin diese Fragen der technischen Verbesserungsmöglichkeiten eingeworfen. Und diese basieren auf wissenschaftlicher Literatur, die teils von sehr kritischen NGOs wie dem IKRK stammt. Auch jene Organisationen beschäftigen sich damit wie man politischen einen regulatorischen Fortschritt erzielen kann.
Danke, Frau Fichter, für die berechtigte Kritik an meinem vereinfachten Kommentar zum Interview, das ich mit Interesse bis zum Ende gelesen habe.
Ich habe schon auch das registriert, was Sie nun schreiben. Deswegen hatte ich oben geschrieben, dass die Argumentation in eine falsche Richtung geht. Ich hätte vielleicht besser schreiben sollen, dass aus meiner Sicht der Schwerpunkt falsch gesetzt ist bzw. ein nicht stichhaltiges Argument sehr prominent vertreten ist.
In der Überschrift wird ja zunächst das sehr wichtige Argument gebracht, dass die politischen Kosten potenziell dramatisch reduziert werden. Schon in der Unterüberschrift kommt aber dann das von mir kritisierte Argument:
Mit autonomen Panzern, Drohnen oder Robotern wollen Armeen ihre Truppen schonen. Doch die Geräte sind nicht so intelligent, wie es oft heisst, sagt Konfliktforscherin Ingvild Bode.
Damit wird doch zunächst mal impliziert, dass es ein hehres Ziel ist, die Soldaten zu schonen. Einzig die fehlende Intelligenz sei das Problem an der Sache. Vielleicht hat Frau Bode das nicht so wörtlich gesagt, aber es wird der Eindruck erweckt.
Weiter unten, kurz vor Beginn des Interviews heisst es wieder:
Ingvild Bode, Professorin für Internationale Beziehungen an der Universität von Süddänemark, sagt: Ja, unbedingt. Auch weil diese autonomen Waffensysteme fehleranfällig seien. Und nicht so intelligent, wie deren Hersteller behaupten.
Sie, Frau Fichter, schreiben nun:
Ausserdem sehe ich nirgendwo im Interview das vermeintliche Argument, dass AWS Fehler machen würden, weil sie nicht intelligent "genug" seien. Sie problematisiert die Automatisierung generell aufgrund schlechten Daten, ungenauen Sensoren...
Wenn Frau Bode das nicht gesagt hat, dann finde ich, dass Sie ihr es mit den zitierten Stellen praktisch in den Mund gelegt haben. Und Sie schreiben ja selbst in Ihrer Antwort, dass Frau Bolde die Automatisierung generell aufgrund schlechter Daten und ungenauen Sensoren kritisiert. Dass ist aber aus meiner Sicht kein gutes Argument bzw. sogar ein schädliches. Denn dann können die USA und andere Protagonisten sagen: ja, das stimmt, deswegen machen wir unsere autonomen Waffensysteme immer besser und präziser. Das ist eben das solutionistische Argument. Wenn man das ablehnt, dann sollte man sich gar nicht auf diesen Argumentationspfad begeben. Aber auch im Interview wird weiter in diese Richtung von ihr argumentiert:
Wo steht die Forschung?
Die Perdix-Drohnen des US-Herstellers Modern Technology Solutions sollen nach Angaben der Firma als Kollektiv «lernen». Diese Drohnen operieren im Schwarm, analog zu Vogelschwärmen. Doch das ist die Ausnahme: Die meisten Drohnen spulen zurzeit immer noch vorprogrammierte Abläufe ab.
Wie präzis werden diese Abläufe eingehalten?
Es passieren oft Fehler. Ein Grund ist die Bildqualität: In Hollywoodfilmen wird stets suggeriert, dass die Bediener einer Drohne Auflösungen in HD-Qualität erhalten – sie erkennen die Gesichtszüge des Angriffsziels. Doch das ist eine Illusion. Die übermittelten Bilder sind verrauscht und pixelig: Es wird knapp erkennbar, ob es sich um eine Person oder um ein Gebäude handelt. Eine weitere Fehlerquelle sind die Metadaten.
Vielleicht nehmen Sie das anders wahr, aber für mich ergibt sich aus dieser Passage der Eindruck, dass die fehlende präzise Technik das Problem ist. Würde es nur mehr intelligente Perdix-Drohnenschwärme geben, dann wird es besser. Das sagt Frau Bode natürlich nicht, aber so kommt dieser Absatz rüber.
So zynisch sich das anhören mag, und es ist von mir wirklich nicht zynisch gemeint: die Fehlleistungen und tragischen „ungewollten“ Opfer dieser automatischen Waffensysteme sind noch das letzte bisschen „politische Kosten“, was übrig bleibt. Wenn das auch noch verschwindet oder zumindest minimiert wird, woran ja mit Hochdruck gearbeitet wird, dann wird das Problem nur umso grösser.
Ich sage nicht, dass sich Frau Bode oder Sie sich dieses Problems nicht bewusst sind, aber ich würde mich auf das solutionistische Argument gar nicht erst einlassen, weil es nur ablenkt.
Mir kommt die Galle hoch. Wäre es nicht intelligenter, die Energie darauf zu konzentrieren, den Nutzen von Kriegen global anzuprangern oder sogar kriegerische Aktionen zu ächten? Wäre es nicht an der Zeit, Kriegsgewinnler und Kriegstreiber an die Kasse zu bitten? Mit einem Hanfseil oder so?
Konstruktiv ist es nicht, aber ich musste das mal loswerden.
Beängstigend, dass ich, wenn ich Pech habe, auf einem regulären Flug, "aus technischen Gründen" unbeabsichtigt abgeschossen werden könnte. Man denke mal, wie oft der PC nicht genau die Operation ausführt, die man möchte...
wie oft der PC nicht genau die Operation ausführt, die man möchte...
Beim PC kann dieses Problem durch stetige Weiterentwicklung und Nutzung von Open Source Software verbessert werden. Bei Waffensystemen ist das wohl eher nicht die Lösung. Ich fürchte, da hilft nur, dass wir alle vernünftiger werden, aber das ist ein sehr langwieriger Prozess. Und derzeit stimmt vielfach nicht mal die Richtung.
grauenvoll!
aber doch ein kleiner hinweis, da sich das so einschleicht (was jetzt nicht auf das thema bezogen ist, sondern ganz allgemein): ki (künstliche intelligenz) denkt nicht und entscheidet nicht. ki folgt menschengemachten programmierten und trainierten algorhitmen in form von ‚neuronalen netzen‘.
Ne ne, KI, künstliche Intelligenz, würde schon selber denken - nur haben wir das nicht.
Was wir haben ist machine learning, Mustererkennen und -anwenden. Das ist oft als KI bezeichnet, ist es aber nicht.
geh ich nicht einig. die frage dahinter ist immer, was denken meint und da kommen sofort fragen nach begriffen wie freiheit und freier wille.
Wobei es hier offensichtlich nicht mal um Machine Learning geht, sondern um regelbasierte Systeme (Regeln vorher von Menschen einprogrammiert). Machine Learning würde bedeuten, aus den Daten neue Regeln ableiten zu können und mit jedem Einsatz zu “lernen”. Das ist dann allerdings schon ein Aspekt von Intelligenz. Kann das System auch autonom entscheiden, ist es noch etwas intelligenter. Intelligenz wird hier als ein Kontinuum gesehen, nicht schwarz-weiss. Und KI bedeutet heute in den allerwenigsten Fällen, die Intelligenz des Menschen in allen Facetten gleichzeitig abzudecken (wozu dann Moral, Kreativität, Einsicht etc. gehören könnten.
Leider ist die militärische KI noch nicht so weit wie im Text "Golem" von Stanisław Lem im Band "Imaginäre Grösse" (Suhrkamp 1996) vorhergesagt: Im Jahr 2023 lehnt der Pentagon-Supercomputer GOLEM XII "eine Zusammenarbeit mit General T.Oliver ab, nachdem er eine laufende Einschätzung des Intelligenzquotienten dieses verdienten Befehlshabers vorgenommen hatte." Ein noch KI-mächtigeres Nachfolgemodell kommt dann zum Schluss, dass "die beste Garantie für den Frieden die allgemeine Abrüstung" sei. Wunderbar.
Der Mensch kann nur durch den Dialog – wie in Genf – zur Lösung beitragen. (Verleger Messmer)
Ich habe keine Lust, mich in alle Details, "Finessen" und Perfidien der möglichen Kriegsführung hineinzudenken und zu überlegen in welcher Reihenfolge die Arsenale abzurüsten seien. Auch mir grauts. Wenn Biden es nicht schafft, Putin zu versprechen, dass die NATO NICHT die Ukraine einschliessen wird, dann geht das Gezerre, befeuert von der Profitgier des Militärisch-Digitalen Komplexes, weiter, und alle Verhandlungen laufen ins Leere, jeder "Feind" wird ausgetrickst. Es ist wie ein Wettlauf der Mächtigen um den Untergang der Menschheit, Nation um Nation. Dabei hätten wir globale Aufgaben.
Leider ist die militärische KI noch nicht so weit wie im Text "Golem" von Stanisław Lem.
(Verleger Véron)
Vertrauen schaffen ist der einzige Weg. Wenn die Politiker zu dem Entschluss gebracht werden könnten, den Krieg als Lösungsweg auszuschliessen, wäre das schon der halbe Friede. Aber Demonstrieren wird demnächst ganz verboten sein. Wir bleiben daheim und lassen uns impfen, um sehenden Auges auszusterben.
Mal was anderes als Corona… allerdings:
Die Akteure könnten gemeinsam rasch und wirksam die Änderung zu einer besseren Welt herbeiführen.
Machen Sie nicht - oder ist das doch wieder wie bei Corona?
Machen sie nicht ... weil das Thema leider nicht die Aufmerksamkeit bekommt, die es verdient. Insofern: Danke für den Artikel.
Das Internet ist in vielen Bereichen noch unreguliert und vieles tut den Menschen nicht gut. Zum Beispiel wird das Internet missbraucht um die Aufmerksamkeit zu lenken. Agnotologie nennt sich der Forschungsbereicht der missbräuchlichen Aufmerksamkeitslenkung. Nur wenn wir dies besser verstehen, können wir uns dagegen wehren und haben genug Kraft, um die KI bei Waffen (und Waffen im allgemeinen) zu bekämpfen.
Mir scheint, es geht hier um ein Scheingefecht: Man (nein Frau Bode) spricht nur von möglichen Fehlern beim gezielten Töten: Entscheidend wäre doch, dass diese Wafffensysteme total verboten und geächtet werden. Aber es ist ja klar: Das ist das Geschäft des Jahrhunderts (fast wie die Impfstoffentwicklung und vor allem deren Verkauf) und die Waffenindustrie vor allem in den USA muss florieren, deshalb bereitet sich die NATO bestimmt klammheimlich auf den nächsten Krieg vor, bei dem man dann das "verbesserte Töten" auch ausführlich testen und dann wieder perfektionieren kann.
Falsche und ungenuegende Information loesen Fehlhandlungen aus. Allerdings auch bei Menschen. Wenn eine Truppe falsch informiert wird, im Sinne von "da Vorne - macht alles weg", sind die Konsequenzen aehlich. Soll Haftung einfuehrt werden ? Drohnen wuerden zumindest anbieten, das Geschehen zu speichern. Das werden sie aber nicht, wegen geheimer Technologie. Oder waere Krieg gleich zu verbieten ? Wer ist der Boese ? Wer hat Fehler gemacht ? Der Sieger hat immer recht.
Was im Interview nicht genannt wird, ist China. Deren erklärtes Ziel ist es, die beste Armee der Welt zu haben und nur schon die Anzahl der KI Projekte, die man sieht, über trifft die Anzahl der KI Projekte der Rest der Welt um den Faktor 2.
Chinesische Drohnen können das Geschehen auch aufzeichnen, aber wir werden das wohl nicht zu Gesicht bekommen.
Der Sieger hat immer recht.
Und hoffentlich ist das nicht die derzeitige chinesische Führung.
Wir wollten auch mal die beste Armee der Welt haben, zu einem Spielzeug Budget... Meine Drohne, eine Chinesische, kann auch schon alles aufzeichenen, das ist ja auch der Zweck der Handelsdrohnen. KI besagt erst mal gar nichts. Und ist eigentlich eher Kern der ablaufenden industriellen Revolution. Nur dass die Amerikaner den Zusammenhang zu wirtschaftlicher Produktion verloren haben. Sie lagern gerne aus, kaufen am Guenstigsten, und verwenden wenig Aufwand zur Produktentwicklung. Deswegen kommen sie nicht drauf KI in der Industrie einzusetzen. Lassen wir mal Google und Tesla weg, die sind eher zufaellig US basiert, mit Standorten ueberall. Bei der laufenden industriellen Revolution, welche hier als IoT, Internet of Things, verkauft wird, geht es zuverlaessigere Produktion und neue Moeglichkeiten von smarteren "Maschinen", seien das nun selbstfahrende Autos, oder Produktionsstrassen, welche im Fehlerfall selbst reagieren koennen. Wir haben beides nicht, nehme ich an, daher wird das auch nicht als Zugpferd hingestellt.
Bei den Amerikanern ist KI, zumindest so wahrgenommen, eher im Militaer angesiedelt. Da im Militaer, resp deren Zulieferindustrie wahrscheinlich hoehere Loehne wie in der Industrie gezahlt werden, ist dieses Wissen weniger zur Industrie diffundierend. Sie haben uebrigens schon in den 80ern an Objekterkennung gearbeitet. Wie unterscheidet man konvexe Flaechen von konkaven Flaechen. Damit die Rakete das Haus erwischt und nicht die eingelassene Ecke.
Doch Sieger wird die chinesische Fuehrung sein. Zumindest erstmal gegenueber den eigenen Leuten. Taiwan ist anstehend. Der Westen wird Taiwan nicht beschuetzen. Die wenigsten Laender haben Taiwan anerkannt. Deren einziges Pfand ist die weltbeste Chipindustrie. Basierend auf westlicher Technologie, aber eben dort ansaessig. Weil der Westen eben immer alles billigst wollte. Sobald China den Vorsprung eingeholt hat, koennen sie das Land nehmen. Und wir sind diese Chipindustrie los.
Ein sehr bereicherndes Interview: Herzlichen Dank!
Wie Frau Fichter durch Ihre Fragen verschiedene Gebiete, Geschehnisse und Entwicklungen klug mit den Antworten von Frau Bode vernetzt und so das Gespräch immer wieder auf relevante neue Aspekte führt, finde ich sehr gekonnt und zeugt von einem grossen Hintergrundwissen.
Was mir auffällt: Es werden ein paar generelle Aussagen über die Beziehung zwischen menschlicher und künstlicher Intelligenz gemacht (z.B. "Es ist ein Irrtum, dass künstliche Intelligenz der menschlichen Intelligenz überlegen ist."), die vermutlich bei einem Gespräch über künstliche Intelligenzen auf einem anderen Anwendungsfeld nicht in dieser Schärfe gemacht würden. Der "scharfe" Gegenstand autonomes Waffensystem "schärft" vielleicht auch unsere Erkenntnisse der Beziehungen zwischen den menschlichen und künstlichen Intelligenzen?
Krieg führen mittels computerisierten Waffen wird immer attraktiver und wird sich kaun mit ein paar völkerrechtlichen Regulationen unterbinden lassen. Waffenentwicklungen verlaufen im Geheimen, der Einsatz in aller Öffentlichkeit. Und da liegt liegt die Krux : wenn es zuwenige Konfliktherde (Afghanistan, Jemen) auf der Welt gibt, können neue Tötungs-Technologien kaum überhand nehmen, oder/und sie Verstauben im Waffenlager.... Neue Ideen und Ressourcen werden benötigt ohne die alten Konzepte jemals verifiziert zu haben..... Zurück zur Helebarde ?
Wohl kaum .... nur als Schweizer sehe ich kaum eine Chance auf dem Schlachtfeld mit der heutigen Ausrüstung .... Oder das Beispiel Israel zeigt ganz brutal wohin das läuft : bewaffnet mit neuer Technologie (Hard- und Software), eigene Waffenschmiede .... alle Friedenslösungen im Nahen Osten werden abgeschmettert, Waffen sind täglich im Einsatz.
Für Politiker sind Drohnen eine sehr bequeme Waffe, daher gefriert vorher die Hölle zu
als dass solche Waffensystem gebannt werden.
Danke für dieses Interview zu diesem in der Politik völlig vernachlässigten Thema.
Das zentrale Moment bei diesen Fragen – übrigens ganz allgemein bei Algorithmen und KI etc. - ist die Geheimhaltung. Wenn viele Menschen wüssten, was hier tatsächlich abläuft, wäre der Widerstand ein ganz anderer. Aber schon der kürzliche Vorfall im Militärdepartement, dass die Chefin ihren obersten Nachrichtendienstchef absetzen musste, weil sie ihm nicht mehr vertrauen konnte, spricht Bände. Ich kann nur hoffen, dass die Verantwortlichen in Regierung und den Parteien endlich aufwachen, in der Schweiz wie auch in Europa. Die militärische Bedrohung muss ebenso wie das Klima an oberster Stelle in die Debatte und Regulierung. Das wird aber nur möglich sein, wenn genügend Druck von unten kommt, weil die Informationen nicht mehr geheim gehalten werden können. Auch das gestrige Urteil gegen Julian Assange spricht in diesem Zusammenhang Bände.
Die Technologie ist doch schon viel weiter. Neue Waffensysteme im Weltall, verbunden mit der blitzschnellen 5G und bald schon 6G Netzwerkverbindung kann all das mit der Schwarmintelligenz bereits direkt aus dem Weltall inszenieren. Diese Directed Energy Weapons (DEW) sind bereits weltweit im Einsatz. Verschiedene Quellen sagen, dass die CIA diese Waffensysteme mitte 2020 online geschaltet hat; ausprobiert hat sie solche Waffen schon vor 15 Jahren in Pakistan unter dem Titel Terrorismusbekämpfung. Diese Systeme kommen in den verschiedensten Formen zum Einsatz (https://en.wikipedia.org/wiki/Direc…rgy_weapon) und können direkt auf Personen bzw. bestimmte Personengruppen, etwa auch auf ein Auto eingesetzt werden. So kann etwa eine einzelne Person in einer Personengruppe mit gepulsten Radio- oder Mikrowellen aus dem Weltall angegriffen werden, die anderen Leute in der Gruppe merken überhaupt nichts; diese denken natürlich der Betroffene spinnt, weil sie selber ja nichts merken. Missliebige Journalisten, Aktivisten oder Verantwortliche von als feindlich eingestuften NGOs können, quasi von zuhause aus in ihrer physischen und psychischen Verfassung dermassen ge-/zerstört werden, dass sie sich nicht mehr für ihre Ziele einsetzen können und das perfide an diesen Aktionen - die auch über längere Zeiträume hinweg angewendet werden - ist, dass die Betroffenen oft als Psychospinner abgetan werden, weil der Nachweis der Angriffe äusserst schwierig ist. Elekromagnetische Wellen können dermassen gezielt (mit Lichtgeschwindigkeit) und äusserst verschlüsselt abgefeuert werden, dass sie schwierig nachzuweisen sind und die Rüstungskonzerne geben Alles um die Wirkungsweise dieser Waffen für die hybride Kriegsführung zu verschleiern und im Dunkeln zu lassen. Diese Waffensysteme sind eine enorme Gefahr für demokratische Staaten.
Schlussendlich ist das Ziel militärischen Handelns den Gegner zu vernichten.
Um dieses Ziel zu erreichen wird das schwächste Glied, der Mensch, möglichst ausgeschalten. Dieser hat Hemmungen und ein Gewissen. Eine Drohne oder Roboter weiss nicht einmal, dass er im Krieg ist. Es ist ihm gleichgültig, dass er zerstört werden kann.
Die Bemühungen der Uno, in diesem Fall insbesondere der GGE, benennen die Probleme. Siehe ihre «17 Ziele für eine nachhaltige Entwicklung»
Für Problemlösungen fehlt der politische Wille.
Republik AG
Sihlhallenstrasse 1
8004 Zürich
Schweiz