Wollen wir wirklich Terminator-Waffensystem haben?

25-08-2015 16:08:04 Autor:   Troy Oakes/P.Z. Kategorien:   Technologie , Forschung , Menschen

Es dürfte nur eine Frage der Zeit sein, bis Terroristen und blockfreie Kampfgruppen autonome Waffensysteme mit künstlicher Intelligenz, sogenannter Killerroboter einsetzen, um möglichst katastrophale Schäden in der zivilen Bevölkerung zu verursachen. (Bild: Pixabay/CC0 Public Domain)

Es ist wenig überraschend, dass die USA führend bei der Entwicklung autonomen Kampfsysteme sind. Aber es kann einem nur kalt den Rücken herunter laufen, angesichts der Warnungen so vieler Wissenschaftler, dass die Menschheit den Killerrobotern dadurch schutzlos ausgeliefert sein könnte.

Daher müssen die Warnungen tausender Wissenschaftler, darunter des bekannten Physikers Steven Hawking, die in einem offenen Brief ein generelles Verbot von autonomen tödlichen Waffensystemen gefordert haben, ernst genommen werden. In einem im Rahmen der 25. Internationalen Gemeinsamen Konferenz zu Künstlicher Intelligenz (IJCAI) in Buenos Aires vorgelegten offenen Brief beschreiben die Wissenschaftler die möglichen Gefahren einer ethnischen Säuberungen durch die autonomen Robotersysteme und warnen dringend vor dem stattfindenden Rüstungswettlauf auf dem Gebiet.

Derweil hat die US-Behörde „Defense Advanced Research Projects Agency“ (DARPA) die Existenz zweier Programmen bekannt gegeben, die sie zur Zeit in Auftrag gegeben hat. Diese Programme dienen der Entwicklung von Drohnen, die selbstständig, d. h. ohne Fernsteuerung durch einen Menschen, ihre Angriffsziele orten und eliminieren können. Welche Risiken gilt es also abzuwägen?

Stoppt die Kampfroboter-Konferenz während des UNO-Treffens zur Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen in Genf:

 

 

Auch in der Zeitschrift „Nature“ haben Wissenschaftler unter dem Titel „Robotics: Ethics of artificial intelligence“ (Robotik: Die Moral der künstlichen Intelligenz) ihre Besorgnisse und Lösungsansätze veröffentlicht, welche Gefahren für die menschliche Gesellschaft von intelligenten autarken Maschinen ausgehen und wie sie reduziert werden können.

Einer von ihnen, Stuart Russell, Professor für Informatik an der Kalifornischen Universität in Berkley, stellte dabei die Grundsatzfrage. Die Entwickler von künstlicher Intelligenz und die Gemeinschaft der Robotertechniker stehen vor einer wichtigen moralischen Entscheidung: Ob sie die Entwicklung der tödlichen autonomen Waffensysteme unterstützen oder ablehnen sollen.

„Da autonome Waffensysteme also ohne menschliche Intervention Ziele auswählen und angreifen, können sie zu Tötungsmaschinen werden, wenn sich ihr Einsatz gegen Menschen richtet.

Verteidigungsministerien aller am Wettrüsten beteiligten Länder beabsichtigen ein Gespann von autonomen Fluggeräten zu entwickeln, welche alle Schritte in Kampfeinsätzen selbstständig erledigen sollen: Finden, bestimmen, verfolgen, angreifen, Situationen überbrücken, in der feindliche Signalstörungen die Kommunikation mit den menschlichen Kommandanten unmöglich machen.“

Die Genfer Konventionen von 1949, auch Genfer Abkommen genannt, vereinbart essentielle Komponente des humanitären Völkerrechts. Sie enthalten für den Fall eines Krieges oder eines internationalen oder nicht-internationalen bewaffneten Konflikts Regeln für den Schutz von Personen, die nicht oder nicht mehr an den Kampfhandlungen teilnehmen. Die Bestimmungen betreffen die Verwundeten und Kranken der bewaffneten Kräfte im Felde (Genfer Abkommen I), die Verwundeten, Kranken und Schiffbrüchigen der bewaffneten Kräfte zur See (Genfer Abkommen II), die Kriegsgefangenen (Genfer Abkommen III) und den Schutz von Zivilpersonen in Kriegszeiten (Genfer Abkommen IV).

Die Martens’sche Klausel, auch Haager Landkriegsordnung genannt, die 1977 hinzugefügt wurde, ist ebenfalls wichtig: Demnach sind alle Waffen, die die Grundsätze der Menschlichkeit und die Forderung des öffentlichen Gewissens verletzen, verbannt.

MilitarySkynet.com News:

 

 

Über tödliche autonome Waffensysteme gab es eine Reihe von Treffen der Vereinten Nationen in Genf, in denen es darum ging, wie unter der Schirmherrschaft der Konvention das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen durchgeführt werden kann. Stuart Russell wurde als Experte in der Forschung zur künstlichen Intelligenz angesehen, und konnte seine Expertenmeinung beim dritten großen Treffen unter der Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen abgeben:

„Einige Staaten drängen auf ein sofortiges Verbot. Deutschland sagte, dass es ‚nicht akzeptieren wird, dass die Entscheidung über Leben und Tod ausschließlich durch ein autonomes System erfolgt.‘ Japan meinte, dass es ‚nicht plant, Roboter ohne Berücksichtigung der Menschen zu entwickeln‘, denn sonst könnten Roboter Mord begehen“, so Russell.

„Die Vereinigten Staaten, das Vereinte Königreich und Israel - drei Staaten, die Spitzenreiter in der Entwicklung tödlicher autonomer Waffensystemen sind - wiesen darauf hin, dass so eine Vereinbarung nicht nötig sei, da sie schon eine eigene interne Überprüfung der Waffensysteme durchgeführt hätten, die sicherstelle, dass sie mit dem Völkerrecht übereinstimme.“

Zu autonomen Waffensystemen unter dem Völkerrecht stellt die Akademie für humanitäres Völkerrecht und Menschenrechte in Genf fest:

 

 

„Fast alle Staaten, die die Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen unterschrieben haben, sind sich darüber einig, dass bei robotischen Waffen eine ‚sinnvolle menschliche Kontrolle‘ bei der Entscheidung über die Zielsetzung und den Angriff nötig ist.“

„Tödliche autonome Waffensysteme können gegen das fundamentale Prinzip der Menschenwürde verstoßen, denn sie erlauben Maschinen, ihre Opfer selbst auszusuchen. Z. B. können sie dazu programmiert werden, jeden zu eliminieren, der ‚bedrohliches Verhalten‘ zeigt.“

„Für Menschenrechtsorganisationen und Drohnenhersteller ist es offensichtlich, dass tödliche autonome Waffensysteme das Potenzial besitzen, auch in friedlichen Zeiten für Polizeiaufgaben eingesetzt zu werden.“

Wieder Stuart Russell: „Der mögliche Endpunkt dieser technischen Entwicklung sollte die Hauptsorge sein. Das Potenzial von autonomen Waffen könnte eher von den Gesetzen der Physik eingeschränkt werden, z. B. durch die Einschränkungen in Reichweite, Geschwindigkeit und Ladekapazität, als von Schwächen in der künstlichen Intelligenz, von der sie kontrolliert werden.“

Vehement ablehnender äußerte sich der Generalsekretär von Pax Christi, José Henriquez, auf der Stop Killer Robots Conference während der Convention on Certain Conventional Weapon (CCW) Sitzung bei der UN in Genf. 

Sind Killerroboter die Drohnenangriffe der Zukunft?

 

 

Laut Russell nahm beispielsweise die Beweglichkeit fliegender Robotern zu, als diese kleiner und leichter wurden, und sie konnten auch nicht mehr so leicht abgeschossen werden. Trotz kürzerer Reichweite, müssten die Systeme groß genug sein, um tödliche Ladungen transportieren zu können, etwa Ein-Gramm-Ladungen, die ausreichen, um den menschliche Schädel zu durchbohren.“

„Trotz der Einschränkungen durch physikalische Gegebenheiten, kann man erwarten, dass solche Waffensysteme millionenweise eingesetzt werden. Ihrer Beweglichkeit und ihrem tödlichen Potential werden Menschen vollkommen schutzlos ausgeliefert sein - das ist keine erstrebenswerte Zukunft.“

Laut „The Telegraph“ sagte Angela Kane, die Hohe Beauftragte für Abrüstungsfragen der Vereinten Nationen, dass der Einsatz von Killerrobotern bevorstehe, und rief zu einem weltweiten Verbot auf. Aber das britische Außenministerium meinte dazu, dass diese Technologie zwar zu möglichen „schrecklichen“ Folgen führen könne, Großbritannien „sich aber das Recht vorbehält“, sie zu entwickeln, um die eigenen Streitkräfte zu schützen.

Es gibt auch Befürworter der praktischen Anwendung der künstlichen Intelligenz zu humanitären Zwecken. Dr. Sabine Hauert, eine Dozentin für Robotik an der Universität Bristol, sagte: „Meine KollegInnen und ich haben Dinner-Partys damit verbracht, Anderen zu erklären, dass wir nicht böse sind, sondern dass wir Jahre damit verbracht haben, Systeme zu entwickeln, die älteren Menschen helfen, das Gesundheitssystem sicherer machen, die Arbeitsplätze sicherer und effizienter machen, und die es uns auch möglich machen, den Weltraum oder die Ozeane zu erforschen.“

Killerroboter - der Gegenstand einer UN-Debatte:

 

Russ Altman, Professor für Biotechnologie, Genetik, Medizin und Informatik an der Universität Stanford sagte: „Künstliche Intelligenz hat ein unglaubliches Potenzial, um die wissenschaftlichen Entdeckungen in Biologie und Medizin zu beschleunigen und das Gesundheitswesen zu transformieren. Systeme der künstlichen Intelligenz könnten helfen, einige neue Datentypen zu analysieren: Messwerte in der ‚omik‘ wie Genomik, Proteomik und Metabolomik, und auch die elektronische Gesundheitskarte und die digitale Sensorüberwachung der Gesundheit.“

Dr. Michael Horowitz: Die Zukunft von autonomen Waffen: 

 

 

Manuela Veloso, eine Professorin für Informatik an der Carnegie Mellon University, sagte: „Menschen integrieren mühelos Wahrnehmung, Erkennen und Handeln. Wir benutzen unsere Sensoren, um die Welt zu verstehen, unsere Gehirne, um zu denken, und wir agieren, um Ziele zu erreichen, unser Körper führt das alles aus. Mein Forschungsteam versucht, Roboter zu bauen, die genau dasselbe machen können - mit künstlichen Sensoren (Kameras, Mikrophonen und Scannern), Algorithmen und Auslösern, die die Mechanismen kontrollieren.“

Ich habe kein Problem damit, wenn künstliche Intelligenz nicht militärisch benutzt wird.

 

„Der Einsatz dieser Technologie in autonomen Waffensystemen wird langfristig allen schaden.“

Denn dann wird es nur eine Frage der Zeit sein, bis auch außerhalb von Kriegsereignissen alle möglichen nichtstaatlichen Gruppen, Terroristen sowie Despoten und Diktatoren diese verheerende Technologie ebenfalls gegen eine vermeintlich unliebsame Bevölkerung einsetzten.

 

 

LIKE uns auFacebook, oder folge uns auf  Twitter.