chrismon: Die Vereinten Nationen (UN) diskutieren, ob autonome Kampfroboter ethisch vertretbar sind...
Peter Dabrock: Als Christ habe ich bei so einer Diskussion immer einen Kloß im Hals. Einerseits gilt: „Du sollst nicht töten!“ Andererseits gibt es Kriege, und Verteidigung ist legitim. Zudem gilt leider: Die Tötungsinstrumente der Menschen haben sich seit der Erfindung des Keils immer dem jeweiligen Stand der Technik angepasst.
Was ändern autonome Systeme?
Zunächst: Sie funktionieren nur vermeintlich autonom. Es gibt immer noch Menschen, die im Hintergrund Verantwortung tragen, hier: Programmierer und Kommandeure. Die Verantwortung rückt immer nur eine Ebene weiter nach hinten. Das Prekäre an dieser Entwicklung ist, dass der Abstand zwischen Waffe und Verantwortlichen immer größer wird.
Was heißt das für den Ethiker?
Bei sogenannten autonomen Tötungsmaschinen ist ganz klar eine Grenze überschritten, weil sie – einmal losgelassen – den Auftrag eigenständig ausführen können. Bei ferngesteuerten Drohnen gibt es schon eine Distanz, aber der Mensch kann immer noch eingreifen, beispielsweise wenn auf einmal ein Kind ins Anschlagsziel gerät oder kurz vor dem geplanten Angriff Frieden ausgerufen wird. Die „autonomen“ Waffen geben dem schrecklichen Krieg eine noch schrecklichere und kältere Fratze.
Forscher, die sich mit künstlicher Intelligenz beschäftigen, schlagen vor, eine Art roten Knopf einzubauen, mit dem der Mensch den Roboter jederzeit stoppen kann.
Bei „autonomen“ Systemen muss es so eine Möglichkeit geben. Mit diesen Kampfrobotern wird es möglich, nur durch das Einprogrammieren des Namens oder der Ortungsdaten des Handys eine Tötung in Auftrag zu geben. Man muss nichts mehr weiter tun als abwarten. Das ist sehr zynisch.
"Ich wünsche mir, dass die UN diese neuen Waffen ächten"
Befürworter meinen, die Fehlerquote der Roboter läge unter der des Menschen.
Halten wir fest: Töten ist schrecklich. Unter dieser Voraussetzung gilt: Waffen sollen möglichst geringe Kollateralschäden anrichten. Das ist Teil einer „humanitären“ Kriegsführung und ethisch geboten. Das darf aber nicht dazu führen, dass wir eine „autonome“ Kriegsmaschinerie in Gang setzen. Letztlich sollte immer ein Soldat die Situation abwägen und die letzte Entscheidung treffen, ob er tötet.
Ein anderes Argument der Befürworter ist, dass durch den Einsatz solcher Roboter weniger Menschen in den Kampf geschickt würden und es weniger traumatisierte Rückkehrer gäbe.
An einer solchen Debatte sieht man, wie teuflisch der Krieg ist. Natürlich ist jede Mutter froh, wenn ihr Kind möglichst weit von der Front entfernt ist. Aber Waffen sollen immer jemanden töten und „autonome“ Kampfroboter sorgen nicht dafür, dass das Töten aufhört. Weil die eine Mutter sich nicht mehr um ihr Kind an der Front sorgen muss, heißt das nicht, dass eine andere nicht um ihre getöteten Kinder trauert.
Breitet sich der Krieg durch Kampfroboter schneller aus?
Das kommt darauf an, wer welchen Krieg führt. Krieg ist ein sehr vielfältiges Phänomen. Wer „autonome“ Kampfroboter besitzt, neigt vielleicht schneller zu einem präventiven Krieg. Aber es könnte auch, wie bei der Atomrüstung, zu einem Gleichgewicht des Schreckens kommen. Da wagt niemand den ersten Schritt aus Angst vor dem Gegenangriff.
Lässt sich der Forschungsdrang durch ethisch motivierte, politische Entscheidungen langfristig aufhalten?
Ich wünsche mir, dass die UN diese neuen Waffen ächten. Ich bin jedoch sehr skeptisch, dass es dazu kommt. Deshalb ist schon jeder völkerrechtliche Vertrag, der ihnen Grenzen aufzeigt, ein wichtiger Schritt in die richtige Richtung. Trotzdem darf man die Hoffnung nicht aufgeben. Wir sollten uns entsprechend engagieren. Der Einsatz solcher „autonomer“ Kampfmaschinen wäre schrecklich.
Nicht neu....
"Autonome Kampfmaschinen" ist nur ein neues Wort für alte Technik: Schon die Torpedos gegen Ende des zweiten Weltkrieges suchten sich ihre Ziele selbst. "Fire and Forget" war die Bezeichnung für die entsprechenden Luft-Luft- und Luft-Seeziel-Raketen der 1980er Jahre...
Den Umstand, daß die neuste Generation dieser Waffen etwas genauere Sensorenwerte auswerten und damit hoffentlich weniger zu "Kollateralschäden" (=zivilen Opfern) neigen dürfte man kaum als Nachteil ansehen.
- Anmelden, um Kommentare verfassen zu können