|

Wenn der Computer über Leben oder Tod entscheidet

Länder: Welt

Tags: drones

Renommierte IT-Experten wenden sich mit einem offenen Brief an die Öffentlichkeit und warnen vor autonomen Waffensystemen. Künstliche Intelligenz könne, wenn sie für die falschen Zwecke missbraucht wird, große Gefahren bergen. Daher fordern die Wissenschaftler die internationale Ächtung autonom handelnder Waffen.      

Schon für einen Soldaten ist es bei einem Kampfeinsatz oft schwer, zwischen Freund und Feind zu unterscheiden. Wie soll eine Maschine das schaffen?

Benoît Girard, Robotik-Experte am CNRS

Szenen wie aus einem Science-Fiction-Film: Autos fahren vollkommen autonom, bremsen und halten Abstand zum Fahrzeug vor ihnen, Flugzeuge kommen ohne Piloten aus und wählen selbstständig, welche Route sie einschlagen, und unbemannte Kampfdrohnen entscheiden eigenständig, wer Freund und wer Feind ist – wer eliminiert wird und wer leben darf. Zukunftsszenarien, die bereits Realität werden: Vor zwei Jahren vollführte der britische Kampfjet Taranis seinen ersten Testflug, ohne Pilot. Die Entwicklung vollautomatischer Waffensysteme bereitet IT-Spezialisten Bauchschmerzen. Über 1000 Wissenschaftler und Experten auf dem Gebiet der Robotik und der künstlichen Intelligenz warnen nun in einem offenen Brief vor den Gefahren von autonomen Waffen und fordern, sie zu ächten. Sie befürchten ein globales Wettrüsten um die "Kalaschnikows von morgen". Mitunterzeichner des Briefes sind bekannte Größen wie Tesla-Gründer Elon Musk, der Astrophysiker Stephen Hawking, der US-Intellektuelle Noam Chomsky und Apple-Mitgründer Steve Wozniak.

Können Drohnen Verhaltensweisen erkennen?

Die Forscher befürchten, dass autonome Waffen wie etwa Drohnen Fehler begehen, wenn sie eigenständig nach Zielen suchen. Zwar beteuern die Hersteller der Waffensysteme unisono, dass es immer einer menschlichen Bestätigung für einen Abschuss benötigt. Für Benoît Girard, Robotik-Experte am französischen Forschungsinstitut CNRS und Mitunterzeichner des offenen Briefes, ist das allerdings Augenwischerei: "Wenn es die Möglichkeit gibt, dass Waffen autonom handeln, wird das Militär diese auch früher oder später nutzen. Schon für einen Soldaten ist es bei einem Kampfeinsatz oft schwer, zwischen Freund und Feind zu unterscheiden. Wie soll eine Maschine das schaffen?" Das größte Problem dürfte für Drohnen und anderes Kriegsgerät sein, Feinheiten wie Mimik oder Körpersprache zu erkennen und zu deuten, da sie nach vorgegebenen Mustern handeln, und spontane, individuelle Verhaltensweisen nur schwer interpretieren können. Handelt es sich um einen Zivilisten oder einen Kämpfer, ist er aggressiv, defensiv, verletzt, oder ergibt er sich gar? "Bereits heute gibt es zahlreiche Fälle, bei denen Unschuldige durch Drohnen getötet wurden, und das, obwohl sie von Soldaten in Kontrollzentren überwacht und gelenkt werden. Wie wird das dann erst, wenn sie gänzlich eigenständig handeln?"

Töten auf Knopfdruck

Mit den Drohnen haben Militärmächte allerdings wieder einen Vorteil, da sie gezielte Tötungen erlauben, ohne eine große und verwundbare militärische Präsenz vor Ort.

Xavier Philippe, französischer Rechtswissenschaftler

In Afghanistan sollen über 13.000 Menschen durch Drohnen getötet worden sein, in Pakistan knapp 4.000 – eine weitere Gefahr des Einsatzes von Robotik in der Kriegsführung: das Töten per Knopfdruck ist unpersönlich, es ist weit weg, es geht leichter von der Hand. Die Unterzeichner des offenen Briefes fürchten durch den Einsatz von autonomen Waffen einen Anstieg der zivilen Opfer.

Der französische Rechtswissenschaftler Xavier Philippe ist Experte auf dem Gebiet des Kriegsrechts. Er bezweifelt, dass dem Appel der Wissenschaftler von Politikern und Militärs Folge geleistet wird. Um Kriegsführung mit autonomen Waffen effektiv verhindern zu können, bräuchte es internationale Übereinkommen, vergleichbar mit dem Verbot von ABC-Waffen. Doch solch ein Abkommen wird es in naher Zukunft nicht geben, ist sich Philippe sicher: "Die vergangenen Jahre und Jahrzehnte der Kriegsführung in Afghanistan und dem Irak haben eines klar gemacht: Militärmächte wie die USA schaffen es trotz ihrer modernen Militärtechnik und enormem Einsatz von Mitteln nicht, diese Gebiete dauerhaft zu kontrollieren und zu befrieden. Gegen die Guerilla-Taktik der gegnerischen Truppen kommen sie nicht an. Mit den Drohnen haben sie allerdings wieder einen Vorteil, da sie gezielte Tötungen erlauben, ohne eine große und verwundbare militärische Präsenz vor Ort." Letztendlich nähert sich die Taktik der Großmächte durch den Einsatz von Drohnen derjenigen der Milizen, Guerillas und Terroristen an. "Und diesen entscheidenden Vorteil werden die großen Militärnationen nicht aus der Hand geben – daher wird es wohl auch kein Verbot von autonomen Waffensystemen geben."

Weiterführende Links:

- Der Bericht von Human Rights Watch über Verantwortlichkeitslücken bei "Kill Robotern
Webdossier vom ZDF über den Drohnenkrieg, mit einem Interview mit einem ehemaligen Drohnenpilot
- Umfassender Artikel über die Entwicklungen bei der Drohnen-Technik 

Gefahr: Hackerangriff

Eine weitere Gefahr der autonomen Kriegsführung sehen Spezialisten in der Anfälligkeit der Technik für Hacker-Angriffe. Bereits 2008 gelang es schiitischen Extremisten in Afghanistan, Daten von amerikanischen Drohnen zu klauen, zwei Jahre später hackten irakische Kämpfer die Fluggeräte: Mittels einer Billigsoftware konnten sie Videoaufnahmen mitschneiden, die die Drohnen an die Basisstationen sendeten. So waren sie darüber informiert, wo die Drohnen patrouillierten. Zwar erhielten die Hacker keine Kontrolle über die Kriegsgeräte, aber das sei durchaus ein realistisches Szenario, glaubt Ivano Somaini, IT-Sicherheitsexperte aus Bern. "Drohnen sind Computer, die nicht allzu viel Rechenpower haben und deren Sicherheitssysteme nicht die aktuellsten sind. Bisher setzt das Militär vor allem auf Verfügbarkeit, und auch Kostenpunkte spielen bei der Anschaffung von Waffensystemen eine wichtige Rolle. Die IT-Sicherheit wird dabei oft vernachlässigt."

Musk, Hawking, Chomsky und ihre Kollegen sehen aber keinesfalls die Entwicklung von künstlicher Intelligenz im Allgemeinen als Problem. Die neuen Technologien können für die Gesellschaft von großem Nutzen sein, unter anderem im Bereich der Verkehrssicherheit, der Medizintechnik oder der Telekommunikation. Doch diese friedliche Nutzung wird durch die militärische Entwicklung gefährdet, befürchten die Wissenschaftler, da die öffentliche Meinung sich gegen die neue Technik wenden könnte.

In unserer Grafik stellen wir Ihnen drei autonome Waffensysteme vor:

 

 

Zuletzt geändert am 8. Dezember 2016