|

Robots tueurs : la réalité dépasse la science-fiction

Pays : Monde

Tags : drones, militaire, intelligence artificielle

L’intelligence artificielle appliquée à l’armement : Noam Chomski, Stephen Hawking, et un millier d'autres chercheurs ont lancé un appel pour mettre en exergue les dangers d’une nouvelle génération d’armes. A l’image des drones (ces avions sans pilote), plusieurs projets d’armes létales, capables d’agir de manière quasi autonome, sont actuellement développés par de nombreux Etats. Face à l’avancée de ces technologies, le vide juridique est total.

Un robot tueur, capable de décider seul de l'élimination d'une cible. Un scénario de science-fiction qui ne semble plus si lointain. A l’occasion d’une conférence internationale sur l’intelligence artificielle (ICJAI), qui se tient cette semaine à Buenos Aires, près d’un millier de personnalités issues du domaine universitaire ont lancé un appel, ce lundi 27 juillet, pour interdire les armes autonomes "capables de sélectionner et de combattre des cibles sans intervention humaine." On est encore loin d’une armée de Terminators déployés sur les lignes de front, et pourtant, le sujet semble préoccuper les instances internationales. Un rapporteur spécial de l’ONU, Christof Heyns, a même été choisi, il y a deux ans, pour s'interroger sur les implications juridiques de ces nouvelles avancées militaires. Peu entendu, il est pourtant soutenu dans son combat par l'ONG Human Rights Watch, qui s’est fendue d’un rapport en avril dernier : une lacune cruciale, "le manque de responsabilité juridique des robots tueurs", pointe la dangerosité de ces armes dont l’automatisation est poussée à l’extrême.

Pour l’heure, comme le précise l’ONG, "les armes entièrement autonomes n’existent pas encore, mais les technologies s’orientent dans cette direction, et des prototypes sont déjà utilisés ou sont en développement". Tour d’horizon des "robots tueurs", passés ou futurs.

Cliquez sur les noms des "robots tueurs" pour en savoir plus.

Un appel pour défendre l’intelligence artificielle

C'est notre responsabilité de chercheurs, que d'attirer l'attention : de la même manière que, il y a quelques années, nos collègues ont signé des appels pour l'interdiction des armes nucléaires

Benoît Girard - Chargé de recherche au CNRS

Pour Benoît Girard, chargé de recherche au CNRS, signer cet appel était "un devoir""C’est notre responsabilité de chercheurs dans un domaine particulier, que d’attirer l’attention. De la même manière que mes collègues, il y a de nombreuses années, dans le domaine du nucléaire ou de la chimie, qui ont signé des appels similaires pour l’interdiction des armes nucléaires ou des armes chimiques." Ce spécialiste en intelligence artificielle, qui officie au sein de l’Institut des systèmes intelligents et de robotique, entend bien défendre son domaine d’expertise. Pour lui, il ne s’agit pas de condamner l’intelligence artificielle, mais seulement son usage militaire, déviant. Seulement, entre les deux, la limite est parfois floue : "Un système de reconnaissance visuelle, ça peut servir à reconnaître votre cousine dans vos photos sur Google+. Mais ça peut aussi être utilisé pour reconnaître un être humain sur une photo aérienne. C’est le même genre de techniques d’intelligence artificielle qui sont à l’œuvre." Cet aspect est par ailleurs souligné dans l’appel publié lundi dernier, par le Future of Life Institute, un organisme américain : loin de condamner les recherches dans ce domaine, il s’agit au contraire de les préserver, en évitant qu’un mauvais usage de ces technologies ne provoque "un rejet majeur du grand public".

Des "robots tueurs" pour éviter les pertes humaines

Afghanistan, Irak... On s'est rendu compte que ce n'est pas grâce à la technologie que l'on gagnait la guerre : une partie forte intervient avec de la haute technologie, mais sur un terrain qu'elle connaît mal

Xavier Philippe - Spécialiste en droit des conflit armés

Pour les partisans de ces nouvelles armes automatiques, le gain financier serait considérable. Dans un contexte de nations en déficit, et de budgets militaires en déclin, ces "robots tueurs" engendreraient un bénéfice financier en employant moins d’Hommes pour les manipuler, mais réduiraient surtout les pertes humaines. "Avec ces armes, on acquiert un sérieux avantage, dans la mesure où cela évite d’engager des troupes au sol. On est dans une véritable course à la technologie." Pour Xavier Philippe, professeur de droit à l’université d'Aix-Marseille, et spécialiste du droit des conflits armés, ce type d’armement permettrait aux nations qui en disposent de retrouver un équilibre dans des conflits de plus en plus asymétriques. "Ces quinze dernières années, on s’est rendu compte que ce n’est pas grâce à la technologie qu’on gagnait la guerre : Afghanistan, Irak... A chaque fois, une partie forte intervient avec de la haute technologie sur un terrain qu’elle connaît mal. La partie faible, par contre, n’a pas la technologie, mais maîtrise le terrain."

Les armes létales autonomes, loin d’être infaillibles

Les drones sont aussi des ordinateurs avec des lacunes de sécurité

Ivano Somaini - Employé dans une entreprise de sécurité suisse

Pour autant, les futurs conflits feront toujours des victimes. "Les nouvelles technologies ne sont jamais parfaites. On a beau dire qu’il n’y a aucune victime, qu’on ne perd pas d’Hommes, au final, le taux d’échec de ces merveilles de la technologie laisse songeur", souligne Xavier Philippe. Sur ce point, Ivano Somaini semble le rejoindre. Employé dans une entreprise de sécurité suisse, spécialisée dans les nouvelles technologies, ce "hacker" teste les pare-feux des banques, d’entreprises spécialisées dans l’énergie ou dans le domaine médical. Selon lui, "les drones sont aussi des ordinateurs avec des lacunes de sécurité." Rarement mis à jour, pour des raisons de coûts, ces systèmes peuvent également être piratés. "Théoriquement, des terroristes pourraient contrôler des drones à distance. Cela n’est pas encore le cas, mais c’est concevable." Pour preuve : il y a quelques jours, deux hackers ont pu prendre le contrôle d’une Jeep, à distance, grâce à une simple adresse IP. Même HAL, le super calculateur de 2001, l’Odyssée de l’espace de Stanley Kubrick, s’est révélée loin d’être infaillible.

Des armes capables "d'autoréagir"

Pour l’heure, Dassault ou BAE, qui travaillent sur les drones du futur, comme Taranis, sont catégoriques : même si ces engins possèdent un haut degré d’automatisation, ils seront toujours déployés sous surveillance humaine. Pourtant, lorsque les temps de réaction pour décider de la nature d’une menace ou de la riposte se calculent en nanosecondes, la machine semble avoir davantage son mot à dire, comme c’est déjà le cas pour le système de défense antimissile Phalanx. Mais le plus inquiétant, pour le juriste Xavier Philippe, c’est que cette nouvelle génération d’armes létales autonomes "pourrait autoréagir." Taranis est ainsi conçu pour repérer une cible en territoire hostile, et la neutraliser. "C’est quelque chose qu’on a jamais vu avant, et dont on ne connait pas le cadre juridique."

Une nouvelle éthique de la guerre ?

Les conventions de Genève, datant de 1977, n’avaient absolument pas prévu ce cas de figure. "Il n’y a plus de combat dans lequel deux adversaires se repèrent, s’identifient et décident, ou non, de se tirer dessus. On est dans quelque chose qui est devenu complétement immatériel." Le lobbying de Human Rights Watch, et l’appel lancé par ces chercheurs, est bien orienté dans ce but : amener une réflexion internationale sur ce nouveau type d’arme, qui redéfinit "l’éthique" de la guerre, et pose la question de la responsabilité. Car l’intelligence artificielle, programmée et donc faillible, pourrait très bien confondre un civil et un combattant. Cela passerait alors par un nouveau cadre juridique pour encadrer les conflits armés. Sauf que le droit international, comme le précise Xavier Philippe, demeure un droit "contractuel" : "Quand on adopte une nouvelle norme, il faut que ceux qui ratifient cette norme acceptent de s’y soumettre." Et les pays les plus enclins à changer le droit international sont, justement, "tous ceux qui n’ont pas d’armes automatiques létales !" - à l’image de la Norvège ou la Suède. Les armes chimiques et les bombes à sous-munitions ont beau être interdites et encadrées par des textes internationaux, elles n’en ont pas moins été utilisées récemment en Syrie, ou en Ukraine. Pour le juriste, il en va des armes létales autonomes comme du nucléaire : "Bien sûr que l’intelligence artificielle peut être un progrès pour l’humanité, mais croire qu’elle ne puisse pas servir le domaine militaire et qu’il suffise de faire une promesse qui ne lie que ceux qui s’y engagent, c’est à mon avis un peu naïf."
 

 
Dernière màj le 8 décembre 2016