Des robots « tueurs » seront bientôt entre les mains des terroristes, selon la Chambre des Lords

La campagne "Stop Robot Killer" s'est déroulée dans les rues de Londres en 2013

Les terroristes pourraient bientôt mettre la main sur une intelligence artificielle mortelle, selon un comité de la Chambre des Lords du parlement britannique. Drones sans intervention humaine et autres robots « tueurs » se retrouveraient dans le mauvais camp et seraient utilisés de la pire des façons. Un signal d’alarme des parlementaires, qui suit celui lancé par les plus grands scientifiques britanniques, l’astrophysicien Stephen Hawking en tête.

L’intelligence artificielle est déjà utilisée depuis quelques années par l’armée et se développe de plus en plus. La dernière innovation militaire revient à l’armée américaine. En octobre 2016, elle a testé des drones totalement autonomes : une escadrille d’une centaine de mini drones ont été largués par trois avions de combat. Ils ont la capacité de voler en formation, de communiquer entre eux et de prendre des décisions pour s’adapter aux circonstances. Ces petits avions ne devraient être utilisés qu’uniquement pour des missions de repérage, de surveillance et non pour des combats.

 

Mais les experts s’inquiètent de l’avenir de ces robots ; le problème est que de très mauvaises copies de telles armes pourraient tomber entre les mains de groupes terroristes comme l’Etat islamique. Ce dernier avait d’ailleurs déjà équipé des drones civils commerciaux d’un dispositif de lance-grenade particulièrement efficace. On peut parier qu’ils auront également la capacité de recycler, de pirater, de détourner des robots civils récupérés sur le terrain ou achetés sur le marché noir pour les convertir en robots armés télé-opérés ou même totalement autonomes.

killer robot

Ce robot a la capacité d'attaquer et de se défendre, sans presque aucune intervention de l'Homme

Alvin Wilby, vice-président de la recherche chez Thales (le géant français de la défense), qui fournit des drones de reconnaissance à l’armée britannique, pense que cette innovation pourrait devenir très néfaste à l’avenir. Il a soulevé la perspective d’attaques par des « essaims » de petits drones qui se déplacent et choisissent leurs cibles sans aucune aide humaine. L’innovation irait donc encore plus loin, puisque les hommes n’auront presque plus besoin d’intervenir. L’Etat islamique utilise déjà ce type de drones comme armes offensives, mais ils restent, pour le moment, contrôlés par des hommes.

La course aux armements dans l’intelligence artificielle devrait donc être pour bientôt, et un nouveau type de guerre pourrait voir le jour. Noel Sharkey, professeur d’intelligence artificielle et de robotique à l’Université de Sheffield estime que nous ne pourrons pas empêcher les meurtres à l’aveugle. Il a déclaré : « Je ne veux pas vivre dans un monde où la guerre peut arriver par hasard en quelques secondes. »

En 2015, l’astrophysicien britannique Stephen Hawking, le fondateur de Tesla et Space X Elon Musk, ainsi que de nombreux autres chercheurs et personnalités avaient appelé à l’interdiction de ces robots « tueurs ». Dans une lettre ouverte, publiée à l’ouverture de la Conférence internationale sur l’intelligence artificielle à Buenos Aires en 2015, ce collectif met en garde : « Ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique. »

Un an auparavant, Stephen Hawking avait déjà lancé un cri d’alerte sur l’intelligence artificielle (AI), il avait déclaré : "J'ai peur que l'intelligence artificielle puisse remplacer complètement les humains. Si les gens peuvent concevoir des virus informatiques, quelqu'un pourrait concevoir une IA qui peut s'améliorer et se reproduire. Ce serait une nouvelle forme de vie capable de surpasser les humains."

Voici une vidéo de la BBC dans laquelle Hawking parle de ce danger.

Le comité des Lords, qui étudie l’impact de l’intelligence artificielle sur la société, a récemment été informé que les développements de l’intelligence artificielle étaient désormais menés par le secteur privé. Les militaires, qui étaient à la pointe de la technologie, ne sont donc plus les seuls à développer ce type d’armes.

Selon certains experts, l’unique moyen d’empêcher cette nouvelle course aux armements serait d’imposer de nouvelles restrictions internationales à ce sujet. Mais d’après le professeur Wilby, une telle interdiction serait difficile à appliquer. En effet, il existe déjà des règles de droit international qui régissent les conflits armés et qui visent à garantir que les forces armées utilisent le minimum de force nécessaire pour atteindre leur objectif, tout en créant le minimum de conséquences imprévues et de pertes civiles.

Pour l’heure, le comité ainsi que le ministère de la Défense ont affirmé que les forces armées britanniques n’utilisaient pas l’intelligence artificielle dans ses armes offensives et qu’elles n’ont pas l’intention de développer des systèmes totalement autonomes. Néanmoins, le professeur Sharkey affirme que le Royaume-Uni devrait préciser son engagement dans la loi.

 

Marion Machu avec Loïc de La Mornais

Publié par Bureau de Londres / Catégories : Non classé