Armes autonomes : Des chercheurs en Intelligence artificielle publient une lettre ouverte

Un groupe mélangeant de nombreux chercheurs, scientifiques et personnalités publiques – parmi lesquels on trouve Stephen Hawking(i), Elon Musk(ii) ou encore Steve Wosniak(iii) – vient de publier une lettre ouverte contre le développement des armes dite « autonomes », c’est-à-dire ces armes qui utilisent l’intelligence artificielle et sont en mesure d’agir en dehors de tout contrôle humain.Voici la traduction de cette lettre :

Les armes autonomes sélectionnent et affrontent leurs cibles sans aucune intervention humaine. Ces armes sont, par exemple, les quadricoptères armés capables d’identifier et d’éliminer les personnes sur la base de critères prédéfinis, mais elles ne recouvrent pas les armements tels que les missiles Cruise ou les drones pilotés à distance, pour lesquels c’est au final l’homme qui prend la décision de tirer.

La technologie de l’Intelligence artificielle a atteint un niveau tel qu’elle pourrait permettre de réaliser de tels systèmes – en termes pratiques, sinon légaux – en l’espace de quelques années, et non plus de quelques décennies. Le défi est énorme, puisque les armes autonomes ont été qualifiées de troisième révolution dans le domaine de la guerre, après la poudre et la bombe atomique.[…]

Des arguments ont été avancés aussi bien en faveur que contre les armes autonomes. Par exemple, le fait de remplacer les soldats humains par des machines est positif dans le sens où il permet de réduire le nombre de victimes, mais il est négatif en cela qu’il abaisse le seuil menant à l’ouverture d’un conflit. La question cruciale pour l’humanité aujourd’hui est de savoir si elle permet le lancement d’une course globale aux armes autonomes, ou si elle stoppe cette course avant qu’elle ne commence. Si une grande puissance militaire pousse au développement des armes autonomes, la course globale à de tels armements deviendra inévitable, et la conclusion de ce parcours technologique est évidente : les armes autonomes deviendront les Kalashnikov de demain.

A la différence des armes nucléaires, ces armements ne requièrent pas de matériels particulièrement couteux ni difficiles à obtenir. Cela signifie qu’on en retrouvera partout et qu’elles seront peu chères à la production, pour n’importe quelle puissance militaire.  Ce n’est donc qu’une question de temps avant de voir circuler ces armes au marché noir, puis entre les mains des terroristes, des dictateurs qui veulent garder leur peuple sous contrôle, des chefs de tribus décidés à mener une « purification ethnique », etc., etc.

Les armes autonomes sont aussi idéales pour assassiner quelqu’un, pour déstabiliser des nations, pour soumettre des populations, et pour éliminer de façon sélective un groupe ethnique en particulier. Par conséquent, nous pensons qu’une course au développement militaire des armes autonomes ne serait pas bénéfique pour l’humanité. Il y a quantité de façons d’utiliser l’IA pour rendre le champ de bataille plus sûr pour les êtres humains – surtout pour les civils – sans avoir besoin de créer de nouveaux outils pour tuer.

Tout comme les chimistes et les biologistes n’ont aucun intérêt à construire des armes chimiques ou biologiques, la majeure partie des chercheurs en Intelligence artificielle n’ont aucun intérêt à construire des armes autonomes, et ne veut pas voir salir la réputation de leur domaine de recherche, en créant une réaction négative du public qui pourrait impacter négativement les futurs bienfaits issus de l’Intelligence artificielle. De fait, les chimistes et les biologistes ont fortement soutenu les accords internationaux interdisant les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires dans l’espace et les armes aveuglantes à laser.

En conclusion, nous croyons que l’intelligence artificielle représente un formidable potentiel bénéfique pour l’humanité, et que le but ultime de ce domaine de recherches est précisément cela. Le fait de lancer une course aux armes autonomes serait une très mauvaise idée, et devrait être stoppé par l’interdiction de toute arme capable d’agir en dehors du contrôle humain.

Source : RTBBC
Traduction : Christophe pour ilFattoQuotidiano.fr

L’original de la lettre ouverte se trouve ici, avec la liste des signataires

Notes de la traduction :

  1. Stephen Hawking, célèbre astrophysicien britannique
  2. Elon Musk : le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX
  3. Steve Wosniak, co-fondateur d’Apple

Lire aussi cet article paru dans Le Monde le 27.07.2015



Articles Par : RT

Avis de non-responsabilité : Les opinions exprimées dans cet article n'engagent que le ou les auteurs. Le Centre de recherche sur la mondialisation se dégage de toute responsabilité concernant le contenu de cet article et ne sera pas tenu responsable pour des erreurs ou informations incorrectes ou inexactes.

Le Centre de recherche sur la mondialisation (CRM) accorde la permission de reproduire la version intégrale ou des extraits d'articles du site Mondialisation.ca sur des sites de médias alternatifs. La source de l'article, l'adresse url ainsi qu'un hyperlien vers l'article original du CRM doivent être indiqués. Une note de droit d'auteur (copyright) doit également être indiquée.

Pour publier des articles de Mondialisation.ca en format papier ou autre, y compris les sites Internet commerciaux, contactez: [email protected]

Mondialisation.ca contient du matériel protégé par le droit d'auteur, dont le détenteur n'a pas toujours autorisé l’utilisation. Nous mettons ce matériel à la disposition de nos lecteurs en vertu du principe "d'utilisation équitable", dans le but d'améliorer la compréhension des enjeux politiques, économiques et sociaux. Tout le matériel mis en ligne sur ce site est à but non lucratif. Il est mis à la disposition de tous ceux qui s'y intéressent dans le but de faire de la recherche ainsi qu'à des fins éducatives. Si vous désirez utiliser du matériel protégé par le droit d'auteur pour des raisons autres que "l'utilisation équitable", vous devez demander la permission au détenteur du droit d'auteur.

Contact média: [email protected]