La marine américaine dit qu'elle essaie d'éviter le scénario "Terminator" alors que les experts mettent en garde contre les techniques d'Intelligence Artificielle sur le champ de bataille.
Les robots tueurs déclencheront la guerre ?
C'est depuis longtemps une image limitée à la culture populaire : des tueurs de robots imparables tirant avec leurs fusils puissants sur des groupes de soldats humains sans défense qui n'ont d'autre choix que de fuir le champ de bataille ou de risquer de subir des pertes énormes.
Le scénario de robots militaires et le réseau d'intelligence artificielle (IA) "Skynet" qui tourne à l'abri de tout contrôle humain forment la base de la série Terminator avec Arnold Schwarzenegger qui a captivé les cinéphiles du monde entier. Mais maintenant, selon un responsable de la marine américaine, le cauchemar de la science-fiction des guerres confiées à des machines qui "ne peuvent être raisonnées[et] ne ressentent ni pitié, ni remords, ni peur" - comme le dit un personnage du film original - pourrait devenir une réalité.
Ces commentaires sont formulés au fur et à mesure que la Marine continue d'améliorer ses capacités autonomes et de grossir ses rangs grâce à des systèmes robotiques plus perfectionnés.
Cependant, cela s'est accompagné d'un travail visant à éviter que le service n'accorde trop de confiance à un système qui pourrait, certains le craignent, un jour, avoir ses propres idées.
Steve Olsen, directeur adjoint du bureau de la guerre de la marine, a déclaré à "Defense News" :
La confiance est quelque chose qu'il est difficile de trouver avec un ordinateur, surtout lorsque nous commençons à travailler avec notre communauté de test et d'évaluation.
J'ai travaillé avec notre directeur des tests et de l'évaluation, et souvent c'est : "Hé, qu'est-ce que ce truc va faire ? Et je dis : "Je ne sais pas, ça va choisir le meilleur chemin".
En comparant les pièges des systèmes de combat autonomes aux accidents de voiture impliquant des voitures privées semi-autonomes, M. Olsen a poursuivi :
Et ils n'aiment pas ça du tout parce que l'autonomie rend beaucoup de gens nerveux. Mais le revers de la médaille, c'est qu'il y a une chose à laquelle nous devons faire très attention, c'est de ne pas faire trop confiance. Tout le monde a vu aux nouvelles que les gens faisaient trop confiance à leur voiture Tesla. C'est quelque chose que nous ne pouvons pas faire quand nous parlons du système d'armement.
La dernière chose que nous voulons, c'est que Terminator devienne fou alors nous travaillons très fort pour prendre les mesures nécessaires pour nous protéger et protéger les autres.
La Marine est déjà en train d'expérimenter un véhicule de surface autonome sans pilote (USV) de 135 tonnes appelé Sea Hunter, qui est destiné à fournir une plate-forme autonome pour la guerre anti-sous-marine et électronique ainsi qu'un leurre dans tout affrontement par tir réel impliquant des forces humaines.
Plus tôt cette année, le Sea Hunter a été le premier navire de tout genre à naviguer sans équipage de San Diego, en Californie, à Pearl Harbor, Hawaii dans les deux sens.
Et selon "Defense One", l'armée de l'air commencera à travailler sur les voitures volantes cet automne dans le cadre d'un programme appelé Agility Prime. Will Roper, secrétaire adjoint de l armée de l air américaine, a déclaré ceci au sujet du programme :
La tâche que j'ai confiée à l'équipe consistait à préparer une série de défis, allant des petits véhicules, en passant par le déplacement de deux ou trois aviateurs spéciaux, jusqu'aux petits ensembles logistiques, aux munitions, aux repas etc.
En 2017, des experts en technologie de l'IA, dont le fondateur de Tesla, Elon Musk, ont écrit une lettre ouverte aux Nations Unies pour mettre en garde contre les dangers potentiels des systèmes d'armes équipés de capacités autonomes intégrées.
Les armes autonomes mortelles menacent de devenir la troisième révolution de la guerre. Une fois mises au point, elles permettront de combattre les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que ce que les humains peuvent comprendre. Il peut s'agir d'armes de terreur, d'armes que des despotes et des terroristes utilisent contre des populations innocentes et d'armes piratées pour se comporter de manière indésirable. Nous n'avons pas beaucoup de temps pour agir. Une fois la boîte de Pandore ouverte, elle sera difficile à refermer.
Une campagne pour arrêter les robots tueurs s'est également efforcée d'interdire complètement les armes autonomes du champ de bataille, notant que les systèmes d'armes entièrement autonomes " décideraient qui vit et meurt, sans autre intervention humaine, ce qui dépasse un seuil moral ", selon son site Web.
La campagne a ajouté :
En tant que machines, elles n'auraient pas les caractéristiques intrinsèquement humaines, comme la compassion, qui sont nécessaires pour faire des choix éthiques complexes.
Selon la Campagne pour arrêter les robots tueurs, on prépare le terrain pour une "course aux armements robotiques" potentiellement déstabilisante qui pourrait voir des pays du monde entier s'efforcer de prendre le dessus dans le renforcement de leurs capacités de combat autonomes.
Les armées des États-Unis, de la Russie, de la Chine, d'Israël, de la Corée du Sud et du Royaume-Uni ont déjà mis au point des systèmes avancés qui jouissent d'une grande autonomie dans le choix et l'attaque de leurs cibles, note la campagne.
Et alors que les pays du Sud ont exhorté l'ONU à interdire les robots tueurs, les États qui possèdent ces technologies se sont opposés à une telle interdiction à chaque signal qu'ils ne sont pas disposés à abandonner leurs nouveaux outils révolutionnaires de la mort.
Et dimanche, Laura Nolan, ancienne ingénieure de Google, a déclaré au Guardian qu'elle avait rejoint la Campagne pour arrêter les robots tueurs parce que les systèmes robotiques envisagés par les entreprises et les militaires de Big Tech pouvaient potentiellement faire "des choses calamiteuses pour lesquelles ils n'étaient pas programmés à l'origine".
L'ancien employé de Google, qui a démissionné l'an dernier pour protester contre le projet Maven de Google - qui visait à améliorer considérablement les capacités d'IA des drones militaires américains - a également informé les diplomates de l'ONU des dangers des armes robotiques.
Nolan a expliqué :
La probabilité d'un sinistre est proportionnelle au nombre de ces machines qui se trouveront dans une zone donnée à la fois. Ce que vous voyez, ce sont des atrocités et des assassinats illégaux possibles, même en vertu des lois de la guerre, surtout si des centaines ou des milliers de ces machines sont déployées.
Il pourrait y avoir des accidents à grande échelle parce que ces choses commenceront à se comporter de façon inattendue. C'est pourquoi tout système d'armement avancé devrait être soumis à un contrôle humain significatif, faute de quoi il devrait être interdit parce qu'il est beaucoup trop imprévisible et dangereux.
Selon un rapport complémentaire à la demande budgétaire du président Trump, le gouvernement fédéral s'apprête à dépenser près d'un milliard de dollars en recherche et développement sur l'IA non liée à la défense au cours de l'année financière 2020.
Defense One rapporte que lundi, l'administration Trump a tenu un sommet d'Intelligence Artificielle à la Maison Blanche, " accueillant 200 dirigeants du gouvernement, de l'industrie et du monde universitaire pour aborder les priorités dans un paysage en plein essor ".
Article traduit de l anglais :
ความคิดเห็น