Le fantôme du tueur de machines continue. En quoi croit le président Poutine ?
de la technologie

Le fantôme du tueur de machines continue. En quoi croit le président Poutine ?

Les partisans des robots militaires (1) soutiennent que les armes automatisées offrent plus d'options pour protéger la vie humaine. Les machines sont capables de se rapprocher de l'ennemi que les soldats et d'évaluer correctement la menace. Et les émotions paralysent parfois la capacité à prendre les bonnes décisions.

De nombreux partisans de l'utilisation de robots tueurs sont fermement convaincus qu'ils rendront les guerres moins sanglantes car moins de soldats mourront. Ils notent que les robots, bien qu'ils ne ressentent pas de pitié, sont immunisés contre les émotions humaines négatives telles que la panique, la colère et la vengeance, qui conduisent souvent à des crimes de guerre.

Les militants des droits de l'homme utilisent également l'argument selon lequel l'armée a entraîné une énorme réduction des pertes civiles au cours du dernier demi-siècle, et la robotisation de l'armée permet un mécanisme pour appliquer plus strictement les lois de la guerre. Ils prétendent que les machines deviendront éthiques lorsqu'elles seront équipées de logiciels qui les forceront à obéir aux lois de la guerre.

Bien sûr, un grand nombre de personnes, y compris des personnes très célèbres, ne partagent pas cette opinion depuis des années. En avril 2013, une campagne internationale a été lancée sous le slogan (2). Dans son cadre, les organisations non gouvernementales exigent une interdiction complète de l'utilisation des armes autonomes. Des experts de nombreux pays se sont d'abord assis pour discuter de ce sujet lors de la Conférence des Nations Unies sur le désarmement à Genève en mai 2014. Un rapport publié quelques mois plus tard par Human Rights Watch et des scientifiques de l'Université de Harvard a déclaré que les autonomes seraient trop dangereux - ils choisissaient leurs propres cibles et tuaient des gens. En même temps, il n'est pas très clair qui devrait être tenu responsable.

2. Manifestation dans le cadre de l'action "Stop aux robots tueurs"

Ce qu'un essaim de petits drones peut faire

Les différends autour des robots tueurs (ROU) durent depuis des années et ne s'estompent pas. Ces derniers mois ont apporté de nouvelles tentatives d'arrêt de robots militaires et une vague de signalements de nouveaux projets de ce type, dont certains sont même testés dans des conditions de combat réelles.

En novembre 2017, une vidéo montrant essaims mortels de mini-drones ., dans une action terrifiante. Les téléspectateurs ont vu que nous n'avions plus besoin des machines de guerre lourdes, des chars ou des missiles lancés par les Predators pour tuer en masse et avec des mitrailleuses. Le directeur principal Stuart Russell, professeur d'intelligence artificielle à Berkeley, déclare :

-

Le printemps dernier cinquante professeurs Les plus grandes universités du monde ont signé un appel à l'Institut coréen des sciences et technologies avancées (KAIST) et de son partenaire Hanwha Systems. ils ont annoncé qu'ils ne coopéreraient pas avec l'université et n'accueilleraient pas les invités du KAIST. La raison en était la construction "d'armes autonomes" réalisée par les deux institutions. Le KAIST a démenti les informations des médias.

Peu de temps après aux États-Unis plus de 3 employés de Google protesté contre le travail de la compagnie pour l'armée. Ils craignaient que Google ne s'associe à un projet gouvernemental nommé Maven qui vise à utiliser l'IA pour reconnaître les objets et les visages dans les vidéos de drones militaires. La direction de l'entreprise affirme que l'objectif de Maven est de sauver des vies et de sauver les gens du travail fastidieux, et non de l'agression. Les manifestants n'étaient pas convaincus.

La partie suivante de la bataille était la déclaration experts en intelligence artificielle, incl. travaillant sur un projet Google et Elon Musk. Ils promettent de ne pas développer de robots. Ils appellent également les gouvernements à redoubler d'efforts pour réglementer et limiter ces armes.

La déclaration dit, en partie, que "la décision de prendre une vie humaine ne devrait jamais être prise par une machine". Bien que les armées du monde soient équipées de nombreux dispositifs automatiques, parfois dotés d'une grande autonomie, de nombreux experts craignent qu'à l'avenir cette technologie ne devienne complètement autonome, permettant de tuer sans aucune intervention d'un opérateur et d'un commandant humains.

Les experts avertissent également que les machines à tuer autonomes pourraient être encore plus dangereuses que les "armes nucléaires, chimiques et biologiques" car elles peuvent facilement devenir incontrôlables. Au total, en juillet de l'année dernière, une lettre sous les auspices du Future of Life Institute (FGI) a été signée par 170 organisations et 2464 2019 individus. Au cours des premiers mois de XNUMX, un groupe de scientifiques médicaux affiliés au FLI a de nouveau appelé à une nouvelle lettre interdisant le développement d'armes contrôlées par l'intelligence artificielle (IA).

La réunion d'août de l'année dernière de l'ONU à Gniewo sur l'éventuelle réglementation juridique des "robots tueurs" militaires s'est terminée par un succès ... des machines. Un groupe de pays, dont les États-Unis, la Russie et Israël, a bloqué la poursuite des travaux sur l'introduction d'une interdiction internationale de ces armes (projet de convention sur l'interdiction ou la limitation de l'utilisation de certaines armes classiques, CCAC). Ce n'est pas un hasard si ces pays sont connus pour leurs travaux sur des systèmes avancés d'armes autonomes et robotiques.

La Russie mise sur les robots de combat

Le président Vladimir Poutine est souvent cité comme disant à propos des systèmes d'IA militaires et des robots de combat :

-.

parle ouvertement du développement d'armes autonomes. Le chef d'état-major général de ses forces armées, le général Valery Gerasimov, a récemment déclaré à l'agence de presse militaire Interfax-AVN que l'utilisation de robots serait l'une des principales caractéristiques des guerres futures. Il a ajouté que la Russie essayait automatiser entièrement le champ de bataille. Des commentaires similaires ont été faits par le vice-Premier ministre Dmitri Rogozine et le ministre de la Défense Sergueï Choïgou. Le président du Comité du Conseil de la Fédération sur la défense et la sécurité, Viktor Bondarev, a déclaré que la Russie s'efforçait de développer Technologies Rojucela permettrait aux réseaux de drones de fonctionner comme une seule entité.

Ce n'est pas surprenant si l'on se souvient que les premiers télétanks ont été développés en Union soviétique dans les années 30. Ils ont été utilisés au début de la Seconde Guerre mondiale. Aujourd'hui, la Russie crée également robots de réservoir deviennent de plus en plus autonomes.

L'Etat de Poutine a récemment envoyé les siens en Syrie Véhicule de combat sans pilote Uran-9 (3). l'appareil a perdu le contact avec les points de contrôle au sol, a eu des problèmes avec le système de suspension et ses armes n'ont pas fonctionné parfaitement et n'ont pas touché de cibles en mouvement. Cela n'a pas l'air très sérieux, mais beaucoup considèrent la lingette syrienne comme un bon test de combat qui permettra aux Russes d'améliorer la machine.

Roscosmos a approuvé un plan préliminaire pour envoyer deux robots à la Station spatiale internationale d'ici août de cette année. Fedor (4) dans l'Union sans pilote. Pas comme une charge, mais. Comme dans le film RoboCop, Fedor brandit une arme et fait preuve d'une adresse au tir mortelle lors d'exercices de tir.

La question est, pourquoi un robot dans l'espace serait-il armé ? Il y a des soupçons que la question n'est pas seulement dans les applications au sol. Pendant ce temps, sur Terre, le fabricant d'armes russe Kalachnikov a montré une visualisation robot Igorekqui, bien qu'il ait fait beaucoup rire, signale que l'entreprise travaille sérieusement sur des véhicules de combat autonomes. En juillet 2018, Kalachnikov a annoncé qu'il construisait une arme qu'il utilise pour prendre des décisions "tirer ou ne pas tirer".

À ces informations, il convient d'ajouter des informations selon lesquelles l'armurier russe Digtyarev a développé un petit réservoir autonome Nerekht qui peut se déplacer silencieusement vers sa cible par lui-même, puis exploser avec une force puissante pour détruire d'autres bâtiments ou des bâtiments entiers. Ainsi que Char T14 Armée , la fierté des forces armées russes, a été conçu pour une éventuelle télécommande et une conduite sans pilote. Spoutnik affirme que les ingénieurs militaires russes travaillent à faire du T-14 un véhicule blindé entièrement autonome.

Directive d'opposition

L'armée américaine elle-même a imposé une limite assez claire au niveau d'autonomie de ses armes. En 2012, le département américain de la Défense a publié la directive 3000.09, qui stipule que les humains devraient avoir le droit de s'opposer aux actions de robots armés. (bien qu'il puisse y avoir quelques exceptions). Cette directive reste en vigueur. La politique actuelle du Pentagone est que le facteur décisif dans l'utilisation des armes devrait toujours être une personne, et qu'un tel jugement devrait l'être. est conforme aux lois de la guerre.

Bien que les Américains utilisent le vol, Predator, Reaper et bien d'autres supermachines depuis des décennies, ils n'étaient pas et ne sont pas des modèles autonomes. Ils sont contrôlés par des opérateurs à distance, parfois à plusieurs milliers de kilomètres. Une discussion animée sur l'autonomie des machines de ce type a commencé avec la première du prototype. drone X-47B (5), qui non seulement volait de manière autonome, mais pouvait également décoller d'un porte-avions, y atterrir et faire le plein dans les airs. Le sens est aussi de tirer ou de bombarder sans intervention humaine. Cependant, le projet est toujours en cours de test et d'examen.

5. Essais du X-47B sans pilote sur un porte-avions américain

En 2003, le ministère de la Défense a commencé à expérimenter un petit robot ressemblant à un char. SPOES équipé d'une mitrailleuse. En 2007, il a été envoyé en Irak. cependant, le programme s'est terminé après que le robot a commencé à se comporter de manière erratique, déplaçant son fusil de manière erratique. En conséquence, l'armée américaine a abandonné la recherche sur les robots terrestres armés pendant de nombreuses années.

Dans le même temps, l'armée américaine a augmenté ses dépenses d'opérations de 20 millions de dollars en 2014 à 156 millions de dollars en 2018. Ce budget a déjà bondi à 2019 millions de dollars en 327. Il s'agit d'une augmentation cumulée de 1823% en quelques années seulement. Les experts disent que dès 2025, l'armée américaine pourrait avoir un champ de bataille plus de robots soldats que d'humains.

Récemment, beaucoup de polémiques ont été provoquées et annoncées par l'armée américaine Projet ATLAS () - automatique. Dans les médias, cela a été considéré comme une violation de la directive 3000.09 susmentionnée. Cependant, l'armée américaine nie et assure que l'exclusion d'une personne du cycle décisionnel est hors de question.

L'IA reconnaît les requins et les civils

Cependant, les défenseurs des armes autonomes ont de nouveaux arguments. prof. Ronald Arkin, roboticien au Georgia Institute of Technology, déclare dans ses publications que Dans la guerre moderne, les armes intelligentes sont essentielles pour éviter les pertes civiles, car les techniques d'apprentissage automatique peuvent aider efficacement à faire la distinction entre les combattants et les civils, et les cibles importantes et sans importance.

Un exemple de ces compétences en IA est la patrouille sur les plages australiennes. drones Little Ripperéquipé du système SharkSpotter développé par l'Université de Technologie de Sydney. Ce système analyse automatiquement l'eau à la recherche de requins et alerte l'opérateur lorsqu'il détecte quelque chose de dangereux. (6) Il peut identifier les personnes, les dauphins, les bateaux, les planches de surf et les objets dans l'eau pour les distinguer des requins. Il peut détecter et identifier environ seize espèces différentes avec une grande précision.

6. Requins reconnus dans le système SharkSpotter

Ces méthodes avancées d'apprentissage automatique augmentent la précision de la reconnaissance aérienne de plus de 90 %. À titre de comparaison, un opérateur humain dans une situation similaire reconnaît avec précision 20 à 30 % des objets sur les photographies aériennes. De plus, l'identification est toujours vérifiée par un humain avant une alarme.

Sur le champ de bataille, l'opérateur, voyant l'image à l'écran, peut difficilement déterminer si les personnes au sol sont des combattants avec des AK-47 à la main ou, par exemple, des agriculteurs avec des piques. Arkin note que les gens ont tendance à "voir ce qu'ils veulent voir", en particulier dans les situations stressantes. Cet effet a contribué à l'abattage accidentel d'un avion iranien par l'USS Vincennes en 1987. Bien sûr, à son avis, les armes contrôlées par l'IA seraient meilleures que les "bombes intelligentes" actuelles, qui ne sont pas vraiment sensibles. En août dernier, un missile à guidage laser saoudien a touché un bus plein d'écoliers au Yémen, tuant quarante enfants.

"Si un autobus scolaire est correctement étiqueté, l'identifier dans un système autonome peut être relativement facile", explique Arkin dans Popular Mechanics.

Cependant, ces arguments ne semblent pas convaincre les militants contre les tueurs automatiques. Outre la menace des robots tueurs, une autre circonstance importante doit être prise en compte. Même un système « bon » et « attentif » peut être piraté et repris par de très mauvaises personnes. Alors tous les arguments en faveur de l'équipement militaire perdent leur force.

Ajouter un commentaire