Guerre des algorithmes
de la technologie

Guerre des algorithmes

En ce qui concerne l'utilisation de l'intelligence artificielle dans l'armée, le cauchemar de la science-fiction se réveille immédiatement, une IA rebelle et meurtrière qui se dresse contre l'humanité pour la détruire. Malheureusement, les craintes des militaires et des dirigeants que "l'ennemi nous rattrape" sont tout aussi fortes dans le développement des algorithmes de guerre.

Guerre algorithmiquece qui, selon beaucoup, pourrait fondamentalement changer la face du champ de bataille tel que nous le connaissons, principalement parce que la guerre serait plus rapide, loin devant la capacité des gens à prendre des décisions. général américain Jack Shanahan (1), responsable du Joint Center for Artificial Intelligence des États-Unis, souligne toutefois qu'avant d'introduire l'intelligence artificielle dans les arsenaux, il faut s'assurer que ces systèmes sont toujours sous contrôle humain et ne déclenchent pas des guerres à eux seuls.

"Si l'ennemi a des machines et des algorithmes, nous perdrons ce conflit"

Capacité de conduite guerre algorithmique repose sur l'utilisation des progrès de la technologie informatique dans trois domaines principaux. Première des décennies de croissance exponentielle de la puissance de calculcela a grandement amélioré les performances de l'apprentissage automatique. Seconde croissance rapide des ressources « Big data », c'est-à-dire des ensembles de données énormes, généralement automatisés, gérés et créés en continu, adaptés à l'apprentissage automatique. La troisième concerne développement rapide des technologies de cloud computing, grâce auquel les ordinateurs peuvent facilement accéder aux ressources de données et les traiter pour résoudre des problèmes.

Algorithme de guerretel que défini par les experts, il doit d'abord être exprimé avec code informatique. Deuxièmement, il doit être le résultat d'une plate-forme capable à la fois de collecter des informations et de faire des choix, de prendre des décisions qui, du moins en théorie, ne nécessitent pas intervention humaine. Troisièmement, ce qui semble évident, mais pas nécessairement, car ce n'est que dans l'action que l'on se rend compte si une technique destinée à autre chose peut être utile à la guerre et inversement, elle doit pouvoir fonctionner dans des conditions. un conflit armé.

Une analyse des directions ci-dessus et de leur interaction montre que guerre algorithmique ce n'est pas une technologie distincte comme, par exemple. armes à énergie ou missiles hypersoniques. Ses effets sont étendus et deviennent progressivement omniprésents dans les hostilités. Pour la première fois véhicules militaires ils deviennent intelligents, rendant potentiellement les forces de défense qui les mettent en œuvre plus efficientes et efficaces. Ces machines intelligentes ont des limites claires qui doivent être bien comprises.

"" Shanahan a déclaré l'automne dernier dans une interview avec l'ancien PDG de Google, Eric Schmidt, et le vice-président des affaires internationales de Google, Kent Walker. "".

Le projet de rapport du Conseil de sécurité nationale des États-Unis sur l'IA fait référence à la Chine plus de 50 fois, soulignant l'objectif officiel de la Chine de devenir le leader mondial de l'IA d'ici 2030 (voir également: ).

Ces mots ont été prononcés à Washington lors d'une conférence spéciale qui a eu lieu après que le Shanakhan Center susmentionné a présenté son rapport préliminaire au Congrès, préparé en collaboration avec des experts renommés dans le domaine de l'intelligence artificielle, dont le directeur de recherche de Microsoft Eric Horwitz, le PDG d'AWS Andy Jassa et Andrew Moore, chercheur principal de Google Cloud. Le rapport final sera publié en octobre 2020.

Les employés de Google manifestent

Il y a quelques années, le Pentagone s'en est mêlé. guerre algorithmique et un certain nombre de projets liés à l'IA dans le cadre du projet Maven, basés sur la collaboration avec des entreprises technologiques, dont Google et des startups telles que Clarifai. Il s'agissait principalement de travailler sur intelligence artificiellepour faciliter l'identification des objets sur.

Lorsqu'on a appris la participation de Google au projet au printemps 2018, des milliers d'employés du géant de Mountain View ont signé une lettre ouverte protestant contre l'implication de l'entreprise dans les hostilités. Après des mois de troubles sociaux Google a adopté son propre ensemble de règles pour l'IAqui comprend une interdiction de participation à des événements.

Google s'est également engagé à terminer le contrat Project Maven d'ici la fin de 2019. La sortie de Google n'a pas mis fin au projet Maven. Il a été acheté par Palantir de Peter Thiel. L'Air Force et le US Marine Corps prévoient d'utiliser des véhicules aériens sans pilote spéciaux, tels que le Global Hawk, dans le cadre du projet Maven, chacun étant censé surveiller visuellement jusqu'à 100 kilomètres carrés.

À l'occasion de ce qui se passe autour du projet Maven, il est devenu évident que l'armée américaine avait un besoin urgent de son propre cloud. C'est ce que Shanahan a dit lors de la conférence. Cela était évident lorsque les séquences vidéo et les mises à jour du système devaient être acheminées par camion vers des installations militaires dispersées sur le terrain. Dans le bâtiment cloud computing unifié, qui permettra de résoudre des problèmes de ce type, dans le cadre d'un projet d'infrastructure informatique unifiée pour l'armée Jedi, Microsoft, Amazon, Oracle et IBM. Google n'est pas à cause de leurs codes éthiques.

Il ressort clairement de la déclaration de Shanahan que la grande révolution de l'IA dans l'armée ne fait que commencer. Et le rôle de son centre dans les forces armées américaines ne cesse de croître. Cela se voit clairement dans le budget estimé de la JAIC. En 2019, il totalisait un peu moins de 90 millions de dollars. En 2020, il devrait déjà être de 414 millions de dollars, soit environ 10% du budget de 4 milliards de dollars du Pentagone pour l'IA.

La machine reconnaît un soldat rendu

Les troupes américaines sont déjà équipées de systèmes tels que le Phalanx (2), qui est un type d'arme autonome utilisé sur les navires de la marine américaine pour attaquer les missiles entrants. Lorsqu'un missile est détecté, il s'allume automatiquement et détruit tout sur son passage. Selon Ford, il peut attaquer avec quatre ou cinq missiles en une demi-seconde sans avoir à traverser et à regarder chaque cible.

Un autre exemple est la Harpy semi-autonome (3), un système sans pilote commercial. La harpie est utilisée pour détruire les radars ennemis. Par exemple, en 2003, lorsque les États-Unis ont lancé une frappe sur l'Irak qui disposait de systèmes d'interception radar aéroportés, des drones de fabrication israélienne ont aidé à les trouver et à les détruire afin que les Américains puissent voler en toute sécurité dans l'espace aérien irakien.

3. Lancement du drone du système IAI Harpy

Un autre exemple bien connu d'armes autonomes est Système coréen Samsung SGR-1, situé dans la zone démilitarisée entre la Corée du Nord et la Corée du Sud, conçu pour identifier et tirer les intrus à une distance allant jusqu'à quatre kilomètres. Selon la description, le système "peut faire la distinction entre une personne qui se rend et une personne qui ne se rend pas" en fonction de la position de ses mains ou de la reconnaissance de la position de l'arme dans ses mains.

4. Démonstration de la détection d'un soldat qui se rend par le système Samsung SGR-1

Les Américains ont peur d'être laissés pour compte

Actuellement, au moins 30 pays dans le monde utilisent des armes automatiques avec différents niveaux de développement et d'utilisation de l'IA. La Chine, la Russie et les États-Unis considèrent l'intelligence artificielle comme un élément indispensable pour construire leur future position dans le monde. "Celui qui remportera la course à l'IA dominera le monde", a déclaré le président russe Vladimir Poutine aux étudiants en août 2017. Le président de la République populaire de Chine, Xi Jinping, n'a pas fait de déclarations aussi médiatisées, mais il est le principal moteur de la directive appelant la Chine à devenir la force dominante dans le domaine de l'IA d'ici 2030.

On s'inquiète de plus en plus aux États-Unis de « l'effet satellite », qui a montré que les États-Unis sont extrêmement mal équipés pour relever les nouveaux défis posés par l'intelligence artificielle. Et cela peut être dangereux pour la paix, ne serait-ce que parce que le pays menacé de domination peut vouloir éliminer l'avantage stratégique de l'ennemi d'une autre manière, c'est-à-dire par la guerre.

Bien que l'objectif initial du projet Maven était d'aider à trouver des combattants islamiques de l'EI, son importance pour le développement ultérieur des systèmes d'intelligence artificielle militaire est énorme. La guerre électronique basée sur des enregistreurs, des moniteurs et des capteurs (y compris mobiles, volants) est associée à un grand nombre de flux de données hétérogènes, qui ne peuvent être utilisés efficacement qu'à l'aide d'algorithmes d'IA.

Le champ de bataille hybride est devenu version militaire de l'IoT, riche en informations importantes pour évaluer les menaces et les opportunités tactiques et stratégiques. Être capable de gérer ces données en temps réel présente de grands avantages, mais ne pas apprendre de ces informations peut être désastreux. La capacité à traiter rapidement les flux d'informations provenant de diverses plates-formes opérant dans plusieurs domaines offre deux principaux avantages militaires : accélérer i atteindre. L'intelligence artificielle vous permet d'analyser les conditions dynamiques du champ de bataille en temps réel et de frapper rapidement et de manière optimale, tout en minimisant les risques pour vos propres forces.

Ce nouveau champ de bataille est également omniprésent et. L'IA est au cœur des soi-disant essaims de drones, qui ont fait l'objet de beaucoup d'attention ces dernières années. Avec l'aide de capteurs omniprésents, non seulement permet aux drones de naviguer sur un terrain hostile, mais peut éventuellement permettre la formation de formations complexes de divers types de véhicules aériens sans pilote opérant dans de nombreux domaines, avec des armes supplémentaires qui permettent des tactiques de combat sophistiquées, s'adaptant immédiatement à la ennemi. manœuvres pour profiter du champ de bataille et signaler les conditions changeantes.

Les progrès de la désignation et de la navigation des cibles assistées par l'IA améliorent également les perspectives d'efficacité d'un large éventail de systèmes de défense tactiques et stratégiques, en particulier la défense antimissile, en améliorant les méthodes de détection, de suivi et d'identification des cibles.

augmente constamment la puissance des simulations et des outils de jeu utilisés pour la recherche sur les armes nucléaires et conventionnelles. La modélisation et la simulation de masse seront essentielles pour développer un système multi-domaine complet de systèmes cibles pour le contrôle de combat et les missions complexes. L'IA enrichit également les interactions multipartites (5). L'IA permet aux joueurs d'ajouter et de modifier des variables de jeu pour explorer comment les conditions dynamiques (armement, implication alliée, troupes supplémentaires, etc.) peuvent affecter les performances et la prise de décision.

Pour les militaires, l'identification d'objets est un point de départ naturel pour l'IA. Premièrement, une analyse complète et rapide du nombre croissant d'images et d'informations collectées à partir de satellites et de drones est nécessaire afin de trouver des objets d'importance militaire, tels que des missiles, des mouvements de troupes et d'autres données liées au renseignement. Aujourd'hui, le champ de bataille couvre tous les paysages (mer, terre, air, espace et cyberespace) à l'échelle mondiale.

Cyberespaceen tant que domaine intrinsèquement numérique, il est naturellement adapté aux applications d'IA. Du côté offensif, l'IA peut aider à trouver et à cibler des nœuds de réseau individuels ou des comptes individuels pour collecter, perturber ou désinformer. Les cyberattaques sur les infrastructures internes et les réseaux de commande peuvent être désastreuses. En ce qui concerne la défense, l'IA peut aider à détecter de telles intrusions et à trouver des anomalies destructrices dans les systèmes d'exploitation civils et militaires.

Vitesse attendue et dangereuse

Cependant, une prise de décision rapide et une exécution rapide peuvent ne pas vous être utiles. pour une gestion de crise efficace. Les avantages de l'intelligence artificielle et des systèmes autonomes sur le champ de bataille ne laissent peut-être pas le temps à la diplomatie qui, comme nous le savons par l'histoire, a souvent réussi à prévenir ou à gérer une crise. En pratique, le ralentissement, la pause et le temps pour négocier peuvent être la clé de la victoire, ou du moins éviter un désastre, surtout lorsque des armes nucléaires sont en jeu.

Les décisions concernant la guerre et la paix ne peuvent être laissées à l'analyse prédictive. Il existe des différences fondamentales dans la manière dont les données sont utilisées à des fins scientifiques, économiques, logistiques et prédictives. comportement humain.

Certains peuvent percevoir l'IA comme une force qui affaiblit la sensibilité stratégique mutuelle et augmente ainsi le risque de guerre. Des données corrompues accidentellement ou intentionnellement peuvent amener les systèmes d'IA à effectuer des actions involontaires, telles que la mauvaise identification et le ciblage des mauvaises cibles. La rapidité d'action postulée dans le cas du développement des algorithmes de guerre peut signifier une escalade prématurée, voire inutile, qui entrave la gestion rationnelle de la crise. D'un autre côté, les algorithmes n'attendront pas non plus et n'expliqueront pas, car ils sont également censés être rapides.

Aspect dérangeant fonctionnement des algorithmes d'intelligence artificielle également présenté par nous récemment dans MT. Même les experts ne savent pas exactement comment l'IA conduit aux résultats que nous voyons dans la sortie.

Dans le cas des algorithmes de guerre, nous ne pouvons pas nous permettre une telle ignorance de la nature et de la façon dont ils les "pensent". Nous ne voulons pas nous réveiller au milieu de la nuit avec des éruptions nucléaires parce que "notre" ou "leur" intelligence artificielle a décidé qu'il était temps de régler définitivement la partie.

Ajouter un commentaire