Guerre : la marche du Terminatrix
Le déploiement massif de soldats-robots sur les champs de bataille soulèvera certainement de multiples questions techniques, tactiques, philosophiques et éthiques.
La relève de la garde
D’ici à 2015, le Pentagone prévoit qu’un tiers des forces américaines seront composées de robots grâce au Future Combat Systems, projet doté d’une colossale enveloppe de 127 milliards de dollars. Avec des ambitions et des moyens de loin plus modestes, 32 autres nations dont la Chine, le Japon, l’Inde, Israël, l’Afrique du Sud, la Grande-Bretagne et la France ne sont pas en reste. Ces soldats-robots seront d’abord radiocommandés, puis deviendront complètement autonomes et intelligents à l’horizon 2035 conformément aux desseins du DARPA (l’agence de recherche du Pentagone) ; le recours aux opérateurs diminuant considérablement les performances globales des warbots et les économies budgétaires consécutives à leur utilisation.
Cette évolution robotique s’inscrit dans la quête perpétuelle de l’homo faber à améliorer concomitamment son outillage et son armement depuis la pierre taillée, la roue, la poudre, le moteur à explosion, l’électricité, l’atome et aujourd’hui l’ordinateur. Dans le cas particulier de l’Oncle Sam, Joseph Henrotin mentionne « un hyper-technologisme stratégiquement omnipotent, politiquement fascinant et qui serait directement enraciné dans les cultures technologique, politique et stratégique américaines » (1).
L’armée états-unienne jouit toujours d’un immense prestige sur ses propres terres, d’une capacité de projection et d’une puissance stratégique encore inégalées, mais elle a perdu beaucoup de sa superbe depuis les déboires vietnamien, somalien, afghan et irakien. Face à une insurrection dotée de kalachnikov, de lance-roquettes et de kamikazes, sa faiblesse tactique est devenue patente. Des rives du Mékong aux abords de l’Euphrate, elle a toujours tenté de compenser cette énorme vulnérabilité par la froideur et l’efficacité de la technologie.
D’où la préférence grandissante pour des soldats qui « n’ont pas peur, n’oublient pas leurs ordres, s’en foutent si leur voisin s’est fait descendre et ne sont pleurés par personne une fois abattus », selon les termes de Gordon Johnson du Pentagone. En outre, le warbot n’a point besoin d’alimentation, de sommeil, de soins médicaux, de congés, de plan-retraite et d’assurance-décès. Au final, il coûte 10 à 20 fois moins cher qu’un GI râleur, biologique et impropre à la production en série. Donald Rumsfeld aurait certainement apprécié ces futures unités plug-and-shoot...
Des mamas noires et latinos seront peut-être soulagées de savoir leurs fistons mobilisés derrière des consoles léthales plutôt que positivement discriminés sur un front éloigné ou dans une prison du comté. Devra-t-on décorer ces boys pour des actions décisives qu’ils n’ont pas physiquement menées ? Le rêve américain d’une guerre « zéro mort » prendra-t-il enfin forme ?
Aujourd’hui, des centaines de SWORDS opèrent en Irak et en Afghanistan comme unités de reconnaissance. Radiocommandé à partir d’une mallette techno, ce micro-blindé à chenilles de 45 kg est équipé de caméras, d’un microphone ultra-sensible, de deux mitrailleuses de calibre 50, d’un fusil M-16, d’un lance-fusées de 6 mm et de 300 chargeurs. Son utilisation vise non pas à inverser le cours désastreux des deux guerres, mais à tester la validité de son concept dans ces contextes de guérilla urbaine qu’abhorre précisément l’US Army. Le joujou de 230 000 dollars comporte un fusible d’autodestruction en cas de perte de contrôle. Aussi perfectionné soit-il, le robot-guerrier n’est point exempt de plantages.
Bogues en stock
Le 12 octobre 2007 dans son centre d’entraînement de Lolhata, la South African National Defence Force fit usage de batteries GDF-MK5, canon-robot anti-aérien à guidade radar et à désignation laser, interagissant avec une unité de contrôle de tir et rechargeant automatiquement son magasin de 250 obus de 35 mm. Lors d’une session de tirs réels en full automatic mode, une batterie récemment révisée ouvrit spontanément le feu sur celle voisine, puis rechercha et mitrailla autant de cibles que possible. Le déluge mortel ne cessa qu’une fois son premier magasin vidé. Neuf soldats furent tués et quatorze grièvement blessés. Police et armée sud-africaines mènent des enquêtes séparées - attentivement suivies par les milieux de la robotique militaire - afin de déterminer si cet incident fatal a eu une origine électromécanique ou logicielle.
Le fabricant suisse Oerlikon-Contraves privilégie la piste logicielle et signale que son GDF-MK5 n’est guère adapté à ce mode super-automatique ajouté par la SANDF. Maints experts estiment qu’il faut aussi décortiquer les cumuls d’options et de réactualisations effectués par les ingénieurs sud-africains, ceux-ci tripatouillèrent souvent matériels et roboticiels militaires du fait de l’embargo anti-apartheid des années 80-90. L’imbrication de facteurs techniques et non-techniques liée à cet accident turlupine Prétoria et Oerlikon, plusieurs enquêteurs doutant déjà d’une quelconque conclusion ferme à ces investigations.
L’accident de Lolhata suscite plusieurs interrogations pour l’avenir proche. Faut-il considérer les bogues dans les systèmes d’armes robotiques comme des défaillances techniques supplémentaires ? Des robots d’appui-feu ou de DCA causeront-ils morts et dégâts dans leur propre camp suite à des vices de mises à jour/add-ons évoquant ceux de nos PC ? Leur inéluctable interconnexion produira-t-elle des failles critiques similaires à celles d’internet : cyberpiratage, interférences, incidences topologiques, pannes, césures, etc. ? Les couches informatiques et réseautiques des warbots généreront-elles de nouveaux champs d’erreurs, de nuisances et de dommages collatéraux à la mesure de leur complexité et de leur efficacité ? Afin de parer à de telles éventualités, ne pourrait-on pas intégrer les trois lois d’Asimov (2) dans chaque soldat-robot ?
Directeur du département d’intelligence artificielle au MIT, Rodney A. Brooks rappelle à juste titre que « le monde réel n’est pas Hollywood ». Pour peu que cela soit réellement réalisable, un bogue sérieux dans un warbot affecterait toute ou partie de la couche roboticielle comportant ces fameuses lois, à l’image d’un gros bug affectant tout le fonctionnement normal d’un ordinateur. Par ailleurs, si elles semblent mieux adaptées au robot domestique, ces lois sont jugées trop restrictives, voire inadaptées, au robot-guerrier censé user librement de son armement contre un humain, un véhicule ou un warbot ouvertement hostile. Même transposée entre humains, la réglementation asimovienne relève d’une véritable gageure, notamment en zone de conflit.
Lors des deux guerres du Golfe, croyant intercepter des troupes de l’armée régulière irakienne, des chasseurs-bombardiers alliés pilonnèrent des unités terrestres alliées trop avancées dans le désert mésopotamien. En 1988, dans un Golfe persique sous haute tension, craignant l’approche d’un éventuel chasseur F-14 Tomcat de l’aviation perse, l’USS Vincennes pulvérisa un Airbus iranien transportant 300 passagers ; les opérateurs radars de la frégate ne parvenaient pas à identifier un avion naviguant avec un transpondeur probablement défectueux, de surcroît sourd ou indifférent aux avertissements radio...
Dans des situations typiques de conflit où très souvent « incertitude + spéculation + paranoïa = feu ! », quelles initiatives prendront les warbots intelligents de demain ?
Le difficile dressage du mécanimal sauvage
Malgré son énorme cerveau, l’homme à mains nues est vite défait par le léopard dans un corps-à-corps ou dans la traque du gibier. Dans une quinzaine d’années, les technologies robotiques et computationnelles (calcul et intelligence distribués, microélectronique, servo-mécanique, biomimétique, reconnaissance audiovisuelle et morphobiométrique, systèmes de visée, roboticiels, etc.) auront accompli des progrès spectaculaires. Peu à peu, nous verrons d’excellents mammifères à chenilles ou à réaction compléter et surpasser fantassins et pilotes dans des missions de reconnaissance, de déminage, d’appui-feu, d’interception, d’interdiction, de soutien logistique et consorts.
L’intelligence en meute ou en équipe de ces warbots émergera d’une sédimentation d’interactions simples via des intranets militaires à haut débit [reliant en temps réel soldats-robots, centres de communication/commandement, pilotes et fantassins bioniques] ou via des dust networks à bas débit. Flexibles, légers, quasi-indétectables et très éphémères, interconnectant les machines d’une seule et même section, ces réseaux-poussières sont la hantise des états-majors : les interactions entre soldats-robots et leurs évolutions sur le terrain risquent fort de leur échapper...
Et voilà une brigade isolée de Terminatrix poursuivant froidement son opération de « nettoyage » alors qu’un cessez-le-feu a été conclu depuis une demi-heure...Comment la contacter ou déclencher ses fusibles d’autodestruction quand celle-ci modifie constamment ses très basses fréquences et désactivent ses puces GPS par mesure de cybersécurité et de furtivité radio ? Invoquera-t-on « un bogue de guerre » en cas de bavure ?
On comprend que les états-majors soient très réservés sur un autre point capital : la décision de faire feu. Si la violence inter-machines ne leur posent aucun problème, ils souhaitent vivement que les warbots requièrent impérativement une autorisation avant de tirer sur des ennemis de chair et de sang. Les officiers sur le terrain préféraient superviser leurs sections robotiques à partir de postes mobiles de radiocommandement (Hummer, blindés, hélicoptères) orbitant à quelques kilomètres du théâtre d’opérations, et a fortiori disposer de garde-fous électroniques et hiérarchiques très fiables. Ainsi, ils conserveraient une capacité de contrôle rapproché au cas où les choses tourneraient mal et sauvegarderaient plus ou moins leurs emplois.
Quel traitement les médias et les propagandes des deux camps accorderont aux bavures robotiques ? Les armées diffuseront-elles aisément les vidéos et les données issues des mémoires des robots afin d’infirmer ou de confirmer un événement ? Quel rôle joueront les reporters dans une future guerre sans humains ? Comment réagiront les opinions et les sociétés civiles lors de conflits par robots interposés ?
Ingénieur au US Naval Surface Warfare Center, John S. Canning suggère d’équiper les soldats-robots d’armes non léthales et d’armes à feu : les premières incapaciteraient le personnel ennemi, le forceraient à fuir ou à abandonner ses véhicules, les secondes détruiraient les warbots, les armes lourdes et les véhicules.
« Laissons
les humains cibler d’autres humains », affirme
Canning, « et les machines cibler d’autres
machines »... Pour peu qu’elles parviennent à
distinguer nettement alliés, ennemis et neutres dans
l’incertitude de la menace et dans le chaos du combat, sans le
moindre bogue. L’attaque d’un warbot par un autre en temps de paix ou
de guerre froide sera-t-elle considérée comme un acte
de guerre ouverte ?
Le Dr Ronald Arkin du Georgia Institute of Technology développe un ensemble de règles d’engagement pour warbots afin que leurs initiatives léthales demeurent conformes à des principes éthiques. N’étant sujets ni au stress, ni à la peur, ni à la colère, les soldats-robots agiraient plus éthiquement que leurs compagnons biologiques. La démarche d’Arkin consiste donc à créer « un espace mathématique multidimensionnel des décisions éthiques possibles » pour le robot-guerrier. Vulgarisons les concepts dissimulés derrière une terminologie aussi barbare.
Des données issues de sa panoplie high-tech, de l’intranet militaire, des réseaux-poussières, des analyses télévisuelles et instructions des officiers superviseurs et de divers éléments, le warbot trierait et séparerait toutes les décisions éthiques de celles non-éthiques avant de décider ou non de faire feu. Si un chef de guerre activement recherché arrête son véhicule près d’une ambulance dans le voisinage immédiat d’une école, le soldat-robot mettra ses armes sur la sûreté. Si les lois d’Asimov obligent le robot à protéger l’homme en toutes circonstances, les règles d’Arkin garantissent simplement qu’un ennemi sera tué par un warbot selon des principes éthiques avec le minimum possible de dégats collatéraux. En plus clair, quand l’ambulance s’éloignera, quand la bagnole visée redémarrera et s’engagera sur une route dégagée, ça va vraiment chauffer !
Toutefois, un warbot pourra-t-il refuser un ordre éthique ou obéir à un ordre non-éthique ? Saura-t-il réagir avec justesse face à un ennemi blessé, incapable de parler ou de bouger, mais souhaitant néanmoins se rendre ? Que fera-t-il face à un enfant-guerrier pointant un AK-47 dans sa direction ?
Enfin, Arkin recommande fortement de surveiller étroitement les décideurs politiques, les stratèges, les think thanks, les intellectuels, l’opinion, les chercheurs et les états-majors dans toute nation disposant d’une puissance robotique significative : celle-ci constituerait un formidable dopant pour les intentions guerrières ou pour des opérations (trop) spéciales.
Le Maréchal Delattre disait que « l’outil ne vaut que par la main qui l’anime ». Faudra-t-il inverser cette maxime dans les prochaines décennies ?
(1)
Joseph Henrotin est un politologue belge spécialisé
dans les questions de défense, co-fondateur du Réseau
multidisciplinaire d’études stratégiques (RMES) et
auteur du Retour au chevalier ? Une vision
critique de l’évolution bionique du combattant.
(2) Les trois lois de Isaac Asimov :
* Première loi : un robot ne doit pas causer de tort à
un humain ou, restant passif, laisser
un humain subir un dommage ;
*
Deuxième loi : un robot doit obéir aux ordres d’un
humain, sauf si l’ordre donné peut conduire
à enfreindre la première loi ;
*
Troisième loi : un robot doit protéger sa propre
existence aussi longtemps qu’une telle
protection n’est pas en contradiction avec la première loi
et/ou la deuxième loi.