jeudi 13 décembre 2007 - par Charles Bwele

Guerre : la marche du Terminatrix

Le déploiement massif de soldats-robots sur les champs de bataille soulèvera certainement de multiples questions techniques, tactiques, philosophiques et éthiques.

La relève de la garde

D’ici à 2015, le Pentagone prévoit qu’un tiers des forces américaines seront composées de robots grâce au Future Combat Systems, projet doté d’une colossale enveloppe de 127 milliards de dollars. Avec des ambitions et des moyens de loin plus modestes, 32 autres nations dont la Chine, le Japon, l’Inde, Israël, l’Afrique du Sud, la Grande-Bretagne et la France ne sont pas en reste. Ces soldats-robots seront d’abord radiocommandés, puis deviendront complètement autonomes et intelligents à l’horizon 2035 conformément aux desseins du DARPA (l’agence de recherche du Pentagone) ; le recours aux opérateurs diminuant considérablement les performances globales des warbots et les économies budgétaires consécutives à leur utilisation.

Cette évolution robotique s’inscrit dans la quête perpétuelle de l’homo faber à améliorer concomitamment son outillage et son armement depuis la pierre taillée, la roue, la poudre, le moteur à explosion, l’électricité, l’atome et aujourd’hui l’ordinateur. Dans le cas particulier de l’Oncle Sam, Joseph Henrotin mentionne «  un hyper-technologisme stratégiquement omnipotent, politiquement fascinant et qui serait directement enraciné dans les cultures technologique, politique et stratégique américaines  » (1).

L’armée états-unienne jouit toujours d’un immense prestige sur ses propres terres, d’une capacité de projection et d’une puissance stratégique encore inégalées, mais elle a perdu beaucoup de sa superbe depuis les déboires vietnamien, somalien, afghan et irakien. Face à une insurrection dotée de kalachnikov, de lance-roquettes et de kamikazes, sa faiblesse tactique est devenue patente. Des rives du Mékong aux abords de l’Euphrate, elle a toujours tenté de compenser cette énorme vulnérabilité par la froideur et l’efficacité de la technologie.

D’où la préférence grandissante pour des soldats qui « n’ont pas peur, n’oublient pas leurs ordres, s’en foutent si leur voisin s’est fait descendre et ne sont pleurés par personne une fois abattus », selon les termes de Gordon Johnson du Pentagone. En outre, le warbot n’a point besoin d’alimentation, de sommeil, de soins médicaux, de congés, de plan-retraite et d’assurance-décès. Au final, il coûte 10 à 20 fois moins cher qu’un GI râleur, biologique et impropre à la production en série. Donald Rumsfeld aurait certainement apprécié ces futures unités plug-and-shoot...

Des mamas noires et latinos seront peut-être soulagées de savoir leurs fistons mobilisés derrière des consoles léthales plutôt que positivement discriminés sur un front éloigné ou dans une prison du comté. Devra-t-on décorer ces boys pour des actions décisives qu’ils n’ont pas physiquement menées ? Le rêve américain d’une guerre « zéro mort » prendra-t-il enfin forme ?

Aujourd’hui, des centaines de SWORDS opèrent en Irak et en Afghanistan comme unités de reconnaissance. Radiocommandé à partir d’une mallette techno, ce micro-blindé à chenilles de 45 kg est équipé de caméras, d’un microphone ultra-sensible, de deux mitrailleuses de calibre 50, d’un fusil M-16, d’un lance-fusées de 6 mm et de 300 chargeurs. Son utilisation vise non pas à inverser le cours désastreux des deux guerres, mais à tester la validité de son concept dans ces contextes de guérilla urbaine qu’abhorre précisément l’US Army. Le joujou de 230 000 dollars comporte un fusible d’autodestruction en cas de perte de contrôle. Aussi perfectionné soit-il, le robot-guerrier n’est point exempt de plantages.

Bogues en stock

Le 12 octobre 2007 dans son centre d’entraînement de Lolhata, la South African National Defence Force fit usage de batteries GDF-MK5, canon-robot anti-aérien à guidade radar et à désignation laser, interagissant avec une unité de contrôle de tir et rechargeant automatiquement son magasin de 250 obus de 35 mm. Lors d’une session de tirs réels en full automatic mode, une batterie récemment révisée ouvrit spontanément le feu sur celle voisine, puis rechercha et mitrailla autant de cibles que possible. Le déluge mortel ne cessa qu’une fois son premier magasin vidé. Neuf soldats furent tués et quatorze grièvement blessés. Police et armée sud-africaines mènent des enquêtes séparées - attentivement suivies par les milieux de la robotique militaire - afin de déterminer si cet incident fatal a eu une origine électromécanique ou logicielle.

Le fabricant suisse Oerlikon-Contraves privilégie la piste logicielle et signale que son GDF-MK5 n’est guère adapté à ce mode super-automatique ajouté par la SANDF. Maints experts estiment qu’il faut aussi décortiquer les cumuls d’options et de réactualisations effectués par les ingénieurs sud-africains, ceux-ci tripatouillèrent souvent matériels et roboticiels militaires du fait de l’embargo anti-apartheid des années 80-90. L’imbrication de facteurs techniques et non-techniques liée à cet accident turlupine Prétoria et Oerlikon, plusieurs enquêteurs doutant déjà d’une quelconque conclusion ferme à ces investigations.

L’accident de Lolhata suscite plusieurs interrogations pour l’avenir proche. Faut-il considérer les bogues dans les systèmes d’armes robotiques comme des défaillances techniques supplémentaires  ? Des robots d’appui-feu ou de DCA causeront-ils morts et dégâts dans leur propre camp suite à des vices de mises à jour/add-ons évoquant ceux de nos PC ? Leur inéluctable interconnexion produira-t-elle des failles critiques similaires à celles d’internet : cyberpiratage, interférences, incidences topologiques, pannes, césures, etc. ? Les couches informatiques et réseautiques des warbots généreront-elles de nouveaux champs d’erreurs, de nuisances et de dommages collatéraux à la mesure de leur complexité et de leur efficacité  ? Afin de parer à de telles éventualités, ne pourrait-on pas intégrer les trois lois d’Asimov (2) dans chaque soldat-robot ?

Directeur du département d’intelligence artificielle au MIT, Rodney A. Brooks rappelle à juste titre que « le monde réel n’est pas Hollywood  ». Pour peu que cela soit réellement réalisable, un bogue sérieux dans un warbot affecterait toute ou partie de la couche roboticielle comportant ces fameuses lois, à l’image d’un gros bug affectant tout le fonctionnement normal d’un ordinateur. Par ailleurs, si elles semblent mieux adaptées au robot domestique, ces lois sont jugées trop restrictives, voire inadaptées, au robot-guerrier censé user librement de son armement contre un humain, un véhicule ou un warbot ouvertement hostile. Même transposée entre humains, la réglementation asimovienne relève d’une véritable gageure, notamment en zone de conflit.

Lors des deux guerres du Golfe, croyant intercepter des troupes de l’armée régulière irakienne, des chasseurs-bombardiers alliés pilonnèrent des unités terrestres alliées trop avancées dans le désert mésopotamien. En 1988, dans un Golfe persique sous haute tension, craignant l’approche d’un éventuel chasseur F-14 Tomcat de l’aviation perse, l’USS Vincennes pulvérisa un Airbus iranien transportant 300 passagers ; les opérateurs radars de la frégate ne parvenaient pas à identifier un avion naviguant avec un transpondeur probablement défectueux, de surcroît sourd ou indifférent aux avertissements radio...

Dans des situations typiques de conflit où très souvent « incertitude + spéculation + paranoïa = feu  ! », quelles initiatives prendront les warbots intelligents de demain ?

Le difficile dressage du mécanimal sauvage

Malgré son énorme cerveau, l’homme à mains nues est vite défait par le léopard dans un corps-à-corps ou dans la traque du gibier. Dans une quinzaine d’années, les technologies robotiques et computationnelles (calcul et intelligence distribués, microélectronique, servo-mécanique, biomimétique, reconnaissance audiovisuelle et morphobiométrique, systèmes de visée, roboticiels, etc.) auront accompli des progrès spectaculaires. Peu à peu, nous verrons d’excellents mammifères à chenilles ou à réaction compléter et surpasser fantassins et pilotes dans des missions de reconnaissance, de déminage, d’appui-feu, d’interception, d’interdiction, de soutien logistique et consorts.

L’intelligence en meute ou en équipe de ces warbots émergera d’une sédimentation d’interactions simples via des intranets militaires à haut débit [reliant en temps réel soldats-robots, centres de communication/commandement, pilotes et fantassins bioniques] ou via des dust networks à bas débit. Flexibles, légers, quasi-indétectables et très éphémères, interconnectant les machines d’une seule et même section, ces réseaux-poussières sont la hantise des états-majors : les interactions entre soldats-robots et leurs évolutions sur le terrain risquent fort de leur échapper...

Et voilà une brigade isolée de Terminatrix poursuivant froidement son opération de « nettoyage » alors qu’un cessez-le-feu a été conclu depuis une demi-heure...Comment la contacter ou déclencher ses fusibles d’autodestruction quand celle-ci modifie constamment ses très basses fréquences et désactivent ses puces GPS par mesure de cybersécurité et de furtivité radio ? Invoquera-t-on « un bogue de guerre » en cas de bavure ?

On comprend que les états-majors soient très réservés sur un autre point capital : la décision de faire feu. Si la violence inter-machines ne leur posent aucun problème, ils souhaitent vivement que les warbots requièrent impérativement une autorisation avant de tirer sur des ennemis de chair et de sang. Les officiers sur le terrain préféraient superviser leurs sections robotiques à partir de postes mobiles de radiocommandement (Hummer, blindés, hélicoptères) orbitant à quelques kilomètres du théâtre d’opérations, et a fortiori disposer de garde-fous électroniques et hiérarchiques très fiables. Ainsi, ils conserveraient une capacité de contrôle rapproché au cas où les choses tourneraient mal et sauvegarderaient plus ou moins leurs emplois.

Quel traitement les médias et les propagandes des deux camps accorderont aux bavures robotiques ? Les armées diffuseront-elles aisément les vidéos et les données issues des mémoires des robots afin d’infirmer ou de confirmer un événement ? Quel rôle joueront les reporters dans une future guerre sans humains ? Comment réagiront les opinions et les sociétés civiles lors de conflits par robots interposés ?

Ingénieur au US Naval Surface Warfare Center, John S. Canning suggère d’équiper les soldats-robots d’armes non léthales et d’armes à feu : les premières incapaciteraient le personnel ennemi, le forceraient à fuir ou à abandonner ses véhicules, les secondes détruiraient les warbots, les armes lourdes et les véhicules.

«  Laissons les humains cibler d’autres humains  », affirme Canning, «  et les machines cibler d’autres machines  »... Pour peu qu’elles parviennent à distinguer nettement alliés, ennemis et neutres dans l’incertitude de la menace et dans le chaos du combat, sans le moindre bogue. L’attaque d’un warbot par un autre en temps de paix ou de guerre froide sera-t-elle considérée comme un acte de guerre ouverte ?

Le Dr Ronald Arkin du Georgia Institute of Technology développe un ensemble de règles d’engagement pour warbots afin que leurs initiatives léthales demeurent conformes à des principes éthiques. N’étant sujets ni au stress, ni à la peur, ni à la colère, les soldats-robots agiraient plus éthiquement que leurs compagnons biologiques. La démarche d’Arkin consiste donc à créer «  un espace mathématique multidimensionnel des décisions éthiques possibles  » pour le robot-guerrier. Vulgarisons les concepts dissimulés derrière une terminologie aussi barbare.

Des données issues de sa panoplie high-tech, de l’intranet militaire, des réseaux-poussières, des analyses télévisuelles et instructions des officiers superviseurs et de divers éléments, le warbot trierait et séparerait toutes les décisions éthiques de celles non-éthiques avant de décider ou non de faire feu. Si un chef de guerre activement recherché arrête son véhicule près d’une ambulance dans le voisinage immédiat d’une école, le soldat-robot mettra ses armes sur la sûreté. Si les lois d’Asimov obligent le robot à protéger l’homme en toutes circonstances, les règles d’Arkin garantissent simplement qu’un ennemi sera tué par un warbot selon des principes éthiques avec le minimum possible de dégats collatéraux. En plus clair, quand l’ambulance s’éloignera, quand la bagnole visée redémarrera et s’engagera sur une route dégagée, ça va vraiment chauffer !

Toutefois, un warbot pourra-t-il refuser un ordre éthique ou obéir à un ordre non-éthique ? Saura-t-il réagir avec justesse face à un ennemi blessé, incapable de parler ou de bouger, mais souhaitant néanmoins se rendre ? Que fera-t-il face à un enfant-guerrier pointant un AK-47 dans sa direction ?

Enfin, Arkin recommande fortement de surveiller étroitement les décideurs politiques, les stratèges, les think thanks, les intellectuels, l’opinion, les chercheurs et les états-majors dans toute nation disposant d’une puissance robotique significative : celle-ci constituerait un formidable dopant pour les intentions guerrières ou pour des opérations (trop) spéciales.

Le Maréchal Delattre disait que «  l’outil ne vaut que par la main qui l’anime ». Faudra-t-il inverser cette maxime dans les prochaines décennies ?

(1) Joseph Henrotin est un politologue belge spécialisé dans les questions de défense, co-fondateur du Réseau multidisciplinaire d’études stratégiques (RMES) et auteur du Retour au chevalier ? Une vision critique de l’évolution bionique du combattant.

(2) Les trois lois de Isaac Asimov :
* Première loi : un robot ne doit pas causer de tort à un humain ou, restant passif, laisser un humain subir un dommage ;
* Deuxième loi : un robot doit obéir aux ordres d’un humain, sauf si l’ordre donné peut conduire à enfreindre la première loi ;
* Troisième loi : un robot doit protéger sa propre existence aussi longtemps qu’une telle protection n’est pas en contradiction avec la première loi et/ou la deuxième loi.



50 réactions


  • morice morice 13 décembre 2007 10:09

    Lors d’un essai récent du procédé Raytheon (voir dossier Blackwater), des soldats US ont êté brûlés. Comme quoi essayer sur ces propres troupes n’est peut être pas la bonne idée... l’engin intéresse déj à la police : http://www.azstarnet.com/business/215372 http://www.tradingmarkets.com/.site/news/Stock%20News/896170/ http://www.dailymail.co.uk/pages/live/articles/technology/technology.html?in_article_id=482560


  • Halman Halman 13 décembre 2007 10:32

    Le bog de Lolhata n’est pas exclusif aux robots.

    Il ne faut pas croire que nos soldats savent identifier corretement un ennemi.

    La plupart de nos soldats sont incapables de faire la différence entre un chasseur français ou américains quand ils en voient un sur le champs de bataille. Même ceux formés à tirer des missiles Milan ou à la batterie de canons DCA se plantent à chaque exercice international et envoient des Milan sur des Jaguar français, les prennant pour des Phantom américains.

    Aujourd’hui ils n’arrivent pas à faire la différence entre un Rafale et un Eurofighter, un Jaguar et un Tornado, quant au Harrier, ils ne connaissent son existence que grâce aux jeux vidéos et à des films de Schwartzeneger.

    Déjà pendant la guerre de 1940, les avions anglais Hawker Tempest devaient risquer leurs vies en passant tous feux allumés en battant des ailes au dessus des convois de navires alliers, leurs tireurs les confondant systématiquement avec des Focke Wulf 190 et leur tirant dessus.

    A priori les drones comme le Neuron de Dassault devraient éviter ce genre de problème.

    Mais en réalité, quand les gens voient un avion aux formes furtives, cela devient un scoop de l’année du genre à Trifouillis les Oies des habitants ont vu des ovnis.

    Sur les sites spécialisés ovnis, des photos d’avions furtifs sont diffusées, avec des témoignages de ploucs certifiant dur comme fer qu’il s’agit d’ovnis.

    Il suffit d’aller au salon du Bourget pour être édifié.

    Un F18 décolle pour sa démonstration et on entend des « oh un Rafale ! ».

    Devant le SR71 trisonnique de reconnaissance américain, j’ai entendu des « c’est quoi, un nouveau Concorde ? »

    Dans le musée j’ai vu des étudiants chercher perplexement l’hélice sur un RF84, avion de chasse de reconnaissance à réaction des années 1960.

    Devant un Jaguar français, j’ai vu un costard cravate expliquer à sa progéniture « tu vois, ça c’est un Harrier à décollage vertical ! »

    Ca n’arrete pas.

    Le problème de l’identification des cibles est complexe. Si même les humains ne savent pas faire la différence entre un avion français ou américain, un avion à réaction d’un avion à hélice, un furtif d’un ovni, que va faire le drône s’il se fait attaquer par des soldats et des civils de son camp ?

    Que va t’il faire si des gens qu’il est censé défendrent l’agressent ? Va t’il faire comme l’ordinateur Hal9000 de 2001 l’Odyssée de l’Espace, devant des ordres contradictoire va t’il devenir fou et vouloir se débarasser de tous les humains ?

    Et sachant comment son conçus les logiciels en France.

    Entre ce que le client demande, le commercial comprend, le chef ingénieur décide, les programmeurs écrivent, on a une version différente à chaque fois, cela ne risque pas d’arranger les choses.

    Quant au système de reconnaissance radar IFF des avions militaires, les tactiques sont simples pour le berner.


    • Halman Halman 13 décembre 2007 10:51

      « Si un chef de guerre activement recherché arrête son véhicule près d’une ambulance dans le voisinage immédiat d’une école, le soldat-robot mettra ses armes sur la sûreté. »

      Et dans le cas où un enfant kamikaze fonce ver le warbot, que fera t’il ? C’est un enfant il ne tire pas, ou bien c’est un terroriste et il l’abat ?

      On demande aux robots de raisonner logiquement et éthiquement dans un monde où les humains son fous.

      Belle utopie.

      Les pilotes de chasse le disent bien : même avec les avions les plus perfectionnés, les missiles les plus performants, c’est toujours au final, le pilote le plus expérimenté, le plus rusé, le plus tactique, celui qui saura le mieux exploiter les faiblesses et les défauts des avions qui gagnera, toujours comme pendant la guerre de 14/18.

      En pratique, même si le radar de tir dit bipe et affiche « shoot », il existe bien des situations où il se trompe et le missile rate sa cible. A l’inverse il existe des situations où le radar ne donne pas le shoot possible mais où le tir est réussis à 100% quand même. Là c’est le pilote qui sait pourquoi.

      Un avion de chasse sera toujours un avion de chasse, utopies d’ingénieurs ou pas.


    • Alpo47 Alpo47 13 décembre 2007 11:07

      A l’auteur, vous vouliez me provoquer des cauchemars, c’est réussi..

      Heuuuu, Halman, le milan est un poste de tir antichar et, abattre un avion avec relèverait du miracle. Quand au jaguar, il a été mis à la casse il y a plusieurs années, le phantom ne restant en service que dans quelques armées « marginales » ... Pour le reste, je partage vos inquiétudes.


    • Halman Halman 13 décembre 2007 11:55

      Le Jaguar a été retiré du service en 2005, c’est très récent.


    • Halman Halman 13 décembre 2007 12:01

      J’avais confondu avec le Roland.


    • Traroth Traroth 13 décembre 2007 12:35

      Déjà, s’ils essayent de descendre des avions avec des missiles antichar Milan, c’est mal barré. C’est un missile filo-guidé, et donc sa portée est plus que limitée (2000 m si ma mémoire est bonne). Vous confondez sans doute avec le Mistral ?


  • Halman Halman 13 décembre 2007 11:51

    Je parlais des années 1970.

    Pour les lois d’Asimov, plus tard, il y adjoint la règle zéro : Un robot ne peut nuire à l’humanité ni, restant passif, permettre que l’humanité souffre d’un mal.

    On oublie toujours cette loi, il y en a 4 en tout.


  • morice morice 13 décembre 2007 12:15

    PS : Mr Halman ne « Je parlais des années 1970. » Son ordinateur pareil. « Hawker Tempest devaient risquer leurs vies en passant tous feux allumés en battant des ailes au dessus des convois de navires alliers, leurs tireurs les confondant systématiquement avec des Focke Wulf 190 et leur tirant dessus ». Euh, confondre un engin de plus de 6 tonnes faisant 13 mètres d’envergure avec un moteur en ligne avec un avion de 3,5 tonnes faisant 3 mètres de moins au moteur en étoile, faut pas pousser, mr Halman : vos connaissances en aviation sont du même tonneau que pour l’informatique. « témoignages de ploucs » , vous dites ?? euh... « Le problème de l’identification des cibles est complexe » la votre aussi, mr Halman. Restez-en donc à l’informatique, de grâce. Au DOS. Euh non, trop tard pour vous ça. GEM ? Pro-Dos ?


    • Halman Halman 13 décembre 2007 20:06

      Vous pouvez vérifier dans la littérature aéronautique, les témoignages de pilotes sont légion, dont ceux de Pierre Clostermann dans le Grand Cirque.

      Le Tempest avait un énorme radiateur sous le moteur et des ailes à bouts carrés qui le font vraiment ressembler à un FW190.

      Vérifiez.

      Vous critiquez mais ne connaissez pas.


    • Halman Halman 13 décembre 2007 20:08

      Continuez à faire mumuse avec votre Mac, si cliquer sur des icones c’est tout ce que vous comprennez en informatique.


  • Tonio Tonio 13 décembre 2007 12:26

    Il n’a pas tort ceci dit : il y’a eu plus de pertes par tir amis dans les dernières guerres américaines que par tir ennemi. En même temps, la drogue ça aide pas.


  • Serpico Serpico 13 décembre 2007 13:29

    L’auteur : « Le déploiement massif de soldats-robots sur les champs de bataille soulèvera certainement de multiples questions(...) éthiques. »

    ****************

    Sinon, la guerre faite par des humains (enfin, d’après leur aspect extérieur), c’est « éthique » ?


    • ni-ni 13 décembre 2007 13:55

      bien sur... essayer donc de comdamner un warbot dans un tribunal internationnal pour crime de guerre ou non respect de la convention de geneve smiley

      que la guerre ait une ethique ne veut pas dire que cette ethique soit possitive voir recommandable smiley


  • Charles Bwele Charles Bwele 13 décembre 2007 13:42

    @ Serpico !

    Comment va, Inspecteur ? smiley

    Ici, j’essaie tant bien que mal de focaliser (noter bien le terme « focaliser »,Inspecteur) sur les nouveaux enjeux éthiques et philosophiques des futures guerres robotisés.

    Des articles sur teneur très peu éthique des guerres entre humains, il y en a à la pelle depuis l’invention de l’imprimerie,et à fortiori sur le Net. Sur ce point,vous n’avez que l’embarras du choix.

    Amicalement, Inspecteur Serpico smiley


    • Charles Bwele Charles Bwele 13 décembre 2007 16:07

      @ Tall !

      Comment va l’ami ? Je lirais ton article juste après avoir validé ce commentaire. Le titre est déjà alléchant... Amicalement.


  • SlyTheSly 13 décembre 2007 14:42

    Merci pour cet excellent article, très intéressant !

    La scène décrite en Afrique du Sud me fait penser à une scène de Robocop (le film), avec l’ED-209 (je ne suis plus sûr du nom de code, bref...) qui buggue lui aussi et finit par tuer un spectateur...c’est assez dérangeant cette analogie O_o


  • TALL 13 décembre 2007 14:50

    Encore un bon article de l’ami Charles sur un sujet qui me concerne d’ultra-près ( la cybernétique ).

    Le DARPA est peut-être un peu pessimiste avec 2035. Moi je dirais plutôt : 2020-25.

    A propos de l’éthique de guerre, faut pas s’illusionner, sur le terrain c’est aussi abstrait que la théologie. J’ai eu un pote mercenaire, je ne te raconte pas l’éthique smiley

    A +


  • jako jako 13 décembre 2007 15:59

    « une batterie récemment révisée ouvrit spontanément le feu sur celle voisine, puis rechercha et mitrailla autant de cibles que possible » peux t’on en déduire que leur intellignece est moins artificielle que prévu ?


  • Charles Bwele Charles Bwele 13 décembre 2007 18:40

    @ Parkway

    J’ai une passion certaine pour la chose technologique,qu’elle soit coréenne ou américaine peu importe, sinon je n’exercerais pas mes métiers... smiley

    Il se trouve qu’en matières de technologie en général, et militaire en particulier, les ricains tiennent haut le pavé. Ils sont donc incontournables. Parlerait-t-on de gastronomie, de vins ou de d’industrie de la mode sans évoquer un seul instant la France ? smiley

    Dans le domaine robotique, je me contente de décrire les enjeux et de soulever qq interrogations en essayant d’être « le moins subjectif possible » ou sans trop m’impliquer, histoire que le lecteur développe lui-même par la suite.

    Amicalement.


    • Avatar 13 décembre 2007 19:30

      A l’auteur,

      Bon article.

      Mais ça c’est la version militaire. A quand la version civile pour la police ?

      En tout cas j’espère que le système d’exploitation n’est pas du windows smiley

      Imaginez un hacker ennemi s’emparant des commandes du joujou ....


  • Yannick Harrel Yannick Harrel 14 décembre 2007 00:09

    Bonjour Charles,

    Félicitations pour votre article. D’autant qu’il pointe justement le problème complexe de la reconnaissance ami/ennemi par un warbot en situation de conflit. On pourrait à terme imaginer des capteurs portés sur les GIs amis pour éviter des tirs fratricides mais qui dit que l’ennemi ne se servira pas lui même des capteurs récupérés sur des cadavres pour paralyser la logistique cyberguerrière US ?

    Quand le premier aérodyne décolla de Kitty Hawk en 1903, Orville Wright aurait déclaré avoir trouvé une invention rendant désormais toute guerre impossible (When my brother and I built the first man-carrying flying machine we thought that we were introducing into the world an invention which would make further wars practically impossible). Dorénavant et pragmatiquement, l’on recherche activement toute invention rendant chaque guerre moins coûteuse en vies humaines. Enfin, si l’on se place du bon côté...

    Cordialement


  • gloagf 14 décembre 2007 15:37

    @auteur

    Article interessant et approfondi qui se contente de donner les faits en restant objectif, ce qui est appreciable.

    Cependant, une petite remarque : vous dites :

    « ce micro-blindé à chenilles de 45 kg est équipé de caméras, d’un microphone ultra-sensible, de deux mitrailleuses de calibre 50, d’un fusil M-16, d’un lance-fusées de 6 mm et de 300 chargeurs. »

    Excusez-moi mais pouvez-vous me donner une source pour le poids, parce que la je reste septique : 2 mitrailleuses (au pire 5 kg chacune)+ un fusil (3kg)+ un lance fusees(5kg)+300 chargeurs d’au moins 100g chacun (30kg) = 48kg. A cela s’ajoute le poids du micro blinde bien entendu...

    Merci encore pour l’article en tout cas et a bientot


  • Charles Bwele Charles Bwele 14 décembre 2007 18:59

    @ Gloagf

    Le micro-blindé SWORDS fait bel et bien 45 Kg, je tiens mes infos tout simplement du site internet de son constructeur Foster-Miller. Toutes les spécifications et les fiches techniques (en anglais) sont disponibles ici :

    http://www.foster-miller.com/lemming.htm

    Amicalement.


    • Yeager 16 décembre 2007 11:35

      Les robots en questions ne sont pas equipe de tous ces equipements. Ils sont equipe au choix d’un de ces equipements.


  • Forest Ent Forest Ent 15 décembre 2007 23:36

    Moi aussi, j’aime bien Asimov, mais là on rigole.

    Le robot fantassin est un vieux serpent de mer des industriels qui a toujours fait plier de rire les états-majors depuis au moins cinquante ans. Que certaines tâches militaires puissent être automatisées, certes. Une défense Aegis est entièrement automatisée. Mais il ne s’agit que de tâches à faire rapidement mais fort simples comparées au boulot d’un fantassin. Il y a toujours plein de vaporware là-dessus, mais il n’y a pas de business sérieux.


    • Marc Bruxman 16 décembre 2007 19:15

      Sauf qu’il y a deux différences ici :

      - D’une part le robot est controlable à distance ce qui fait une automatisation partielle. Il y a toujours un humain pour réfléchir. On peut également envisager un mode 100% automatisé mais avec un controle humain à distance (pour appuyer sur arret d’urgence).

      - Ensuite je te laisse imaginer l’effet psychologique d’une telle saloperie sur les troupes adverses. Meme si ce n’est pas super efficace stratégiquement parlant une invasion de robot tels que ceux ci peut saper le moral des troupes adverses (par les pertes occasionnées et l’impossibilité de leur faire réelement mal) pendant que les troupes des propriétaires sont à chaud dans leur base. Je te laisse revoir les vieux films de science fiction type « les extraterestres attaquent la terre » et t’imaginer qu’il s’agira a peu près du même scénario mais en vrai pour les troupes qui vont les subir.

      - L’utilisation comme force de police ou drone peut être également efficace surtout si des humains télécommandent le jouet. La encore même plus moyen de faire un attentat suicide contre les troupes adverses vu qu’il s’agit de robots.

      - Je passe également sur la facilité à commettre des exactions que des soldats auraient peut être refusés de commettre.

      - Je passe sur le fait que contrairement à un soldat, le robot n’enverra pas de lettre à sa famille pour se plaindre des horreurs de la guerre, n’a pas sommeil, n’a pas faim. Il va être possible de réduire énormément les coûts logistique d’une guerre actuellement énormes. La encore cela joue contre les populations attaquées qui pourront moins jouer sur le pourissement. La question est : auraient on la même résistance en Irak si les populations locales savaient que les américains peuvent tenir un siècle si il le faut ?

      Oui ca ne suffira pas et il y aura toujours des fantassins. Mais je ne voudrais pas faire partie de la première population civile qui va expérimenter la chose.


    • Forest Ent Forest Ent 16 décembre 2007 23:02

      « le robot est controlable à distance »

      Là, il n’y a plus de sujet de discussion. Ce sont alors des drones. Aucun doute sur leur utilité militaire, mais aucune IA concernée.

      « Ensuite je te laisse imaginer l’effet psychologique d’une telle saloperie sur les troupes adverses. »Je te laisse revoir les vieux films de science fiction type « les extraterestres attaquent la terre » et t’imaginer qu’il s’agira a peu près du même scénario mais en vrai pour les troupes qui vont les subir."

      J’imagine que c’est déjà exactement l’effet que font les troupes US en Irak. J’imagine que le paysan irakien avec son AK-47 doit déjà être empli de terreur en voyant passer des Abrams, des A-10, des Apache, qu’il doit en pisser dans son froc. En tout cas, c’est ce que je ferais à sa place.

      Mais voilà, ça n’a pas suffi.

      Comme disait Hitler quand on lui a offert la Tchéquie : « la volonté de combattre l’emporte sur le matériel ».

      « Je passe également sur la facilité à commettre des exactions que des soldats auraient peut être refusé de commettre. »

      Et réciproquement. Les robots sont rarement délinquants sexuels. Il y a eu en tout cas peu de cas recensés avec une victime non consentante.

      « le robot n’a pas sommeil, n’a pas faim. Il va être possible de réduire énormément les coûts logistique d’une guerre actuellement énormes. »

      Pas évident. Tout équipement a besoin d’énergie, de munitions, de pièces de rechange, de consommables, ... Il faut quelques centaines d’humains pour faire voler un seul F16.

      « je ne voudrais pas faire partie de la première population civile qui va expérimenter la chose. »

      Ben ce sera peut-être à Argenteuil lors de la première Grande Karchérisation.


  • Charles Bwele Charles Bwele 16 décembre 2007 04:05

    @ Forest

    Cette fois-ci, il ne s’agit plus de vaporware avec 127 milliards de dollars à la clé, d’autant plus que les US se rendent bien compte qu’ils ne pourront/devront plus continuer avec des dépenses militaires aussi abyssales.

    J’ai également insisté sur le fait qu’on aura dans une vingtaine d’années non pas des primates robotiques, mais de remarquables mammifères robotiques ; ce dont les chercheurs sont parfaitement d’accord...Ils ne visent guère de Terminator ou Robocop en herbe. Et je pense que ce sera tt à fait réaliste vers 2030...

    Si tu doutes, penses à l’évolution du Net et de nos PC entre 1998 et aujourd’hui, et ce qu’il en sera en 2030... Je-ne-sais-plus quel co-concepteur de la bombe atomique doutait fort qu’un jour les particuliers disposent d’une puissance de calcul et de traitement de l’information comparable aux ENIAC de l’époque...Si seulement il aurait pu vivre qq 60 ans de plus pour voir... smiley

    Les concepteurs des que les sondes Viking, Pionneer et Voyager doivent halluciner en voyant leurs PC portables : ces engins ont des capacités équivalentes à celles d’une calculatrice scientifique de 1988 ! :-P

    Amicalement


    • Forest Ent Forest Ent 16 décembre 2007 17:49

      « il ne s’agit plus de vaporware avec 127 milliards de dollars à la clé, d’autant plus que les US se rendent bien compte qu’ils ne pourront/devront plus continuer avec des dépenses militaires aussi abyssales. »

      Cette phrase me semble contenir une contradiction.

      « Si tu doutes, penses à l’évolution du Net et de nos PC entre 1998 et aujourd’hui »

      Ben justement ! J’adore la techno, Asimov, la science-fiction et la prospective, et je sais que c’est un art jouissif mais délicat.

      J’ai retrouvé un bouquin de prospective informatique écrit à la fin des années 1960, à l’occasion de « l’installation en France du millième ordinateur ». Avec le recul, il y avait de bonnes et mauvaises prévisions. Le bouquin prévoyait que l’ordinateur ferait :

      - la compta dans les entreprises (gagné)

      - la dactylographie (gagné)

      - les calculs scientifiques (gagné)

      - les cours à l’école (perdu)

      - toutes les traductions (pas terrible).

      Avec le recul, l’ordi s’est imposé pour des tâches répétitives, et aucune impliquant le jugement humain.

      Finalement, le PC est aujourd’hui surtout utilisé

      dans les entreprises pour le mail et le traitement de texte

      à la maison pour voir des films pornos (cf ton article smiley ) et jeux vidéos, et c’est d’ailleurs les jeux vidéos qui motivent aujourd’hui l’essentiel du développement technologique, par exemple dans les cartes graphiques.

      Les drones sont bien sympa, mais ils sont presque tous télécommandés, et on leur demande pas de choisir leur cible au sol (trop compliqué).

      Donc je reste très sceptique. Ca ne prouve pas qu’il n’y aura pas de progrès dans le domaine, mais ce n’est qu’une éventualité parmi beaucoup d’autres. Pour l’instant en tout cas, l’armée US tend plutôt à recruter des délinquants et des mercenaires étrangers.


    • Marc Bruxman 16 décembre 2007 19:34

      « Avec le recul, l’ordi s’est imposé pour des tâches répétitives, et aucune impliquant le jugement humain. »

      En partie faux dans le sens ou par certaines taches répétitives on peut approcher voir dépasser le jugement humain.

      Même si il est vrai que l’intelligence artificielle n’a pas tenu ses promesses, de nombreux algorithmes d’optimisation combinatoire permettent (à condition qu’un humain pose bien le problème) de battre le cerveau humain.

      Exemple : Organisation des tournées de camion dans la logistique. Conception de certains « détails » (qui changent tout) des pistons dans l’industrie automobile, ... Routage des pistes (entre les composants) sur les cartes électroniques. On les utilise déja couramment et peu de produits que tu utilisent aujourd’hui pourraient se passer de ce luxe pour leur conception.

      Pour donner une idée de l’état de l’art en matière de robotique, on a fait conduire des voitures « sans pilote » sur une route ouverte à la circulation. Un circuit de 1000 Miles à ainsi été accompli avec toutefois un humain et une double pédale au niveau du siège passager. La vitesse a atteint 175 Km/h sur l’autoroute en allemagne et sur certains tronçons, la voiture a pu accomplir jusqu’à 158 Kilomètres sans aucune intervention humaine. Toutefois, le délai moyen entre deux interventions humaines était en fait de 9 Kilomètres ce qui n’est pas top. Sauf si l’on considére que cette expérience date de 1995. Un projet de recherche Italien (ARGO) a depuis fait mieux mais je n’ai pas de chiffres précis à donner si ce n’est la date : 2001.

      Bien sur c’était dans le cadre d’un projet de recherche et ce n’est donc pas du tout industrialisable tel qu’el. Il faut attendre...

      Donc je n’écartes pas du tout l’hypothése de voir des robots autonomes de mon vivant.


    • Forest Ent Forest Ent 16 décembre 2007 22:40

      « Organisation des tournées de camion dans la logistique. Routage des pistes sur les cartes électroniques. ... »

      Voui, et le jeu d’échecs. Mais il s’agit dans tous les cas de problèmes « fermés », purement mathématiques, dont les règles sont simples et peuvent être entièrement explicitées, ce qui n’est pas le trop le cas de l’art militaire terrestre.

      A ma connaissance, aucune machine n’a jamais passé le « test de Turing » : discuter par écrit avec un humain sans que celui-ci ne devine qu’il parle à une machine.

      « on a fait conduire des voitures »sans pilote« sur une route ouverte à la circulation ... Sauf si l’on considére que cette expérience date de 1995 »

      L’armée US organise un concours de voitures autonomes en environnement « ouvert simulé ». Cette année, pour la première fois, des voitures ont fini le parcours.

      « je n’écarte pas du tout l’hypothése de voir des robots autonomes de mon vivant »

      Ben non, il y en a déjà. De là à en faire des guerriers intelligents ...


  • Charles Bwele Charles Bwele 16 décembre 2007 21:43

    @ Forest et Bruxman

    Quand j’écris " Il ne s’agit plus de vaporware avec 127 milliards de dollars à la clé, d’autant plus que les US se rendent bien compte qu’ils ne pourront/devront plus continuer avec des dépenses militaires aussi abyssales" ;

    J’entends par là que le cout d’exploitation annuel et le remplacement d’une section de soldats-robots sera de loin inférieur à celui d’une section de soldats humains. L’investissement initial sera certes onéreux, mais son amortissement sera d’autant plus économique grâce à la baisse constante des coûts de la technologie. On peut par exemple supposer qu’en 2040, les puces spécialisées ou non en robotique verront leurs coûts s’abaisser grâce à une sorte de loi Moore.

    Bien entendu, je ne peux pas mentionner autant de détails sinon mon post deviendrait exhaustif voire lassant.

    Par ailleurs, le cumul des charges alimentaires, médicales et sociales de l’armée américaine (idem pour celles française, britannique, chinoise, russe et autres, à fortiori lorsqu’il s’agit d’armées de métier) est parmi les postes de dépenses les plus important voire le plus important.

    D’ou ma phrase :« 10 à 20 fois moins moins cher qu’un GI râleur, biologique et impropre à la production en série ». Sur la base de diverses sources générales ou spécialisées en la matière.

    Pour le reste, je partage totalement l’avis de Bruxman.

    Amicalement.


    • Forest Ent Forest Ent 16 décembre 2007 22:48

      « le cout d’exploitation annuel et le remplacement d’une section de soldats-robots sera de loin inférieur à celui d’une section de soldats humains. »

      Je serais vraiment curieux de savoir comment on l’estime.

      « mais son amortissement sera d’autant plus économique grâce à la baisse constante des coûts de la technologie. On peut par exemple supposer qu’en 2040, les puces spécialisées ou non en robotique verront leurs coûts s’abaisser grâce à une sorte de loi Moore. »

      L’électronique représentera alors 3% du prix du robot. Il restera je suppose la carcasse, le blindage, la motorisation, l’armement, l’alim, ...

      « le cumul des charges alimentaires, médicales et sociales de l’armée américaine est parmi les postes de dépenses les plus important voire le plus important. »

      On peut effectivement oublier les salaires et charges sociales.

      Les dépenses médicales vont se transformer en « coûts de maintenance » et « remplacement de matériel vétuste, en panne ou détruit ».

      Les « charges alimentaires » vont se transformer en « facture énergétique ». L’alimentation humaine est un procédé très efficace de production d’énergie à partir de sources organiques variées. A propos, ils seront alimentés comment, ces braves robots ? J’espère pour eux qu’ils ne devront pas se balader 100kg de batteries Li-ion, ou rester à portée d’une prise 110V.

      « un GI râleur, biologique et impropre à la production en série »

      Mais tout à fait apte à la reproduction. smiley


  • Charles Bwele Charles Bwele 16 décembre 2007 23:18

    @ Forest

    Un logiciel de drague russe aurait passé le fameux test de turing...Je cherche encore l’article (lu tt récemment) le mentionnant explicitement, mais je te propose de lire ce lien :http://www.lemonde.fr/web/depeches/0,14-0,39-33590140@7-37,0.html

    Ensuite, dans l’article, je mentionne explicitement que ces robots intelligents seront très probablement supervisés par des humains, qu’ils complèteront souvent. Superviser des robots sans les radiocommander dans les détails est tt à fait possible aujourd’hui, et le sera très certainement plus en 2030.

    Il me semble qu’un PC de 2007 coûte bcp moins cher et soit bien plus efficace qu’un sécrétariat humainement pléthorique des années 70. Durant ma petite vie, j’ai d’ailleurs vu les personnels de secrétariat se réduirent au fur et à mesure du développement de l’informatique personnelle. Toutes proportions étant égales par ailleurs, une logique plus ou moins similaire prendra forme dans l’armée américaine, qui a d’ailleurs ouvertement fait mention des arguments économiques dans le cahier des charges du Future Combat Systems.

    Même dans le cas de problèmes mathématiques et fermés dédiés champs de bataille, la capacité de mathématique et informationnelle (notamment grâce aux systèmes roboticiels intelligents distributifs interagissant de surcroît avec des états-majors + troupes très hi-tech) s’améliorera d’autant d’ici 2030.

    L’approche dyanmique et globale de tous ces facteurs et la sociotechnique de 2020 aura considérablement évolué entretemps. A titre d’exemple, en 1988, on croyait encore aux IA méga-centralisés. Puis, on s’est rendu compte peu à peu que les systèmes distributifs sont bien plus intelligents.

    Attention Forest, tu focalises sur des détails certes significatifs et séquences les problèmes(avec une ferme volonté d’en découdre paragraphe par paragraphe) mais tu éludes des schémas globaux que j’ai pourtant nettement spécifié dans mon article...

    Amicalement.


    • Charles Bwele Charles Bwele 16 décembre 2007 23:23

      Par ailleurs, je signale que le SWORDS, qui pèse au trop 50 Kg, fonctionne avec une batterie au Lithium. Je ne me risque pas gravement en affirmant que dans 20 ans la technologie des batteries aura elle aussi drastiquement évolué.


    • Forest Ent Forest Ent 17 décembre 2007 00:11

      « Attention Forest, tu focalises sur des détails certes significatifs et séquences les problèmes avec une ferme volonté d’en découdre paragraphe par paragraphe. »

      « Découdre ? » Je suis plus que navré de t’avoir donné cette impression. C’était pour moi un exercice de prospective tout à fait intéressant, qui n’enlèvait rien à la qualité de ton article et de l’information fournie. Nous avions pris l’habitude d’exprimer nos points de vue de manière directe, ce qui est le charme des forums, mais il me semblait toujours courtoise. Je précise donc : j’ai bien aimé cet article, et si je « pinaille » sur le contenu, c’est par intérêt pour le sujet, et surtout pas par dérision, agressivité, ou jugement négatif. Disons qu’il faut un avocat au diable. Par ailleurs, il n’est pas possible d’avoir raison dans un débat pareil. Trop de choses peuvent se passer en 30 ans.

      Le plus probable est d’ailleurs entre les deux : il y aura de plus en plus d’armes télécommandées (ce n’est déjà plus une prévision mais un fait), et l’évolution de leur capacité d’autonomie est à proprement parler imprévisible.

      Les ruptures techniques sont souvent surprenantes. Je me souviens qu’il y a 40 ans, il apparaissait évident qu’aujourd’hui on se déplacerait surtout par voie aérienne, en général en jet-pack ou en mini-hélicoptère. Fondamentalement, les voitures d’aujourd’hui sont les mêmes qu’il y a 100 ans.

      « Un logiciel de drague russe aurait passé le fameux test de turing »

      Les jeunes gens en phase romantique ont une expression par moments un peu ... mécanique. smiley


  • Charles Bwele Charles Bwele 17 décembre 2007 00:12

    @ Forest !

    Penses-tu qu’un développement technologique digne de ce nom devrait reposer sur une audace intellectuelle ou sur une constante analyse des conditions d’infaisabilité ? smiley

    Amicalement


    • Charles Bwele Charles Bwele 17 décembre 2007 00:17

      C’est pas un piège, Forest cette question, rassure-toi..C pas mon style... smiley

      C’est simplement pour te signaler que le DARPA, organisme de recherche typiquement américain qui a produit des merveilles de mort, et bcp dérivé comme merveilles de vie courante, peut encore très bien nous surprendre...En l’occurence tous ces petits détails que tu as abordé ne seront certainement pas résolus d’un coup mais au fur et à mesure du développement et de l’utilisation des warbots...

      J’espère que tu piges un peu mon approche... smiley

      Cordialement


    • Forest Ent Forest Ent 17 décembre 2007 02:28

      J’essaie depuis 20 ans de faire pour mes employeurs les choix technique les moins idiots à moyen terme. J’ai beaucoup de mal et je me trompe plus souvent que le contraire.

      En termes de business, l’impression que j’ai eue jusqu’ici est que le marché se manifeste avec une grande force mais pas une grande prévisibilité. Il faut faire ses choix, mais ne jamais insister contre les faits. Faire attention aux fondamentaux techniques et aux tendances lourdes, mais ne miser que sur ce qui a une chance dans un horizon visible.

      La recherche, c’est autre chose. On peut tenter tout ce qu’on veut. Mais sans garantie de succès.

      Et puis des fois le succès y vient là où on ne l’attendait pas. Tout le monde encense l’ARPA pour le net, mais ce n’était pas un projet de recherche militaire, juste une simple utility.

      On vient de parler d’irridium sur un thread à côté. Ce n’était pas un projet idiot. Il a complètement foiré. Pourtant, la couverture mondiale pour tous semblait à l’époque à portée de main. Seigneur de quoi sommes-nous faits ?


  • Thierry LEITZ 17 décembre 2007 09:59

    @ Forest

    Vous avez du mérite à rappeler points par points l’insuffisance des robots eut égard aux espoirs démesurés qu’on place en eux.

    Pensée et puissance de calcul : deux mondes, deux langages.

    En l’occurence ce warbot est terriblement vulnérable aux plans mécanique, électrique et logiciel. On peut lui faire toutes sortes de « blagues de potache » en terrain accidenté ou chaotique telle la guerilla urbaine. A condition de ne pas se placer dans son champ de tir. Qu’un soldat observe un peu ce truc fonctionner et il lui trouvera vite ses points faibles, et plein de façons amusantes de l’emmerder.

    Les robots furent sont et resteront des machines stupides, tas de ferraille débiles. Nulle peur, méfiance oui. Et destruction. Mépris définitif pour leurs ingénieurs.

    Ce qui est sûr, c’est que les humains sont de formidables concepteurs de machines. Mais quel gâchis de génie humain !

    Admirer les robots, c’est se mettre en dessous de tout.

    Concevoir des robots-soldats c’est, comme pour les autres armes, la négation de l’humanité. Penser qu’un appareil débile de ce genre puisse coûter 1/4 de million de dollar, pour massacrer sans discernement soldats, civils, femmes et enfants qui eux vivent, pensent et aiment parfois avec 1 dollar par jour, quelle honte !

    Les inhumains et leurs armes perfectionnées ou non ne méritent que de disparaître à tout jamais.


  • Charles Bwele Charles Bwele 17 décembre 2007 12:24

    @ Forest !

    « On vient de parler d’irridium sur un thread à côté. Ce n’était pas un projet idiot. Il a complètement foiré. Pourtant, la couverture mondiale pour tous semblait à l’époque à portée de main. Seigneur de quoi sommes-nous faits ? »

    Tu m’as fait marrer sur celle-là, smiley car moi aussi je me suis souvent demandé pourquoi Iridium avait échoué si lamentablement. Ce fut d’autant plus désastreux lorsque les quelques satellittes déjà en orbite furent volontairement consumés dans l’atmosphère. Bref, un épouvatanble gâchis.

    C vrai que le Net fut au départ, dans les 70’s une simple utility app pour le DARPA...Mais bon, ils ont réussi leur coup et c déjà beaucoup. Tu le sais mieux que moi, en R&D, les facteurs chance et circonstances pèsent également très lourd.

    Amicalement, Forest


    • Forest Ent Forest Ent 17 décembre 2007 15:28

      « Penses-tu qu’un développement technologique digne de ce nom devrait reposer sur une audace intellectuelle ou sur une constante analyse des conditions d’infaisabilité ? »

      Les deux, mon général. smiley

      A mon avis, le succès d’un projet repose essentiellement sur :

      - une organisation claire, au sens où la répartition des décisions doit refléter la répartition des financements (et non pas celle des prérogatives),

      - une démarche qui doit traiter d’abord les risques les plus importants (et non pas dans leur ordre naturel).

      Après, s’il existait une méthode qui garantisse le succès, je pense qu’elle serait déjà connue. Mais on peut tenter de gérer l’incertitude. C’est le métier des probabilisticiens comme ton serviteur.

      ++


  • ZeusIrae 21 décembre 2007 18:24

    Just un detail sur le FCS qui semble revenir souvent dans l’article et la discussion.Avec le grand retour de la contre-insurection ces derniers années et sa faible utilité à l’horizon 2020(est-il possible de faire mieux que l’ecrasement de l’irak en 6 semaines), il y a de gros doutes sur l’avenir du programme sous sa forme actuelle.

    Il n’est pas impossible que l’Army choisisse un approche plus graduelle pour introduire des technologies après l’experience assez problematique de la Navy et l’Air force en matiere de gestion des couts(F-22/F-35,LCS).Le FCS est un programme radical qui est passeblement ambitieux.


Réagir