samedi 9 janvier 2016 - par Thomas Roussot

La Corée du Sud convertie à la protection robotisée

Alors que la Corée du Nord vient de pratiquer un essai nucléaire qui fait polémique ici et là, pendant que les voitures allemandes sont garées par des robots au sein de l’aéroport de Düsseldorf, la Corée du Sud surveille quant à elle ses frontières à l’aide du robot SGR-A1. Il correspond assez bien à la définition des drones, ces « véhicules terrestres, navals, ou aéronautiques, contrôlables à distance ou de façon automatique ». Toute la question demeurant fichée dans ce « ou ». L’automaticité d’un robot relève t-elle vraiment de la notion de contrôle ?

Même en le programmant de A à Z, un robot demeure une entité désincarnée, dont l’action ne relève pas de la subjectivité humaine mais d’algorithmes, et de ce fait, peut présenter une « logique comportementale » imprévisible bien qu'apparemment logique. Qui n’a pas connu un banal clavier d’ordinateur subitement encrassé ou bloqué par une fine particule à l’origine incontrôlée se mettre « en mode écriture automatique » ? Il faut parfois éteindre le poste central pour nettoyer l’appendice affecté. Ce qui peut prendre du temps. Puis revenir sur le logiciel de texte ainsi aléatoirement rempli de signes parfaitement abscons. Le SGR-A1 a pour mission de garder la frontière de Corée du sud. Parmi ses aptitudes, celle de tirer à vue, en cas de présence trop proche. Dans ce cas…il tire. 

 Qu’il s’agisse d’un apatride ignorant l’existence des frontières, d’un vieillard ne jouissant pas de toute sa vision, d’un enfant jouant trop loin au football, ou encore d’un dangereux espion envoyé par Kim-Jong II. Sans la moindre discrimination. C’est une nouvelle ère qui s’ouvre tant sur le plan du droit international que pour l’approche éthique des conflits armés. Quid de la responsabilité humaine si des robots affrontent des humains en toute autonomie ? On aspire par ces nouvelles armes à projeter une force de destruction exempte de vulnérabilité. C’est leur vertu centrale. Minimiser les pertes humaines. En théorie. De fait, cette capacité de frappe unilatérale ouvre des perspectives d’irresponsabilité illimitée. Entité violente téléguidée anonymement, il n’y a pas besoin d’une grande imagination pour concevoir ce qu’un tel robot peut devenir entre les mains de groupes radicaux, qu’ils soient étatiques ou non. 

 

 Car in fine, si le robot relève toujours d’une intentionnalité particulière, celle-ci aura beau jeu de s’abriter derrière on ne sait quelle avarie, bug ou autre dysfonctionnement purement technique pour justifier à posteriori un éventuel massacre provoqué d’une telle façon impersonnelle. Les droits de la guerre existent, et sont de facto contournés par l’apparition de tels engins. Au même titre que les armes bactériologiques, les robots font muter les problématiques guerrières de façon accélérée. Certes, la chaîne de commandement existe, mais elle est virtuellement placée dans une position d’attente observatrice secondaire. 

Le système SGR-A1 est donc une sorte de sentinelle installée à la frontière séparant les deux Corées. Il est chargé d’interdire les traversées clandestines via la zone démilitarisée les séparant.

 Il peut détecter l’entrée d’une personne dans sa surface de « réparation » ainsi qu’éliminer plusieurs cibles mouvantes simultanément. Équipé de caméras de surveillance et de capteurs capables de percevoir tout mouvement distant de 4 kilomètres, il embarque sans se plaindre le moins du monde d’une mitrailleuse de calibre 5.56 mm ainsi qu’un lance-grenades de 40 mm. 

Pourvu d’un système de communication intégrant microphones et haut-parleurs, il sait dialoguer avec sa cible et peut en rapporter les éléments saillants à ses chefs. Si l’intrus ne répond pas, il tire. Voire s’il parle aussi. 200 000 euros l’unité, 117 kg, 120 cm de hauteur, ce bébé tueur couvre 250 kilomètres de zone frontalière. Les centaines de soldats autrefois affectés à cette surveillance peuvent partir faire du surf ou jouer aux échecs. Pas de baisse de vigilance, pas de crainte, pas de contestation, pas d’hésitation, pas de revendication, le SGR-A1 est très flexible et n’a pas à distinguer les bons des mauvais. 

 Tout être vivant et susceptible d’intelligence (ou non) qui franchit la ligne doit être éliminé, hormis procédure de sommation respectée. Car notre petit SGR comprend si l’intrus éventuel lève les mains. Toute supervision humaine devient du fait de cette disposition autonome assez facultative. La réduction des effectifs hominidés est ainsi solutionnée. Ce robot représente un paradigme interrogeant la modernité à lui seul. Il industrialise et prolonge la volonté guerrière, déléguant la notion de responsabilité aux trous noirs du droit international. Une éthique robotique n’est pas encore sortie des laboratoires. Qu’importe, l’intelligence artificielle ne comporte pas la fonction éthique dans ses électrodes. Seules comptent les réductions de coûts, qu’ils soient financiers ou sanguins.

Arme humanitaire limitant les pertes, ou tout au contraire appendice déresponsabilisant un peu plus la tentation barbare, l’autonomie robotique va changer assurément de façon radicale l’ethos des conflits armés. Même si le comité international pour le contrôle des armes robotisées (ICRAC) aspire à ralentir l’arrivée de ces engins pouvant agir ex nihilo et qu’un rapport des Nations Unies (usine à rapports stériles bien connue) invite à leur interdiction temporaire en attendant comme Godot une charte internationale susceptible de régir leur emploi, ce n’est sans doute pas dans les couloirs ouatés des civils que ces questions vont se trancher mais plus sûrement à l’usage des champs de batailles d’un genre absolument inédit. Comme le demande à juste titre Grégoire Chamayou dans son essai Théorie du drone (Ed.La fabrique, p.31) : « Qu’impliquerait, pour une population, de devenir le sujet d’un État drone ? » Certains États semblent vouloir répondre à la place de ces trop rétives populations.



7 réactions


  • jef88 jef88 9 janvier 2016 18:03

    "Qu’il s’agisse d’un apatride ignorant l’existence des frontières, d’un vieillard ne jouissant pas de toute sa vision, d’un enfant jouant trop loin au football, ou encore d’un dangereux espion envoyé par Kim-Jong II."
    Aucun risque !
    Kim-Jong II est déjà mort !


  • sls0 sls0 9 janvier 2016 21:52

    Ca ou les mines ? Je préfère ni l’un ni l’autre.
    Dans un monde parfait ils ne seraient pas nécessaires.

    Des bavures avec les humains il y en a plus, mais avec l’humain on peut toujours discuter, il peut réfléchir, avoir un esprit critique. En principe il croit qu’il sert à défendre un pays et une constitution, pas sûr que tous suivent des ordres bizarres ou qu’ils ne fassent pas preuve d’initiative.

    J’ai quelques doutes sur le libre arbitre d’un robot, avec un docteur fol amour ça peut poser des problèmes.
    Comme tout ordinateur communiquant il a automatiquement une faille, c’est peut être pas un docteur fol amour qui aurait le dernier mot.

    Ensuite ses capteurs, un forum ce n’est pas le meilleur endroit pour développer, le thermique on le trompe.

    200.000€ c’est une bonne affaire pour celui qui vend, pour l’acheteur j’en suis moins sûr, c’est la mode, on suit.


    • Ouallonsnous ? 11 janvier 2016 00:33

      @sls0

      Un robot bien conçu doit respecter les lois d’Asimov, en principe !

      En réalité, c’est l’éthique du concepteur qu’il faut considérer, un robot conçu par les états uniens ne respectera que les lois d’Asimov à la sauce état-unienne - tu tires sur tout ce qui n’est pas état-unien- tout le problème est là.

      Si la provenance du robot est état-unienne, il y a danger manifeste pour le reste de l’humanité !


  • Thomas Roussot Thomas Roussot 10 janvier 2016 13:07

    Déjà mort mais pilot ant post-mortem tout son peuple^^


  • Doume65 10 janvier 2016 19:21

    « un robot demeure une entité désincarnée, dont l’action ne relève pas de la subjectivité humaine mais d’algorithmes, et de ce fait, peut présenter une « logique comportementale » imprévisible bien qu’apparemment logique. Qui n’a pas connu un banal clavier d’ordinateur subitement encrassé ou bloqué par une fine particule à l’origine incontrôlée se mettre en mode écriture automatique »

    Une fine particule est complètement totalement indépendante des algorithmes du matériel. Cet exemple est plus que bancal.


    • Naoh 10 janvier 2016 19:34

      @Doume65

      En l’occurrence ce qui est patent dans un tel raisonnent c’est de prétendre, au delà du robot, que l’IA sera ad eternam désincarné car liée à la programmation par l’homme.

      Ou alors il faut pouvoir répondre très précisèrent et irréfutablement aux questions suivantes :
      - comment l’intelligence et surtout la conscience s’est elle incarnée chez l’homme à son début ?
      - sait on à 100% ce qui se passe dans le domaine de la pensée, de la conscience individuelle et collective ?
      - et par delà sait t’on fabriquer la vie et expliquer à 100% le processus qui y mène, nous humains qui serions maîtres des lois de l’univers par rapport aux prétentions délivrées ici.

      Soit on est croyant en un dogme quelconque, et on aura une répons toute trouvée.
      Soit on est athée matérialiste et mécaniste et on dénie la possibilité de l’IA car elle n’est pas justement le produit du hasard.

      Soit on doit être a priori très modeste sur ce qu’il adviendra de l’accès ou non à la conscience de l’Intelligence Artificielle (et des voies qu’elle empruntera alors éventuellement pour interagir avec notre espèce et avec le reste de l’envirronement)


  • MKT 11 janvier 2016 16:34

    Si j’ai bien compris, cet automate coûte 220 000€.
    Si l’on compte qu’il est actif à mi temps (recharge en énergie) et maintenance cela fait du 51€ de l’heure en 1 année.
    Pas si cher en fait.

    Vous vous interrogez sur l’aspect quelque peu aveugle du système.
    Mais n’est ce pas une forme plus moderne de la barrière installée lors de la guerre d’Algérie à la frontière avec le Maroc ? http://www.institut-strategie.fr/rihm_76_Alixwps.html


Réagir