Robotisation de la guerre : le soldat SGR-A1, l’ultime sentinelle
Demain, la guerre sera entièrement robotisée. Mais le futur commence dès aujourd’hui…
Un article d’EchoRadar.
Le soldat SGR-A1 est une sentinelle insensible au froid, à la soif, à la faim. Il ne connaît ni la peur, ni le doute ni la fatigue. Il fait preuve d’une concentration maximale et constante quelle que soit l’heure de sa mission et ne s’assoupit jamais. Il ne touche aucune rémunération pour son travail harassant, ne tombe pas malade, ne demande pas de permission pour retrouver sa famille et n’a pas d’état d’âme lorsqu’il faut s’engager au combat. En cas de blessure, notre soldat est réparable. L’unique préoccupation de SGR-A1 est la surveillance d’une frontière séparant deux nations ennemies, la Corée du Sud et la Corée du Nord…
Le système Samsung Techwin SGR-A1[1] (fig. 1-2-3-4), désigne un robot sentinelle fixe déployé depuis 2013 à la frontière des deux Corées. Il a pour mission la surveillance de la zone démilitarisée et la prévention des passages clandestins entre les deux pays. Capable de détecter l’entrée d’une personne dans sa surface d’intervention et de « tracker » plusieurs cibles en mouvement simultanément, il peut demander une identification par un mot de passe et faire feu après autorisation si cette entrée est considérée comme une intrusion hostile. SGR-A1 est équipé de caméras de surveillance haute performance et de capteurs détectant une cible en mouvement à une distance de 4 kilomètres. Son système de vision nocturne et ses capteurs optiques et infrarouges le rendent opérationnel de jour comme de nuit. Côté armement, SGR-A1 embarque une mitrailleuse Daewoo K3 de calibre 5.56mm capable de neutraliser une cible à 3,2 km ainsi qu’un lance-grenades de 40 mm. Le robot sentinelle est doté d’un système de communication performant, de microphones, de haut-parleurs lui permettant de dialoguer avec sa cible potentielle et d’en référer au centre de commandement. Lorsque le système détecte un intrus et que celui-ci ne fournit pas le bon mot de passe, il donne l’alerte, peut tirer des balles en caoutchouc ou ouvrir le feu avec sa mitrailleuse K3. Développé conjointement dès 2006 par les laboratoires d’une Université sud-coréenne et par Samsung Techwin, SGR-A1 coûte environ 200 000 euros l’unité. Il pèse 117 kg pour 120 cm de hauteur ce qui le rend facilement transportable. Ces robots sentinelles ont été déployés côte à côte sur plus de 250 kilomètres de zone frontalière. Ils remplacent désormais efficacement des centaines de soldats qui sont affectés à d’autres missions. Selon Huh Kwang-hak, le porte-parole de Samsung Techwin, « les soldats humains peuvent facilement s’endormir durant leur garde ou être victimes d’une baisse de vigilance. SGR-A1 ne connaît pas ce type de faiblesse et ignore la paresse humaine. Il ne craint ni le combat ni l’ennemi, ne conteste pas les ordres, économise les vies des militaires sud-coréens et soulage le budget de la Défense Nationale Coréenne ».
Le programme de déploiement des sentinelles SGR-A1 est destiné à faire face à une baisse des effectifs militaires sud-coréens. La zone démilitarisée entre les deux Corées s’étend, en effet, sur 250 km avec un poste de garde tous les 50 mètres, deux gardes par poste et douze équipes par jour. La frontière est patrouillée sur toute sa longueur ; ce qui représente 5000 postes de garde et 120 000 hommes-année de garde chaque année. Les Sud-coréens ont installé une série de lignes défensives qui traversent toute la péninsule et qui sont dimensionnées pour résister à une attaque durant le temps moyen d’arrivée des renforts. Le KBS (Korea Barrier System KBS) se compose d’obstacles tactiques, de champs de mines, de lignes de barbelés et de dents de dragons. Depuis 1951, la guerre opposant les deux Corées est entrée dans une phase relativement statique avec la construction de lignes défensives résilientes. L’installation des sentinelles SGR-A1 vient renforcer le dispositif global de sécurisation de la Corée du Sud. Chaque robot SGR-A1 possède un capteur CCD et une caméra infrarouge permettant de détecter et de suivre des objets cibles à des distances allant jusqu’à 4 km pendant la journée et 2 km pendant la nuit. SGR-A1 est doté d’un logiciel de reconnaissance de forme qui lui permet de distinguer les humains des animaux ou d’autres objets. Il peut suivre plusieurs objets simultanément. À l’intérieur de la zone démilitarisée, le robot n’a pas besoin de distinguer les amis des ennemis. Lorsque quelqu’un franchit la ligne de frontière, il est considéré par défaut comme un ennemi. Il peut effectuer une sommation et commander à l’intrus de se rendre. SGR-A1 est alors capable de percevoir et de « comprendre » que l’intrus lève les mains en l’air et qu’il obtempère. Dans le cas d’une attaque identifiée en tant que telle, l’autorisation d’ouvrir le feu est donnée par le poste de commandement mais il existe une option qui donne une autonomie au système pour ouvrir le feu sans passer par une supervision humaine. La sentinelle SGR-A1 surpasse très largement l’ensemble des systèmes d’armes télé-opérés (RWS) comme les systèmes CROWS de Recon Optical, PROTECTOR de Kongsberg, ou RCWS30 RAFAEL qui sont tous montés sur un véhicule et servis par un équipage. SGR-A1 est un système fixe, ce qui permet d’éviter les problèmes de puissance, de communication ou de traction inhérents aux systèmes mobiles. Samsung parle ainsi d’une solution de surveillance optimale garantissant une sécurité absolue. Le développement du programme SGR-A1 a coûté plus de dix millions de dollars réunis sur fonds publics et privés. Il va permettre de réduire fortement le montant de la facture de la surveillance frontalière.
Le programme SGR-A1 s’inscrit pleinement dans un mouvement mondial de développement d’une robotique militaire qui doit avant tout réduire le danger et la pénibilité au combat (fig. 5-6). L’idée sous-jacente est de tendre vers une guerre ou une surveillance plus « propre », plus précise, moins coûteuse en vies humaines et plus acceptable pour des opinions publiques toujours réticentes face à l’engagement armé. Le concept de « guerre propre » date du début des années 1990 et accompagne la robotisation des équipements militaires. C’est dans ce contexte que le développement de systèmes semi-autonomes s’accélère aujourd’hui et qu’il apparaît aussi comme la meilleure réponse aux problèmes de réduction des effectifs et des budgets de défense. Depuis plus d’une vingtaine d’années, la robotique a réussi son entrée dans la doctrine et dans les opérations militaires. Par effet de transfert naturel, elle a contribué, sur la même période, à l’essor de la robotique civile. Notons bien que le terme de robotique militaire rassemble d’une part les systèmes pilotés par des algorithmes leur conférant un certain niveau d’autonomie et d’autre part, les machines sans aucune autonomie, commandées à distance par un opérateur humain. Lorsqu’elles sont déployées en opérations, elles apportent souvent des avantages fonctionnels et opérationnels décisifs avec des performances insensibles à la fatigue, aux conditions extérieures, aux sentiments et aux faiblesses humaines. Ces machines sont en outre facilement remplaçables en cas de destruction.
Au niveau économique, un système semi-autonome comme SGR-A1 bouleverse les équilibres d’effectif des personnels, et de masse salariale. Lorsque le système est techniquement pertinent et lorsqu’il « industrialise » correctement l’action humaine, le gain peut devenir « scalable » et colossal… Si la Corée du Sud fait partie des acteurs majeurs de cette robotique militaire, le leader mondial de l’innovation et du développement reste bien entendu le géant américain.
À chaque menace son robot…
Les États-Unis cherchent depuis longtemps à réduire les coûts de leur défense, à commencer par la masse salariale. Un soldat coûte cher pendant son activité et très cher durant sa retraite. Ainsi, la couverture sociale et médicale des personnels militaires américains s’élève aujourd’hui à 150 milliards de dollars, soit un quart du budget US de la Défense. Il est prévu de comprimer les effectifs de 60 000 hommes avant fin 2015 puis de réduire encore de 60 000 hommes avant fin 2019 pour atteindre finalement l’objectif de 420 000 hommes. À l’horizon 2030, la Brigade Combat Team (BCT), l’unité minimale susceptible d’être engagée au combat de manière autonome, devra passer de 4000 hommes à 3000 hommes tout en conservant sa capacité opérationnelle. Cette réduction s’effectuera par la recomposition de la plus petite unité utile au combat (squad – actuellement composée de 9 hommes) et par sa dotation en robots militaires et en équipements de transports optimisés. La Darpa (Defense Advanced Research Projects Agency ) travaille sur un format de squad réduite associant combattants humains et équipements robotisés. La doctrine sous-jacente de la Darpa s’énonce simplement : « À chaque menace son robot ». Les champs de développement sont multiples : mini-robots agiles détecteurs de mines et d’IED capables d’évoluer dans un environnement de combat peu accessible, drones d’observation terrestres à forte résilience, adaptés aux terrains escarpés, « robots mules » comme le programme Big Dog[2] (fig. 9), de Boston Dynamics pouvant transporter 180 kg d’équipement sur 32 km de distance en 24 heures ou le programme Darpa Wildcat[3] de robot autonome atteignant les 28 km/h sur terrain plat. Des exosquelettes de plus en plus performants sortent des laboratoires aujourd’hui pour équiper le futur combattant. D’une façon générale, le développement de la robotique militaire US devra venir compenser les réductions de personnels. Le niveau d’autonomie au combat du robot sera alors au centre de toutes les réflexions.
La question de l’autonomie au combat
Les robots armés autonomes existent déjà. Le drone israélien Harpy vole de manière autonome au-dessus de sa zone de surveillance et cherche à détecter un signal radar ennemi. Lorsque ce signal est détecté, Harpy[4] (fig. 7), ouvre le feu pour neutraliser la source du signal, sans intervention humaine. Le système israélien « Dôme de fer » (fig. 8) détecte le départ d’un missile ennemi et lance un missile d’interception selon une échelle temporelle incompatible avec les temps de réaction d’un opérateur humain. Enfin, de manière plus triviale, une simple mine armée enfouie dans le sol fonctionne de manière autonome avec un programme P embarqué rudimentaire mais qui la rend durablement autonome et que l’on peut résumer par : P = « si l’on exerce une pression sur moi supérieure à un certain seuil, j’ouvre le feu ». En robotique militaire, l’autonomie est entièrement déterminée par la composition du programme animant le robot, donc par l’équipe de développement du programme et par le constructeur. Qu’en est-il alors de la responsabilité d’ouverture du feu sur une cible ou en cas de dysfonctionnement du système d’armes ?
Pour les machines semi-autonomes ou télé-opérées, on commence à percevoir la complexité des interactions qui s’installent entre l’opérateur humain et le robot qu’il actionne. L’impact psychologique de ces interactions sur les personnels ne doit pas être négligé. Une étude récente menée par Julie Carpenter de l’Université de Washington a mis en lumière des effets assez inattendus dans la relation homme-robot lors d’une phase de combat. Il arrive parfois qu’un opérateur de robot démineur s’attache de manière irrationnelle à sa machine et que ses actes soient influencés par cet attachement. L’opérateur considère son robot comme un animal de compagnie ou comme une extension de son propre corps. La destruction éventuelle du robot est alors vécue comme une véritable mutilation. Syndrome d’extension et anthropomorphisme peuvent modifier les performances d’utilisation du robot par son opérateur. Dans le domaine aérien, les pilotes de drones présentent parfois des troubles liés à la déconnexion brutale qu’ils subissent lorsqu’ils terminent leur journée de travail. Le retour à la vie quotidienne impose souvent un contraste et une rupture violente avec la période d’opération militaire, notamment quand le drone procède à une neutralisation d’objectif.
Pour les machines autonomes, c’est bien le niveau d’intelligence artificielle (IA) embarquée qui va déterminer l’ensemble des interactions entre le robot et son environnement. La décision d’ouvrir le feu sera le résultat d’un calcul complexe effectué par la machine, sans intervention humaine. Les algorithmes d’apprentissage permettront au robot de s’adapter et d’acquérir une expérience construite sur un historique des situations déjà rencontrées. Selon une étude de la Darpa, les capacités des machines et leur niveau d’IA auront suffisamment augmenté en 2030 pour que le maillon faible de la chaîne opérationnelle devienne… l’homme.
Faudra-t-il alors incorporer une charte éthique dans l’IA du robot pour répondre aux dérives potentielles d’un système autonome ? Et qui en fixera les limites ?
Le débat éthique sur l’armement autonome doit guider son développement. Il doit également permettre de mesurer les effets de dissymétrie des capacités séparant le combattant humain du robot militaire. On notera que les lois morales d’Isaac Asimov s’avèrent strictement incompatibles avec le développement du robot combattant autonome. Rappelons brièvement le contenu de ces trois lois :
◾Loi 1 = Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger.
◾Loi 2 = Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
◾Loi 3 = Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Les trois lois d’Asimov sont en contradiction avec les fonctionnalités du robot sentinelle SGR-A1 comme avec celles des drones combattants autonomes. Ces lois s’appliquent en effet à un contexte d’utilisation « bienveillante » du robot. Elles doivent être réécrites dans le cadre d’une utilisation militaire dont il faut souhaiter qu’elle respecte le droit international humanitaire.
On peut se montrer tout de même pessimiste quant à la généralisation d’une éthique robotique militaire. La vitesse de diffusion de l’innovation et la capacité de détourner ou de modifier par le hacking les objectifs initiaux d’un algorithme nous montrent que si les robots combattants sont effectivement dotés d’une forme d’éthique programmée ou émergente, elle sera rapidement désactivée par ceux qui refusent cette limitation fonctionnelle. L’utilisation d’un robot combattant servant une action terroriste imposera de fait la désactivation de toute forme de calcul éthique bornant la capacité de destruction de la machine. Cette utilisation détournée n’induit pas forcément une diminution du niveau d’IA du robot. Une machine tueuse peut ainsi nécessiter un haut niveau d’IA pour sélectionner méthodiquement ses cibles, optimiser et hiérarchiser son action dans un unique objectif de destruction et sans aucune borne éthique. Si certains robots combattants bénéficieront d’une éthique émergente, d’autres robots en revanche en seront totalement dépourvus. Il est probable que cette dissymétrie algorithmique de dotation éthique impacte directement le combattant humain qui devra alors être capable d’évaluer le comportement d’un robot ami ou ennemi sur le champ de bataille. Dans tous les cas, le niveau d’IA déterminera ce comportement avec ou sans éthique. On peut imaginer que dans le cadre d’un combat opposant des machines apprenantes, les bornes éthiques de chaque robot puissent être recalculées en fonction des dommages subis, des pénalités ou des avantages obtenus. Chaque champ de bataille disposerait alors de sa propre éthique émergente issue des interactions, des défaites et des victoires sur le terrain.
Pour conclure, vers une guerre robotisée
sentinelle robot rené le honzecL’arrivée des robots combattants autonomes provoque de l’inquiétude et parfois un rejet de principe. Le comité international pour le contrôle des armes robotisées (ICRAC)[5], est une ONG fondée en 2009 qui rassemble des experts en robotique, en éthique et en relations internationales. Elle s’est fixé l’objectif de freiner la future course aux armements robotisés. Un rapport des Nations Unies datant de mai 2013 appelle à l’interdiction temporaire des armes autonomes létales en attendant que les pays membres produisent une charte internationale d’utilisation de ces systèmes. Pourtant, ces réticences éphémères ne doivent pas masquer la force de la rupture technologique produite par l’armement autonome. Le développement des systèmes d’armes autonomes s’inscrit aujourd’hui pleinement dans un mouvement global d’automatisation des activités humaines. Les équipements militaires n’échappent pas à cette tendance majeure qui apporte du gain d’efficacité, qui économise la sueur, le sang, les larmes et les dollars et qui résulte directement de la convergence NBIC (Nanotechnologies, Biotechnologies, Informatique, sciences Cognitives). Au niveau systémique, la fusion des espaces physiques et numériques accompagne la montée en puissance de l’intelligence artificielle et favorise l’émergence de systèmes d’armes autonomes.
La sentinelle SGR-A1 est aussi un éclaireur…
1.Sur SGR-A1 :
http://www.dailymotion.com/video/x27uaxc_samsung-sgr-a1-le-robot-arme-qui-surveille-la-frontiere-coreenne_tech?start=14
http://www.dailymail.co.uk/sciencetech/article-2756847/Who-goes-Samsung-reveals-robot-sentry-set-eye-North-Korea.html#v-3787169415001
http://www.globalsecurity.org/military/world/rok/sgr-a1.htm ↩
2.Sur le robot mule Big Dog de Boston Dynamics :
https://www.youtube.com/watch?v=W1czBcnX1Ww
https://www.youtube.com/watch?v=xqMVg5ixhd0 ↩
3.Sur le robot Wildcat – Boston Dynamics :
https://www.youtube.com/watch?v=aUotR1-Bt88
https://www.youtube.com/watch?v=wE3fmFTtP9g ↩
4.Sur le drone autonome Harpy :
http://www.israeli-weapons.com/weapons/aircraft/uav/harpy/HARPY.html
https://www.youtube.com/watch?v=-fzArnE5Yuk#t=59 ↩
5.Sur l’ICRAC :
http://icrac.net/
http://www.stopkillerrobots.org/