La guerre des drones autonomes

Fonte_www_analisidifesa_it.jpg

Récemment, on a appris que, le 27 mars 2020, un drone turc avait pris, de manière autonome, la décision d’attaquer les troupes ennemies dans la guerre de Libye[i]. Le drone a décidé d’attaquer en se basant sur son algorithme intégré, sans attendre aucune intervention humaine[ii]. Cette nouvelle a mis en évidence la possibilité de nouveaux scénarios de guerre et de changements fondamentaux dans la nature des conflits.

1. Drones de guerre ou «robots tueurs»

En programmant un drone militaire, on peut décider du type de contrôle que l’agent humain exercera sur son pilotage et son apprentissage, allant même jusqu’à le rendre hautement autonome. Sur la base du type de contrôle, on peut distinguer les robots d’attaque militaires qui peuvent agir en mode autonome (LAWS: Lethal Autonomous Weapon Systems), et les autres systèmes militaires robotisés (RMS: Robotized military systems)[iii].

Il est important de distinguer entre un système automatisé et un système autonome. Les deux effectuent des actions sans l’intervention directe et opportune d’un agent humain, mais les actions du premier sont prévisibles et programmées, tandis que celles du système autonome peuvent être imprévisibles et pourraient éventuellement dépasser les objectifs et les actions initialement fixés par le programmeur humain.

Il y a aussi des systèmes robotiques informatisés qui opèrent sur les réseaux informatiques avec des techniques semblables à celles des virus et pourraient provoquer des cyberguerres aux conséquences graves et imprévisibles. Les allégations d’ingérence russe dans l’élection présidentielle américaine de 2016 n’en sont qu’un exemple.

Les RMS sont télécommandés. L’opérateur humain est le seul à pouvoir prendre la décision finale de tirer. Une deuxième catégorie de RMS, plus proche des LAWS, sont les systèmes d’armes semi-autonomes, capables d’identifier des cibles par eux-mêmes, mais l’agent humain les surveille en permanence et peut interrompre leurs actions à tout moment. Il est désormais admis qu’une utilisation éthiquement valable de ces armes semi-autonomes doit être limitée à des tâches défensives telles que la défense antimissile (Otto 101).

La troisième catégorie serait les LAWS, qui sont des systèmes autonomes dans leur fonctionnement et leur apprentissage. C’est pourquoi ils sont également appelés «LAWS innovants». Cela soulève la question de savoir qui sera directement responsable de leurs actions et de leurs «effets collatéraux». L’autonomie avec laquelle ils agissent, une fois activés, les rend aptes uniquement à attaquer des cibles matérielles, comme les systèmes qui bloquent les communications. Toutefois, la ligne de démarcation entre le contrôle humain et l’absence totale de ce contrôle devient de plus en plus floue.

1.1. La difficile tâche de programmer ces drones

Il est très difficile de programmer ces robots de guerre. Les doter de règles éthiques efficaces semble actuellement impossible, car les circonstances réelles sont toujours complexes et l’éthique ne peut être réduite à la logique ou à une application automatisée de normes. De plus, les algorithmes qui en résultent présupposent un choix préalable sur les principes sous-jacents et sur le type d’éthique. Certains auteurs suggèrent que l’éthique utilitariste serait la plus facile à implémenter dans un algorithme, car elle permettrait au logiciel de choisir entre des options dont les effets seraient quantifiables.

Les situations de guerre deviennent de plus en plus complexes. Les parties en conflits armés cherchent à rendre difficile la distinction entre les combattants et les civils. Il n’est pas non plus facile de déterminer, surtout pour un robot, si les soldats ennemis sont déjà hors de combat ou s’ils se sont rendus, ainsi que d’évaluer la proportionnalité de la réponse.

1.2. Les dangers de la guerre robotisée

Le fait d’être robotisée ne rend pas la guerre plus respectueuse de la dignité humaine, car les robots armés agissent froidement, comme un code binaire, sans pitié ni pardon. Certains auteurs affirment que l’utilisation de robots réduirait considérablement le coût humain de la guerre, évitant ainsi les mouvements de contestation qui conditionnent l’action du gouvernement.

Les pays occidentaux orientent déjà le développement de leurs armes dans cette direction. Cela pourrait conduire à une course aux armements encore plus difficile à contrôler que la précédente guerre froide. Le pape François a clairement affirmé que le simple fait de posséder des armes atomiques est déjà immoral[iv]. Cette affirmation peut également être appliquée aux LAWS.

Les conflits armés pourraient également s’intensifier, car les avantages que les pays agresseurs cherchent à obtenir compenseraient le coût réduit qu’ils devraient payer pour utiliser la force armée. Avec moins de dépenses et moins de contestation sociale, la décision d’entrer en guerre serait plus facile à prendre et les responsabilités plus difficiles à déterminer.

Il est facile d’éliminer des milliers de personnes lorsqu’elles ont déjà été réduites à des figurines sur un écran d’ordinateur. En évitant toute forme de relation face à face, l’autre n’est pas perçu comme un «alter ego» mais comme un être anonyme, étranger à moi-même et dont je ne me sens pas responsable.

2. Bases pour surmonter la nouvelle course aux armements

Les LAWS sont justifiés par le fait qu’ils se comporteraient de manière plus rationnelle et équilibrée que l’être humain. Certains auteurs prétendent que ces robots de combat réduiraient le nombre de vies innocentes et commettraient moins de crimes de guerre, n’étant pas soumis à des passions humaines telles que la peur, la vengeance ou la haine.

2.1. Nécessité de dépasser la conception anthropologique négative

Les arguments utilisés pour justifier l’utilisation des LAWS reposent sur une conception anthropologique négative (homo homini lupus). Nous devons adopter une conception anthropologique plus positive. En effet, les arguments ci-dessus pour préférer les LAWS aux humains peuvent également être utilisés dans le sens inverse.

Dans la perspective chrétienne, l’être humain est intrinsèquement social, capable de pardonner et de montrer de la compassion, car il est doté d’un profond sens moral et d’une inclination naturelle à ne pas tuer. Au lieu de déléguer les questions de vie et de mort aux machines, nous devons les assumer de manière responsable, en favorisant toujours l’ouverture au pardon et au don de soi. La paix durable se construit sur la réconciliation, le dialogue, le pardon, et non sur la violence et l’oubli.

Seul l’homme peut construire une communauté de valeurs, fraternelle et authentiquement humaine. Il ne peut pas déléguer cette tâche aux machines. Le froid calcul des LAWS, fondé sur le principe de l’utilité maximale, pourrait les conduire à faire des massacres. De plus, l’être humain est capable de dépasser la logique d’équivalence qui régit la justice pour embrasser la gratuité et le pardon, ouvrant ainsi un avenir d’espérance et de fraternité.

2.2. La doctrine de la guerre juste n’est plus valable

La conception anthropologique négative a conduit à considérer la guerre comme inévitable et donc à justifier la course aux armements. Cette doctrine est également utilisée pour justifier et régulariser les LAWS.

L’encyclique Pacem in Terris a marqué le point final des références officielles de l’Église à la doctrine de la guerre juste[v], puisque la puissance destructrice des armes modernes empêche la guerre d’être une réponse proportionnée pour réparer l’injustice. Cela est encore plus évident dans la guerre robotisée, car les LAWS sont incapables d’appliquer correctement le principe de proportionnalité, qui requiert de prendre en considération de nombreux éléments. De plus, la guerre aujourd’hui n’est pas un moindre mal, mais le plus grand mal (FT 258).

L’Église enseigne que la guerre «est toujours un échec de l’humanité» (FT 261), «la négation de tous les droits et une agression dramatique contre l’environnement» (FT 257). La guerre robotisée accentue cette déshumanisation et donc ne peut pas être promue comme une solution. Pour briser la spirale de la violence, nous devons surmonter les attitudes qui l’ont engendrée et les injustices qui l’alimentent.

Il y a déjà des instruments alternatifs pour rétablir la paix et la justice sans recourir à la guerre. On peut donc affirmer qu’actuellement les conditions qui pourraient justifier l’application de cette doctrine n’existent plus. Un argument similaire a été utilisé pour rejeter la peine de mort. Le pape François enseigne que les deux (la guerre et la peine de mort) «sont de fausses réponses, qui ne résolvent pas les problèmes posés, et qu’en définitive elles ne font qu’ajouter de nouveaux facteurs de destruction» (FT 255).

Conclusion

Lorsque des machines autonomes gèrent des aspects importants de la vie sociale, on risque de déshumaniser les relations et d’affaiblir la fraternité universelle. Toute guerre est inhumaine, mais elle le sera encore plus si ceux qui l’exécutent sont des machines autonomes et que personne n’assume la responsabilité directe de leurs actions.

Tout système d’armes à capacité létale doit rester sous la supervision absolue de l’homme. Par conséquent, il faut interdire le développement de LAWS complètement autonomes dans leurs actions et leur apprentissage.

La violence provoque davantage de violence. Seuls la gratuité et le pardon peuvent faire naître une authentique fraternité universelle.

p. Martín Carbajo Nuñez, OFM


[i] Texte intégral et détaillé avec d’abondantes références bibliographiques : Carbajo Núñez M., «La guerre des drones autonomes», in Verdad y Vida 280 (2022). En italien : Laurentianum 63/1 (2022).

[ii] Apps P., «New era of robot war may be underway unnoticed», Reuters (10.06.2021), in Internet : https://www.reuters.com/article/apps-drones-idUSL5N2NS2E8.

[iii] Cf. Otto P. – Gräf E., 3th1cs. A reinvention of ethics in the digital age?, [Otto], Irights Media, Berlin 2017.

[iv] François, «Rencontre pour la paix, Hiroshima» (24.11.2019), in OR 269 (2019) 8.

[v] Cf. Lorenzetti L., «Pacem in terris, svolta per la teologia morale», in RTM 179/3 (2013) 347-355. «Alienum est a ratione» (PT 67).

Nessun commento

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *