Bonjour les amis,
L'intelligence artificielle fait partie de la panoplie des nouvelles armes utilisées dans les guerres modernes.
Avant d'aller plus loin je vous invite à lire un très long article du magazine israélien +972, traduit en français par le journal L'HUMANITÉ, au sujet de la guerre menée à Gaza.
Alors cet article donne le vertige à plus d'un titre.
Ces IA sont là pour aider les israéliens à définir et à éliminer certains objectifs, mais sous contrôle et sous supervision de l'humain.
Ce qui ressort de cet article très instructif c'est, entre autres, que l'humain n'a souvent même pas le temps de faire les contrôles nécessaires et que donc certaines personnes sont éliminées de manière très arbitraire, victimes des aléas de programmations plus ou moins pertinentes de logiciels informatiques.
Voila qui relativise le concept de "supervision humaine" et qui permet de penser que c'est finalement LAVENDER, une IA, une machine, qui prend la décision de tuer.
Jusque maintenant quand on pensait "Intelligence artificielle" on avait surtout en tête les trois lois de la robotique énoncées par Isaac Asimov.
1.- Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger
2.- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi
3.- Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi
Les IA employées dans cette guerre enfreignent PAR DEFINITION complètement la première loi puisqu'elles sont conçues pour détruire et tuer. Jusque là on peut "comprendre" donc. Ne faisons pas d'angélisme. La guerre c'est la guerre !
Mais ce qui apparaît aussi c'est que cette manière programmée de mener des attaques la nuit sur les domiciles des combattants du Hamas et donc d'anéantir des familles entières dans le but d'éliminer un éventuel membre de l'organisation palestinienne est constitutive d'un crime de guerre.
Pire, le système LAVENDER évalue et s'autorise un certain nombre de victimes collatérales innocentes (15 ou 20...ça dépend de l'objectif). LAVENDER est donc programmé pour un ratio qui permet jusque l'élimination de 15 innocents pour abattre 1 seul coupable.
C'est comme si la preuve du crime de guerre était inscrite au sein même de la programmation de LAVENDER.
Tout ça paraît absolument affolant, vertigineux...
Je terminerai de manière plus générale en disant aussi que si toute guerre est déjà en soi une forme d'aberration, le fait de laisser certaines décisions létales aux intelligences artificielles ne fait qu'accroître un sentiment d'inhumanité et me plonge aussi dans une sorte de vertige métaphysique de l'absurde.
Il ne faut pas grand chose pour devenir suspect aux yeux de LAVENDER.
La vie, la mort, ça tient à quoi ?...parfois à de simples traitements informatiques complètement hasardeux, aléatoires et arbitraires qui penchent dans un sens...ou dans un autre.
commenter cet article …