Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
17 avril 2024 3 17 /04 /avril /2024 12:25

Bonjour les amis,

L'intelligence artificielle fait partie de la panoplie des nouvelles armes utilisées dans les guerres modernes.

Avant d'aller plus loin je vous invite à lire un très long article du magazine israélien +972, traduit en français par le journal L'HUMANITÉ, au sujet de la guerre menée à Gaza.

Alors cet article donne le vertige à plus d'un titre.

Ces IA sont là pour aider les israéliens à définir et à éliminer certains objectifs, mais sous contrôle et sous  supervision de l'humain.

Ce qui ressort de cet article très instructif c'est, entre autres, que l'humain n'a souvent même pas le temps de faire les contrôles nécessaires et que donc certaines personnes sont éliminées de manière très arbitraire, victimes des aléas de  programmations plus ou moins pertinentes de logiciels informatiques.

Voila qui relativise le concept de "supervision humaine" et qui permet de penser que c'est finalement LAVENDER, une IA, une machine, qui prend la décision de tuer.

Jusque maintenant quand on pensait "Intelligence artificielle" on avait surtout en tête les trois lois de la robotique énoncées par Isaac Asimov.

1.- Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger
2.- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi
3.- Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi

Les IA employées dans cette guerre enfreignent PAR DEFINITION complètement la première loi puisqu'elles sont conçues pour détruire et tuer. Jusque là on peut "comprendre" donc. Ne faisons pas d'angélisme. La guerre c'est la guerre !

Mais ce qui apparaît aussi c'est que cette manière programmée de mener des attaques la nuit sur les domiciles des combattants du Hamas et donc d'anéantir des familles entières dans le but d'éliminer un éventuel membre de l'organisation palestinienne est constitutive d'un crime de guerre.

Pire, le système LAVENDER évalue et s'autorise un certain nombre de victimes collatérales innocentes (15 ou 20...ça dépend de l'objectif). LAVENDER est donc programmé pour un ratio qui permet jusque l'élimination de 15 innocents pour abattre 1 seul coupable.

C'est comme si la preuve du crime de guerre était inscrite au sein même de la programmation de LAVENDER.

Tout ça paraît absolument affolant, vertigineux...

Je terminerai de manière plus générale en disant aussi que si toute guerre est déjà en soi une forme d'aberration, le fait de laisser certaines décisions létales aux intelligences artificielles ne fait qu'accroître un sentiment d'inhumanité et me plonge aussi dans une sorte de vertige métaphysique de l'absurde.

Il ne faut pas grand chose pour devenir suspect aux yeux de LAVENDER.

La vie, la mort, ça tient à quoi ?...parfois à de simples traitements informatiques complètement hasardeux, aléatoires et arbitraires qui penchent dans un sens...ou dans un autre.

Partager cet article
Repost0

commentaires

C
Un extrait d'un article qui devrait vous intéresser.<br /> <br /> <br /> <br /> "En novembre, Abraham a révélé l’existence d’un système d’intelligence artificiell de génération de cibles appelé Habsora («l’Évangile»). J’ai observé dans FOREVER WARS que Habsora met en évidence que l’objet de l’IA militarisée n’est pas la précision mais l’échelle. Cette fois, Abraham, citant six responsables militaires israéliens familiers de l’utilisation du système, dévoile l’existence d’une autre IA de ciblage, celle-ci appelé Lavande. La lavande est essentiellement ce que ceux d’entre nous qui ont étudié les documents du lanceur d’alerte Edward Snowden voyaient à l’horizon comme le résultat final de la surveillance de masse. «Nous tuons des gens sur la base de métadonnées», a reconnu l’ancien directeur de la NSA et de la CIA, Mike Hayden. Lavande, comme indiqué, le fait à grande échelle. C’est une IA de désignation de cibles.<br /> <br /> <br /> Les officiers de Tsahal qui décrivent le système le présentent comme l’aboutissement de la surveillance de masse. Ce n’est qu’à travers la collecte et la conservation de données sur le mode de vie à grande échelle — le genre qu’Israël collecte régulièrement sur les Palestiniens, y compris à Gaza — que Lavande peut générer «une note de 1 à 100, exprimant à quel point il est probable qu’untel soit un militant». Lavande digère les schémas, les habitudes et les caractéristiques du Hamas ou du Jihad islamique palestinien et en extrait les similitudes au sein de la «population générale», ce qui signifie ceux des 2,3 millions de Gazaouis qui pourraient être des militants, un terme ,les officiers le soulignent, qui n’est pas rigoureusement défini. Ensuite, ces personnes sont traquées et tuées, souvent délibérément lorsqu’elles sont à proximité de leur famille. Si vous avez vu Captain America: Le Soldat d’hiver, Lavande est un Project Insight dans la réalité. <br /> <br /> <br /> Les utilisateurs décrivent la lavande comme susceptible de fournir une mauvaise identification de sa cible. Mais «mauvais» n’est pas vraiment la bonne façon de comprendre ce qui se passe lorsque Lavande désigne erronément une cible comme un militant. Au lieu de cela, Lavande reflète les paramètres vagues fixés lors de la définition de la cible par ses opérateurs, et les met à l’échelle. La machine fait une évaluation sur qui s’adapte aux modèles de militantisme, fut-ce à un moment passé de leur vie. L’armée considère ces évaluations comme définitives, possédant comme elles l’imprimatur de l’apprentissage automatique à grande échelle — même si, comme l’écrit Abraham, «la vérification a été largement abandonnée en faveur de l’automatisation»."<br /> https://www.forever-wars.com/kill-lists-in-the-age-of-artificial-intelligence/
Répondre
A
Merci Caius pour ces informations qui m'en apprennent un peu plus sur LAVENDER et qui confirment les suspicions dont je parle sur son côté "très arbitraire " et sur son manque de rigueur, sans compter le fait que LAVENDER (mis à part son utilisation purement guerrière) serait aussi un terrible instrument de contrôle des masses qui porte atteinte aux libertés individuelles.
L
En Syrie, il y a quelques années, Israël a tué un homme dans la banlieue de Damas, avec un misile envoyé direct sur son appartement... L'immeuble entier a été soufflé.
Répondre
A
Evidemment on plaint les pauvres habitants de l'immeuble, victimes collatérales complètement innocentes...Je suppose que s'agissant d'une action en Syrie l'opération était très "pensée" et très ciblée sur un objectif d'importance, un peu comme le général iranien dégommé en Syrie avec 7 gardiens de la révolution...+ 8 victimes collatérales.
R
C'est vraiment terrifiant ! On en arrive à des armes quasi autonomes avec toutes ces victimes collatérales...<br /> <br /> Voici un extrait d'article à ce sujet :<br /> <br /> <br /> Inquiétude de l'ONU autour des armes autonomes<br /> À l’automne 2023, le secrétaire général de l'ONU, Antonio Guterres, a publié un appel - avec le Comité international de la Croix-Rouge - pour demander aux États une chose : interdire ou en tout cas restreindre l’utilisation des armes autonomes dirigées par l’IA. Le fait qu’une machine puisse décider toute seule, par son algorithme, d’attaquer des êtres humains est une ligne rouge morale qu’on ne doit pas franchir, a dit le patron de l’ONU. Pour cela, il faudrait par exemple un traité d’interdiction. Comme pour les mines antipersonnel. Le plus tôt sera le mieux car Antonio Guterres aimerait que le texte soit prêt en 2026.<br /> <br /> En décembre 2023, l’Assemblée générale des Nations unies a fait un pas dans cette direction. Une résolution, qui reconnaît les risques que posent les systèmes d’armes autonomes sur la sécurité mondiale, a été très largement adoptée. On a pu compter 152 "oui", dont celui des États-Unis, qui traînaient des pieds jusque-là. Dans les 4 "non", il y avait ceux de l’Inde et de la Russie et parmi les abstentionnistes se trouvaient la Chine et Israël, pour ne citer qu’eux<br /> <br /> <br /> <br /> https://www.francetvinfo.fr/replay-radio/le-club-des-correspondants/armee-et-ia-l-ukraine-est-devenu-un-laboratoire-pour-ces-nouvelles-armes-intelligentes-qui-inquietent-l-onu_6453404.html<br /> <br /> <br /> <br /> Bonne soirée, AJE
Répondre
A
Merci pour cet article qui complète mon billet d'aujourd'hui, notamment avec cette résolution de l'ONU dont je ne savais rien.<br /> Comme par hasard la Russie, la Chine et Israël ne sont pas signataires.<br /> A noter cet extrait aussi de ton article:<br /> "Mais qu’on soit bien clair : des armes 100% autonomes, comme des drones, qui décident d’éliminer une cible sans jamais qu’un humain intervienne, ça n’existe pas. En tout cas, pas officiellement. Techniquement, c’est tout à fait faisable. La technologie est là...".<br /> L'article de magazine +972 semble montrer que dans les faits les décisions des IA reçoivent l'aval de l'humain sans que celui-ci ne s'entoure du minimum de garanties nécessaires.<br /> <br /> J'ai l'impression que ces nouvelles armes qu'on connaît mal ajoutent une forme de dimension ou de trouble métaphysique que j'ai encore du mal à mesurer à l'heure où j'écris ces lignes.<br /> Bonne fin de soirée l'amie