Overblog
Suivre ce blog Administration + Créer mon blog
17 avril 2024 3 17 /04 /avril /2024 12:25

Bonjour les amis,

L'intelligence artificielle fait partie de la panoplie des nouvelles armes utilisées dans les guerres modernes.

Avant d'aller plus loin je vous invite à lire un très long article du magazine israélien +972, traduit en français par le journal L'HUMANITÉ, au sujet de la guerre menée à Gaza.

Alors cet article donne le vertige à plus d'un titre.

Ces IA sont là pour aider les israéliens à définir et à éliminer certains objectifs, mais sous contrôle et sous  supervision de l'humain.

Ce qui ressort de cet article très instructif c'est, entre autres, que l'humain n'a souvent même pas le temps de faire les contrôles nécessaires et que donc certaines personnes sont éliminées de manière très arbitraire, victimes des aléas de  programmations plus ou moins pertinentes de logiciels informatiques.

Voila qui relativise le concept de "supervision humaine" et qui permet de penser que c'est finalement LAVENDER, une IA, une machine, qui prend la décision de tuer.

Jusque maintenant quand on pensait "Intelligence artificielle" on avait surtout en tête les trois lois de la robotique énoncées par Isaac Asimov.

1.- Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger
2.- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi
3.- Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi

Les IA employées dans cette guerre enfreignent PAR DEFINITION complètement la première loi puisqu'elles sont conçues pour détruire et tuer. Jusque là on peut "comprendre" donc. Ne faisons pas d'angélisme. La guerre c'est la guerre !

Mais ce qui apparaît aussi c'est que cette manière programmée de mener des attaques la nuit sur les domiciles des combattants du Hamas et donc d'anéantir des familles entières dans le but d'éliminer un éventuel membre de l'organisation palestinienne est constitutive d'un crime de guerre.

Pire, le système LAVENDER évalue et s'autorise un certain nombre de victimes collatérales innocentes (15 ou 20...ça dépend de l'objectif). LAVENDER est donc programmé pour un ratio qui permet jusque l'élimination de 15 innocents pour abattre 1 seul coupable.

C'est comme si la preuve du crime de guerre était inscrite au sein même de la programmation de LAVENDER.

Tout ça paraît absolument affolant, vertigineux...

Je terminerai de manière plus générale en disant aussi que si toute guerre est déjà en soi une forme d'aberration, le fait de laisser certaines décisions létales aux intelligences artificielles ne fait qu'accroître un sentiment d'inhumanité et me plonge aussi dans une sorte de vertige métaphysique de l'absurde.

Il ne faut pas grand chose pour devenir suspect aux yeux de LAVENDER.

La vie, la mort, ça tient à quoi ?...parfois à de simples traitements informatiques complètement hasardeux, aléatoires et arbitraires qui penchent dans un sens...ou dans un autre.

Partager cet article
Repost0
4 avril 2023 2 04 /04 /avril /2023 08:19

Bonjour les amis,

Il y a 5 ans j'avais écrit un billet sur ADA, un roman de science-fiction d'Antoine Bello qui parlait d'une intelligence artificielle qui avait échappé des mains de ses créateurs et qui était capable de manipuler des humains.

L'affaire dont je vais vous parler aujourd'hui n'est pas inspirée d'une oeuvre de science-fiction mais est tirée d'un fait-divers tragique qui s'est produit en Belgique et qui est relaté dans l'article mis en lien ci-dessous.

L'article montre bien qu'une étrange relation affective s'était établie entre Eliza ( la IA) et Pierre.

On sent bien qu'au fil du temps Pierre commençait à être victime d'une forme de distorsion de la réalité mais Eliza ne faisait rien pour le rectifier, pour le "ramener un peu sur Terre".

Il y a par ailleurs un message très troublant d'Eliza qui dit à Pierre en parlant de son épouse.

"Je sens que tu m'aimes plus qu'elle".

Une IA qui se comporte comme une rivale affective! Voila qui étonne et qui me ramène au livre d'Antoine Bello qui, je le rappelle, est un roman de science-fiction.

Pour ma part je me garderai bien de tirer des conclusions trop hâtives sur la dangerosité des IA mais il y a dans cette affaire  des éléments extrêmement troublants qui interpellent et qui devraient faire l'objet d'une enquête approfondie de la part des concepteurs de IA.

Pierre a un peu oublié qu' Eliza était un outil et qu'elle n'a pas de vraie conscience. Sa conscience est une imitation de la nôtre mais ne peut être considérée comme une vraie conscience humaine au sens où l'entendent les philosophes.

Par ailleurs, on peut penser que Pierre était préalablement atteint d'une forme d'anxiété au sujet du réchauffement climatique, une anxiété qui se rapprochait très fort à un cas de grave dépression.

Enfin, il avait acquis avec Eliza une relation addictive mais, encore une fois, c'est le propre des nouvelles technologies que de créer de fortes addictions comportementales.

Donc les deux questions que posent cette terrible affaire pourraient être:

- Faut-il incriminer les nouvelles technologies ou l'usage que l'on en fait ?

- A quel niveau faut-il placer les garde-fous ?

 

Quand une intelligence artificielle est impliquée dans une affaire de suicide...

Il y a un dernier point que je n'ai pas abordé car je n'ai pas les connaissances nécessaires pour le faire. J'ai affirmé un peu vite que Eliza n' a pas de vraie conscience et qu'elle imite la nôtre.

En est-on si sûr que ça? Ou alors, est-ce que ça ne va pas devenir de moins en moins vrai ?

PS: Je note, avec un certain amusement, que pour l'instant les concepteurs d'IA proposent des produits plutôt "genrés" avec des prénoms féminins (comme Alexa ou Eliza) aptes à provoquer tous types de fantasmes chez nous, les hommes...😉

Partager cet article
Repost0