Palantir, Israël

Une IA déshumanisante au service d’un génocide

jeudi 12 septembre 2024, par Karel Vereycken

Article paru en avril 2024 dans le mensuel de S&P, Nouvelle Solidarité.

La direction actuelle d’Israël, dans une dérive messianique et aveugle totalement opposée aux valeurs humanistes du judaïsme, s’avère incapable de voir ses propres crimes de guerre et actes génocidaires. Les Palestiniens se retrouvent comme devant un peloton d’exécution qui les extermine par la faim, la soif, le feu et les balles.

Après avoir consacré plusieurs longs articles aux solutions que nous défendons pour amorcer une paix durable dans la région, voici un gros plan sur les dangers extrêmes de l’Intelligence artificielle (IA), cette « belle » découverte à haut risque contre laquelle nous avons été assez seul, en tant que parti politique, à mettre en garde .

Aujourd’hui, c’est d’Israël lui-même et de France que viennent les alertes. La aussi, une mobilisation citoyenne sera essentielle. Wall Street a déjà bien trop misé sur les profits futurs de l’IA pour reculer.
Texte

Dans un article amplement sourcé publié le 15 février par The Conversation, Laure de Roucy-Rochegonde, experte au Centre d’études de sécurité de l’Institut français des relations internationales (IFRI) et Amélie Féréy, responsable du laboratoire d’enquêtes de défense à l’Ecole des sciences politiques de Paris (Sciences Po), offrent un début d’explication : s’appuyant sans réserve sur l’intelligence artificielle tant pour des assassinats ciblés - à savoir les hauts dirigeants du Hamas et du Hezbollah - que pour semer la terreur par des destructions massives, Israël, concluent-elles, réussira à éliminer des milliers de personnes sans pour autant emporter la moindre victoire.

Quelques chiffres en disent long. Fin novembre 2023, les autorités israéliennes ont indiqué qu’au cours des 35 premiers jours du conflit à Gaza, elles avaient frappé plus de 15 000 cibles, soit trois fois plus qu’au cours des 51 jours de l’opération « Bordure protectrice » de 2014.

Quelques jours plus tard,le magazine d’investigation israélien +972 a révélé les raisons de ce rythme effréné : l’emploi d’un programme informatique dopé à l’intelligence artificielle (IA), surnommé Habsora (Evangile en français) fonctionnant comme une « usine à cibles », 24 heures sur 24.

Habsora ne fait que s’ajouter à plusieurs logiciels déjà opérationnels dont Alchimist qui facilite les ripostes, Depth of Wisdom qui cartographie les sols et les sous-sols de la bande de Gaza, et enfin Fire Factory, qui génère en temps réel des plans de frappe par avions et par drones, en fonction du type de cible. Grâce à ces technologies de pointe, l’armée israélienne est désormais capable de frapper plusieurs centaines de cibles par jour, précise l’auteur de l’enquête de +972, Yuval Abraham.

Les tueries de masse, une stratégie militaire

Le gouvernement israélien est confronté à un dilemme : comment cibler correctement le Hamas tout en sauvant les otages ? Depuis la seconde Intifada (2000-2005), Tsahal combine deux usages de la force. La première est celle des « assassinats ciblés » contre des hauts responsables de l’ennemi.

La seconde est connue comme la « Doctrine Dahiya », une doctrine militaire formulée par le général israélien Gadi Eizenkot (membre du conseil de Défense actuel) qui se rapporte au contexte de guerre asymétrique en milieu urbain, et qui prône un usage de la force « disproportionné » au cours de représailles contre des zones civiles servant de base à des attaques, dans un but de dissuasion. Il s’agit, en dépit du principe de base du droit de la guerre, de ne plus faire de distinction entre cibles civiles et militaires.

Aujourd’hui, Tsahal cherche à liquider les quatre chefs militaires du Hamas : Yahya Sinouar, son frère Mohammed Sinouar, Abu Ubaida et Mohammed Deif. Incapable de les localiser et de les éliminer, l’armée israélienne affiche une image de défaite. Faute de victoire, elle intensifie les représailles disproportionnées.

Et comme le notent les chercheurs de Science-Po le lanceur d’alerte israélien dénonce

la ‘politique du chiffre’ dont découle cette capacité à identifier des centaines d’objectifs chaque jour. Il relate ainsi que les militaires auprès desquels il a enquêté estiment être ‘jugés sur la quantité de cibles qu’ils arrivent à désigner, pas sur leur qualité’, dans le but de créer un effet de choc au sein de la population gazaouie.

.

L’utilisation au grand jour et sans scrupules des algorithmes de l’IA révèle le caractère barbare des guerriers israéliens. Jusqu’ici, un certain flou sur le nombre de victimes collatérales entourait les assassinats ciblés. Ce n’est plus le cas. Avec l’algorithme d’Habsora, Tsahal sait avec précision combien de femmes, de vieillards et d’enfants sont présent dans l’immeuble où se trouve sa cible.

+972 rapporte que si, jusqu’au 7 octobre, une douzaine de victimes collatérales étaient tolérées pour éliminer un membre exécutif du Hamas, plus d’une centaine de morts civiles sont désormais acceptées dans le cadre d’une « neutralisation » d’un membre subalterne du Hamas.

Cette évolution explique la destruction de bâtiments entiers pour abattre une seule cible répertoriée, comme en témoigne la frappe sur le camp de réfugiés de Jabaliya le 31 octobre 2023, qui visait un seul des chefs de l’attaque du 7 octobre et qui a fait 126 morts, selon le collectif Airwars.

Le recours à des technologies avancées ne conduit pas mécaniquement à l’avènement d’une guerre plus « propre » : les algorithmes ne sont pas ici utilisés pour limiter les dommages collatéraux, mais pour cibler plus massivement, avec un ratio particulièrement élevé de victimes civiles, et ce en toute connaissance de cause.

L’usage des drones tueurs tout comme celui de l’IA comme interface technologique pour sélectionner de façon automatisée les cibles semble donc aggraver la distance émotionnelle qui sépare les humains abattus de ceux qui y procèdent.

On se croirait dans un jeu vidéo à l’époque des sacrifices humains, le « prix à faire payer » aux mécréants pour plaire aux dieux. Sauf qu’il ne suffit pas d’appuyer sur le bouton « replay » pour faire renaître les morts.