Le rôle de l’Intelligence artificielle dans la campagne génocidaire israélienne

Israël utilise des technologies d’intelligence artificielle dans sa campagne génocidaire à Gaza pour assassiner des Palestiniens, employant pour ce faire des entreprises technologiques israéliennes et américaines. Cependant, il existe une longue histoire de pratiques de surveillance en Palestine occupée qui nous a conduits jusqu’à aujourd’hui.

L’intelligence artificielle (IA) est définie de manière générale comme des machines capables d’effectuer des tâches qui requièrent généralement l’intelligence humaine. Des décisions peuvent être prises et des algorithmes peuvent analyser des données de surveillance beaucoup plus rapidement qu’il n’est humainement possible de le faire.

Antony Lowenstein, auteur de The Palestine Laboratory, a déclaré lors du forum annuel Palestine Digital Activism au début du mois de juin : « Je crains que dans les années à venir, c’est [l’intelligence artificielle] qui sera dénoncée. ‘Ce n’était pas nous, c’était la machine.’ Non… ce n’est pas une machine qui a pris la décision d’appuyer sur le bouton pour bombarder une maison. C’est un humain qui a pris cette décision. Un Israélien ».

Gaza

Des rapports sur les systèmes de traitement de données basés sur l’IA « Lavender », « Gospel » et « Where’s Daddy », développés et utilisés par les forces d’occupation israéliennes [IOF] dans leur campagne génocidaire contre Gaza, ont attiré l’attention du plus grand nombre, incitant les journalistes à qualifier Gaza de site du premier génocide basé sur l’IA.

La technologie de l’IA aurait été utilisée pour la première fois à Gaza lors de l’assaut israélien de 11 jours en 2021. Pendant le génocide en cours, elle est utilisée pour la première fois pour tuer des Palestiniens à un niveau sans précédent et à un rythme beaucoup plus rapide.

Ces trois systèmes connus identifient des « cibles » pour les frappes aériennes en se basant sur les enregistrements de surveillance de masse des Palestiniens de Gaza, collectés depuis des années par l’OIF dans le cadre raciste de la surveillance de ce qu’ils considèrent comme des « menaces » pour le régime israélien.

Le système « Gospel » « recommande » des bâtiments et des structures à frapper, tandis que les systèmes « Lavender » et « Where’s Daddy » « recommandent » des personnes à tuer et suivent leur localisation pour déterminer le moment où une frappe doit être effectuée.

Ces « recommandations » sont approuvées par l’armée israélienne pour des frappes aériennes sur des zones urbaines civiles densément peuplées, sans pratiquement aucun examen.

Quelques agents des services de renseignement israéliens ont déclaré au magazine +972 qu’ils ne prenaient « personnellement » que 20 secondes pour examiner et approuver la recommandation de frappe aérienne, et qu’ils n’utilisaient ce temps que pour confirmer que la « cible » est un homme.

Il n’est pas certain qu’il s’agisse là d’une politique réelle. En août, cependant, le Haut-Commissaire des Nations unies aux droits de l’homme a publié une déclaration révélant que la majorité des personnes tuées à Gaza sont des femmes et des enfants.

Israël n’essaie pas de procéder à un nettoyage ethnique d’un sexe ou d’un groupe d’âge particulier : il vise tous les Palestiniens. Les mensonges et les justifications entourant la fonctionnalité et la « précision » de ces technologies militaires basées sur l’IA sont destinés à rassurer et à « épater » le monde occidental colonialiste.

C’est ce qui est apparu clairement lorsque les attaques terroristes israéliennes par téléavertisseur ont mutilé, rendu aveugles et tué des milliers de personnes au Liban, alors que d’innombrables journalistes d’organes occidentaux ayant pignon sur rue, louaient les prétendues prouesses technologiques d’Israël.

Ces systèmes d’IA collectent, recherchent et traitent les données acquises par les outils de la surveillance israélienne des Palestiniens à grande échelle.

La reconnaissance faciale de Google Photos, l’appartenance à des groupes WhatsApp, les connexions aux médias sociaux, les contacts téléphoniques et les données cellulaires, entre autres, sont analysés par le système d’IA pour créer une liste de personnes à abattre.

Les soldats israéliens choisissent ensuite de l’approuver pour bombarder des familles et des quartiers entiers. Ils recommencent encore et encore, à un rythme beaucoup plus rapide qu’auparavant.

Grâce aux progrès de la technologie des armes, ces outils sont censés être extrêmement « précis », en ce sens que l’OIF sait exactement qui elle désigne pour le meurtre. Dans la pratique, cependant, ils ciblent délibérément le peuple palestinien dans son ensemble en vue d’un meurtre de masse.

Le système d’intelligence artificielle peut désigner des cibles beaucoup plus rapidement que les humains et l’armée israélienne dispose de tellement de munitions (fournies principalement par les États-Unis) qu’elle s’est lancée dans une folie meurtrière contre les Palestiniens de Gaza.

L’armée israélienne choisit exactement qui tuer, sachant que des quartiers entiers seront réduits en poussière.

Depuis des décennies, Israël contrôle les infrastructures de télécommunications utilisées par les Palestiniens de Gaza (et de toute la Palestine occupée), notamment les lignes téléphoniques et les réseaux de téléphonie mobile et d’Internet.

Helga Tawil-Souri, spécialiste palestinienne des médias, qualifie ce contrôle d’« occupation numérique », car les télécommunications palestiniennes sont surveillées, ralenties et coupées par Israël, à des fins coloniales et génocidaires.

En 2021, une source israélienne de l’unité de renseignement israélienne 8200 a déclaré à Middle East Eye qu’Israël pouvait écouter toutes les conversations téléphoniques ayant lieu en Cisjordanie et dans la bande de Gaza.

Ces informations alimentent très certainement les machines à tuer dotées d’une intelligence artificielle qui sont utilisées pour le génocide à Gaza.

Selon des agents anonymes des services de renseignement israéliens qui ont parlé au magazine +972, « rien n’arrive par hasard… Nous savons exactement combien de dommages collatéraux il y a dans chaque maison ». La surveillance israélienne calcule et estime le nombre de civils qui seront tués pour assassiner un membre présumé du Hamas ou du Jihad islamique palestinien avant d’approuver les « cibles » des frappes aériennes.

Comme l’a déclaré un soldat israélien au magazine +972, « les FDI les ont bombardés dans les maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations. »

Sophia Goodfriend, spécialiste de l’IA et de la surveillance, souligne la responsabilité israélienne dans ces décisions dans +972 Magazine, en écrivant : « Israël ne s’appuie pas sur des armes entièrement autonomes dans la guerre actuelle contre Gaza ; les unités de renseignement utilisent plutôt des systèmes de ciblage alimentés par l’IA pour classer les civils et les infrastructures civiles en fonction de leur probabilité d’être affiliés à des organisations militantes. Cela accélère et élargit rapidement le processus par lequel l’armée choisit qui tuer, générant plus de cibles en un jour que le personnel humain ne peut en produire en une année entière ».

En décrivant le système « Where’s Daddy », une source anonyme a déclaré à +972 Magazine : « Vous mettez des centaines [de personnes] dans le système et vous attendez de voir qui vous pouvez tuer ».

Il est confirmé qu’Amazon Web Services fournit des services en cloud et des serveurs qui sont utilisés pour stocker des quantités massives de données de surveillance sur les Palestiniens de Gaza. Ces données de surveillance servent à alimenter les systèmes de « recommandation » de meurtre par l’IA décrits ci-dessus.

En avril 2021, Amazon et Google ont signé avec le gouvernement israélien un contrat de 1,2 milliard de dollars portant sur la technologie de l’informatique en cloud dans le cadre du « Projet Nimbus », qui est mis à profit dans le génocide en cours à Gaza, avec une augmentation significative des achats de services de stockage de données et d’IA auprès de ces entreprises dans le cadre du contrat Nimbus.
Un commandant militaire israélien a également partagé publiquement en juillet 2024 que l’armée utilise actuellement l’infrastructure cloud civile des entreprises Amazon, Google et Microsoft pour étendre ses capacités militaires génocidaires à Gaza.

La société américaine Palantir, spécialisée dans l’exploration de données, est également utilisée pour exploiter des systèmes d’intelligence artificielle pour l’armée israélienne, comme l’a rapporté The Nation.

En janvier 2024, la société a conclu un nouveau « partenariat stratégique » pour fournir au régime israélien des systèmes d’intelligence artificielle afin de traiter les données de surveillance sur les Palestiniens et de les cibler dans les « missions liées à la guerre » actuelle, ce qui inclut sans aucun doute la campagne militaire génocidaire à Gaza.

En janvier, le conseil d’administration de Palantir a également tenu sa première réunion de l’année en Israël, où Alex Karpe, cofondateur et PDG de l’entreprise, a signé dans la foulée l’accord réactualisé avec le ministère israélien de la défense, dans son quartier général militaire.

Palantir est une entreprise américaine qui entretient des liens étroits avec le « contre-terrorisme », les services de police et les opérations militaires des États-Unis.

Son PDG se targue d’être « très bien connu en Israël. Israël apprécie notre produit… Je suis l’un des rares PDG à être publiquement pro-israélien ».

La surveillance n’est pas une nouveauté

La surveillance, un terme qui est entré dans le lexique public aujourd’hui avec ses manifestations numériques expliquées ci-dessus, n’a rien de nouveau. Il s’agit d’un système conçu pour surveiller, contrôler et déposséder les personnes, avec ou sans technologie numérique.

Sous l’occupation britannique de la Palestine avant la Nakba, puis sous l’occupation israélienne, les Palestiniens ont subi une surveillance « low-tech » par le biais de cartes d’identité obligatoires, de registres de population, de points de contrôle, de couvre-feux, de miradors, de frontières artificielles, d’emprisonnements, de murs, et bien d’autres choses encore.

La surveillance a ses racines dans les entreprises coloniales : dans le monde entier, les colonisés savent très bien qu’ils sont surveillés à des fins de contrôle et de dépossession, et de nombreuses pratiques de surveillance biométrique ont été développées et utilisées dans des contextes coloniaux.

Comme l’ a écrit le chercheur palestinien Fayez Saygeh en 1965, « pour l’État colonisateur sioniste, exister, c’est préparer et s’efforcer d’étendre son territoire ».

Les technologies de surveillance contribuent à cette expansion en opprimant les Palestiniens et en élargissant la portée de ce qu’Elia Zureik, éminent spécialiste palestinien de la surveillance, a appelé le « regard israélien » sur la vie des Palestiniens.

La surveillance est rarement une simple observation : c’est un outil qui permet le contrôle des mouvements, la violence physique, les déplacements forcés et le génocide.

Zureik a souligné que la surveillance est un outil de pouvoir « intimement lié au processus d’altérisation, par lequel l’affirmation de soi et la construction de l’identité du colonisateur sont configurées sur la base de la stigmatisation et du dénigrement de l’identité de l’autre, le colonisé ».

Les Palestiniens sont censés se sentir constamment observés et surveillés en tant qu’outil du colonialisme sioniste. Il s’agit d’un phénomène de racialisation, ce qui signifie que les Palestiniens se voient attribuer des identités raciales inférieures à celles des colons israéliens, qui sont censés les opprimer et les coloniser par la pratique de la surveillance.

Aujourd’hui, le régime de surveillance high-tech basé sur l’intelligence artificielle poursuit les mêmes objectifs, mais avec encore plus de données collectées abusivement et une capacité technologique accrue à exercer la violence contre davantage de Palestiniens, plus rapidement, grâce à des outils d’intelligence artificielle.

La surveillance actuelle repose sur l’écosystème du « big data », c’est-à-dire la collecte de vastes quantités d’informations sur les Palestiniens occupés à des fins coloniales génocidaires de dépossession.

Ces énormes systèmes de traitement de données basés sur l’IA, tels que « Lavender », sont le reflet direct de l’ère actuelle du « big data ». Les gouvernements, aidés par des entreprises technologiques privées, cherchent à extraire et à exploiter autant de données que possible sur une population afin de l’opprimer.

Mira Yaseen, chercheuse palestinienne en études de surveillance, relie le paradigme du big data à son histoire coloniale. Elle explique à Palestine Square que « les études sur la surveillance négligent souvent les racines coloniales de la surveillance, et lorsqu’elles les reconnaissent, elles semblent ne pas accorder beaucoup d’attention au paradigme du big data, qui reconfigure la surveillance aujourd’hui. »

Elle note que le régime israélien « incorpore de plus en plus de technologies de big data locales dans la gestion de la population », ce qui ne pourrait être plus clair à travers l’utilisation de « Lavender », « Where’s Daddy », « Gospel », et de nombreuses autres technologies basées sur l’IA utilisées à travers la Palestine occupée.

Avec un accès illimité à d’énormes quantités de données de surveillance et la capacité rapidement élargie de les analyser à des fins oppressives, Israël a une capacité sans précédent de commettre des génocides et des déplacements forcés en Palestine, ce dont nous sommes témoins en ce moment même à Gaza.

Lors d’une table ronde intitulée « AI in Times of War : Gaza, Automated Warfare, Surveillance, and the Battle of Narratives » (L’IA en temps de guerre : Gaza, la guerre automatisée, la surveillance et la bataille des récits) au Palestine Digital Activism Forum, l’universitaire Matt Mahmoudi a expliqué comment les Palestiniens étaient soumis à leur insu à la technologie de reconnaissance faciale par l’armée israélienne aux points de contrôle situés le long de la route de Salah Al-Din à Gaza.

Cette route a été désignée comme un « itinéraire sûr » par l’armée israélienne dans les premiers mois du génocide pour que les Palestiniens puissent voyager avec tout ce qu’ils pouvaient transporter, parfois pieds nus, avec des corps martyrisés le long de la route, dans un processus de déplacement forcé du nord au sud de la bande de Gaza.

Cette technologie de reconnaissance faciale – créée par la célèbre unité 8200 du cyberespionnage israélien – est exploitée en partie grâce à la technologie d’une société privée israélienne appelée Corsight et de la société américaine Alphabet via Google Photos.

Ces outils permettent d’analyser les visages à partir de photos granuleuses et dans des espaces bondés. Les hommes et les jeunes garçons palestiniens déplacés qui ont été « identifiés » et désignés comme militants du Hamas par cette technologie sont ensuite pris en otage par les Israéliens et détenus dans des lieux secrets à Gaza et dans le désert d’Al-Naqab (Néguev), où ils sont soumis à d’horribles tortures, notamment des violences sexuelles, des tortures médicales puis des meurtres.

Les essais d’armes expérimentales se font à foison dans ce contexte colonial. De nombreuses technologies de surveillance israéliennes sont d’abord utilisées à Gaza et en Cisjordanie, où le régime militaire israélien et le mépris génocidaire pour la vie des Palestiniens permettent aux entreprises privées de créer des prototypes et d’affiner leurs produits dans le cadre de contrats avec les forces armées israéliennes, avant de les exporter à l’étranger.

La juriste palestinienne Samera Esmeir a commenté l’attaque israélienne meurtrière de huit jours contre Gaza en 2012, qui a tué plus de 165 Palestiniens, dont 42 enfants, tout en rendant le siège – en vigueur depuis 2006 – encore plus contraignant.

Elle avait établi que « la transformation de Gaza en un laboratoire pour l’hégémonie coloniale et impériale dans la région est faite en Israël ».

Cet assaut avait vu la première utilisation documentée de la technologie anti-missile Iron Dome, fournie par les États-Unis.

Elias Zureik a beaucoup écrit sur la nature expérimentale de la surveillance des Palestiniens, s’appuyant sur l’idée d’Aimé Césaire de « l’effet boomerang » pour affirmer que « au-delà de la circulation des technologies et des stratégies de surveillance d’un espace colonial à l’autre, les méthodes adoptées pour surveiller les groupes marginaux et minoritaires perçus comme une menace pour l’État, sont finalement étendues à la majorité, et celles développées dans les colonies font leur retour dans la métropole. »

C’est ce que montrent les outils de surveillance coloniale tels que Pegasus, créé par le groupe israélien NSO, qui est aujourd’hui utilisé dans le monde entier pour pirater les journalistes, les défenseurs des droits de l’homme et les militants.

Cisjordanie

Dans la ville occupée d’al-Khalil (Hébron) en Cisjordanie occupée, où les colons israéliens ont pris le contrôle de certaines parties de la ville – en particulier la vieille ville et ses environs, qui sont sous le contrôle total de l’armée israélienne – la surveillance de masse des Palestiniens au moyen de l’IA est omniprésent.

Des caméras de télévision en circuit fermé – dotées d’une technologie de reconnaissance faciale – font face aux maisons des Palestiniens à Al-Khalil, tandis que d’autres sont installées de force sur les toits des maisons palestiniennes.

Ces technologies d’intelligence artificielle élargissent la portée et la violence des infrastructures de surveillance déjà existantes, telles que les postes de contrôle israéliens, les tours de surveillance, les cartes d’identité et les permis, ainsi que les routes séparées.

Selon le Washington Post, en 2020, l’armée israélienne a mis en place un nouveau programme de surveillance dans le cadre duquel les soldats israéliens ont reçu l’ordre et ont été incités à collecter de force le plus grand nombre possible d’images de Palestiniens dans la zone occupée d’Al-Khalil, afin de constituer une base de données sur les Palestiniens qu’un ancien soldat a qualifiée de « Facebook pour les Palestiniens ».

Une technologie de smartphone gérée par l’armée, appelée Blue Wolf, est utilisée pour effectuer cette surveillance, et les photos capturées sont ensuite comparées à une base de données d’images.

L’application indique si la personne doit être autorisée à passer, détenue ou arrêtée immédiatement, en utilisant les couleurs rouge, jaune ou verte, ce qui permet aux soldats israéliens de terroriser les Palestiniens en toute impunité.

Blue Wolf serait une version compatible avec les smartphones, d’une base de données militaire plus importante appelée Wolf Pack qui stocke les images, les antécédents familiaux, les indices de sécurité, les informations sur les plaques d’immatriculation, les informations sur les permis et leniveau d’éducation des Palestiniens dans l’ensemble de la Cisjordanie.

L’objectif de ces outils militaires est de collecter et de gérer des informations sur chaque Palestinien de Cisjordanie, afin de maintenir et d’étendre le contrôle colonial.

En 2023, Amnesty International a publié un rapport intitulé « Automated Apartheid » (Apartheid automatisé) qui s’appuyait sur les connaissances antérieures concernant ces technologies basées sur l’IA pour documenter une technologie de surveillance appelée Red Wolf utilisée à Al-Khalil et à Jérusalem. Elle serait liée à Blue Wolf et Wolf Pack.

Red Wolf opère aux points de contrôle de l’IOF dans la zone occupée d’al-Khalil (Hébron), où il scanne et enregistre les visages des Palestiniens à l’aide de la technologie de reconnaissance faciale, incorporant les visages dans de vastes bases de données de surveillance à leur insu ou sans leur consentement, ce qui n’est pas possible avec l’application pour smartphone Blue Wolf.

Red Wolf, qui utilise des mécanismes de reconnaissance faciale, est déployé aux points de contrôle militaires. Les visages des Palestiniens qui traversent sont enregistrés automatiquement sans qu’ils le sachent ou y consentent, alors qu’un soldat de l’OIF prend leur photo pour la faire passer dans une base de données.

Ce programme est utilisé pour déterminer si un Palestinien doit se voir refuser le passage ou être détenu au poste de contrôle.

Des chercheurs tels que Rema Hammami ont beaucoup écrit sur la façon dont les points de contrôle israéliens – qui contrôlent les mouvements des Palestiniens dans toute la Palestine occupée – fonctionnent comme des « technologies coloniales » pour faciliter la « gestion biopolitique des populations autochtones [qui] est fondamentalement motivée par les logiques nécropolitiques d’élimination ».

À Jérusalem occupée, la surveillance par l’IA est omniprésente.

Amnesty International a recueilli des informations sur des milliers de caméras de télévision en circuit fermé utilisées dans la vieille ville et faisant partie d’un système de vidéosurveillance appelé « Mabat 2000 », contrôlé par l’OIF, équipé d’une technologie de reconnaissance faciale et opérationnel dans la partie occupée de Jérusalem-Est.

Ce système a été mis en place en 2000 et a été amélioré en 2018 pour inclure des capacités de surveillance biométrique, telles que la reconnaissance d’objets et de visages.

Amnesty International a constaté qu’il y avait une à deux caméras de vidéosurveillance tous les cinq mètres dans la géographie de Jérusalem-Est occupée, et Euro-Med Monitor rapporte que les caméras de vidéosurveillance couvrent 95 % de cette zone.

Dans les quartiers de Sheikh Jarrah et de Silwan, le nombre de caméras de vidéosurveillance a augmenté rapidement au cours des trois dernières années, le gouvernement israélien cherchant à expulser de force les Palestiniens de leurs maisons pour permettre aux colons de s’emparer de leurs propriétés.

Un rapport publié en 2021 par l’organisation palestinienne de défense des droits numériques 7amleh, comprend des entretiens avec des Palestiniens de Jérusalem occupée et fait état d’un sentiment commun d’être constamment surveillés, même à l’intérieur de son domicile.

Ils ont indiqué que cette surveillance était assurée par des caméras de vidéosurveillance ainsi que par le contrôle des médias sociaux par l’armée israélienne, en particulier par la cyberunité israélienne, créée en 2015. Elle travaille avec les entreprises de médias sociaux pour supprimer les contenus palestiniens.

En 2021, un jeune Palestinien de Silwan a déclaré à 7amleh qu’en plus du siège physique et de la surveillance, « nous sommes également soumis ici à un siège électronique ». Ce siège électronique n’a fait que se renforcer pendant le génocide en cours à Gaza, qui a conduit à une escalade des arrestations de Palestiniens dans toute la Palestine occupée pour avoir publié des messages sur les médias sociaux au sujet du génocide.

Les algorithmes de « modération » de contenu automatisés et alimentés par l’IA suppriment de manière démesurée le contenu palestinien à l’échelle mondiale, des algorithmes que Jillian York a qualifiés de « boîte noire » lors de son intervention au PDAF organisé par 7amleh au début du mois de juin 2024.

L’experte palestinienne en droits numériques Mona Shtaya documente le fait que, pendant le génocide en cours à Gaza, Meta « supprime activement le contenu palestinien qui cherche à documenter les violations des droits de l’homme en Palestine, comme les preuves enregistrées relatives à l’attentat à la bombe de l’hôpital arabe al-Ahli » et interdit de manière flagrante et disproportionnée le contenu sur la Palestine.

L’IA générative – une technologie qui émerge et se développe rapidement et qui utilise des données d’apprentissage pour générer des résultats tels que des images, des textes, des conversations et autres – a également été discriminatoire à l’égard des contenus palestiniens.

Lors d’une table ronde intitulée « Generative AI : Dehumanization & Bias Against Palestinians & Marginalized Communities » (IA générative : déshumanisation et partialité à l’égard des Palestiniens et des communautés marginalisées) au PDAF, M. Shtaya a expliqué que les résultats générés par l’IA des chatbots – tels que ChatGPT ou les autocollants WhatsApp générés par l’IA – « manipulent l’opinion publique » avec des contenus négatifs sur les Palestiniens, alimentant ainsi des campagnes de désinformation qui favorisent le génocide.

Shtaya a insisté sur le fait que « les médias sociaux et les plateformes technologiques n’investissent pas suffisamment de ressources pour lutter contre la désinformation […] afin de limiter ou d’interdire les préjudices technologiques causés par le contenu généré par l’IA ».

Shahd Qannam et Jamal Abu Eisheh écrivent dans le Jerusalem Quarterly sur la façon dont la surveillance israélienne des Palestiniens à Jérusalem en particulier est essentielle à la vision coloniale d’éliminer les Palestiniens de l’ensemble de Jérusalem et de la Palestine colonisée.

Ils écrivent : « Les domaines numériques et en ligne sont des espaces qui deviennent des sites de lutte entre la logique coloniale éliminatoire et la résistance indigène à l’effacement. Après tout, c’est le territoire qui est au cœur du colonialisme de peuplement, et dans la mesure où l’espace numérique est un territoire, il est essentiel d’examiner les pratiques de domination d’Israël sur cet espace ».

En éliminant les voix palestiniennes des espaces en ligne, Israël cherche à éliminer complètement les Palestiniens.

Des entreprises israéliennes ont même créé un algorithme utilisé par l’OIF pour surveiller et détenir des Palestiniens sur la base de leurs publications sur Facebook.

Il s’agit d’un algorithme prédictif, c’est-à-dire qu’il recherche les messages censés « inciter à la violence », ce qui inclut les photos de martyrs ou de Palestiniens emprisonnés.

Qannam et Abu Eisheh expliquent également comment Israël a mis en place le « Projet biométrique israélien » en 2009, une initiative visant à imposer des cartes d’identité numériques pour créer une base de données contenant les informations biométriques des résidents d’Israël, y compris les résidents palestiniens de Jérusalem occupée.

Ces cartes d’identité numériques doivent être renouvelées auprès du ministère israélien de l’intérieur et peuvent être révoquées pour priver les Palestiniens de leur droit de résidence à Jérusalem.

En résumé, la collecte massive de données est un moyen de surveillance et de contrôle utilisé pour intensifier l’élimination des Palestiniens par les colons.

L’échange mortel de technologies

Le système automatique ShotSpotter de détection acoustique des coups de feu par IA – une « technologie de police de précision » – de la société américaine du même nom, a bénéficié d’un contrat avec la police israélienne en 2021, révélant une volonté coloniale transnationale d’automatiser l’oppression.

Ce système permet d’étendre la portée du contrôle carcéral et colonial contre les Palestiniens, à la fois depuis la terre et le ciel. Créé à l’origine pour surveiller et contrôler les Noirs américains, cet outil a également été jugé utile pour opprimer les Palestiniens.

Le communiqué de presse de ShotSpotter du 16 décembre 2021 concernant le contrat se lit comme suit : « ShotSpotter est ravi de s’associer à Airobotics pour développer un nouveau marché et aider les forces de l’ordre israéliennes à répondre plus rapidement et plus précisément aux incidents de tirs », a déclaré Ralph A. Clark, président et directeur général de ShotSpotter.

Dans ce contexte hautement militarisé, l’ajout de drones – par le biais de son partenariat avec la société Airobotics – pour fournir des « informations visuelles critiques aux premiers intervenants qui sont en route » vers les lieux des coups de feu déterminés par les capteurs acoustiques au sol est remarquable, en raison de la façon dont il exacerbe la militarisation de l’espace par le biais de la surveillance visuelle.

Le régime israélien est le premier au monde à autoriser le vol de grands véhicules aériens sans pilote dans l’espace aérien civil. Cette décision a été approuvée en 2022 par le ministère israélien des transports lorsqu’un drone créé par le fabricant d’armes israélien Elbit Systems a été autorisé à voler dans l’espace aérien civil.

Cette décision met en évidence la nature hyper-militarisée et paranoïaque de la société coloniale israélienne. Airobotics se présente comme la première entreprise au monde à développer une « solution de drone sans pilote » qui ne nécessite pas de pilote humain ou de surveillance manuelle, ce qui est particulièrement utile en Palestine occupée.

ShotSpotter est destiné à être déployé dans les « zones urbaines israéliennes », un terme vague qui banalise la colonisation israélienne en cours et l’expansion des colonies sur les décombres des quartiers palestiniens de la Cisjordanie occupée. Il n’existe aucune information publique sur les villes dans lesquelles ShotSpotter est utilisé.

L’économie coloniale d’Israël est liée à la violence de l’IA

Ruha Benjamin, spécialiste du racisme et de la technologie, écrit que le confinement des groupes racialisés et colonisés permet l’innovation technologique.

Gaza est totalement assiégée depuis 2006, ce qui a transformé la bande de 40 kilomètres de long en un immense camp de concentration.

La Cisjordanie est sous occupation militaire depuis des décennies, et la surveillance, le contrôle et le meurtre systématique des Palestiniens occupés ont considérablement augmenté au cours de l’année écoulée.

Dans le même temps, depuis 2016, Israël détient le plus grand nombre d’entreprises de surveillance par habitant dans le monde, avec plus de 27 entreprises dédiées, dont le tristement célèbre groupe NSO qui a créé le logiciel invasif Pegasus et a exporté pour plus de 6 milliards de dollars de produits et de services depuis 2014.

Parce qu’Israël est un régime colonialiste hautement militarisé, la surveillance est un investissement clé à la fois pour l’État et pour le secteur privé. Contrairement à de nombreux autres pays, le secteur israélien de la surveillance repose à la fois sur la demande locale et sur les exportations.

Au début des années 2000, pendant le boom des télécommunications et la « guerre contre le terrorisme » menée par les États-Unis, les services de renseignement israéliens ont consulté des experts en sécurité et des PDG du secteur technologique des États-Unis afin d’étendre et de privatiser de manière significative l’appareil de renseignement israélien en Cisjordanie occupée, à Jérusalem-Est et dans la bande de Gaza.

L’unité 8200 a mis au point le « système Lavender », le programme de reconnaissance faciale utilisé aux points de contrôle de Gaza, et probablement de nombreux autres outils et algorithmes d’intelligence artificielle.

Il existe également des exemples d’échange de pratiques carcérales entre les États-Unis et Israël, avec des policiers, des militaires et des patrouilleurs frontaliers américains qui s’entraînent en Israël. C’est ce que l’on appelle « l’échange mortel ».

À la frontière entre les États-Unis et le Mexique, les systèmes de surveillance d’Elbit sont en cours de déploiement.

Les Émirats arabes unis ont également investi des milliards de dollars dans des entreprises israéliennes de technologies de sécurité et de systèmes d’armement avancés, en particulier dans le domaine de l’intelligence artificielle.

Selon l’universitaire Sophia Goodfriend, il y a toujours eu une relation inextricable entre le secteur technologique privé et l’OIF, ce qui est très bénéfique pour les objectifs coloniaux du régime israélien.

De nombreuses technologies de surveillance israéliennes sont d’abord utilisées à Gaza et en Cisjordanie, où l’occupation militaire israélienne et le mépris de la vie des Palestiniens permettent aux entreprises privées de prototyper et d’affiner leurs produits par le biais de contrats avec l’IOF, avant de les exporter à l’étranger.

Certaines entreprises américaines sont également directement impliquées dans l’oppression des Palestiniens (comme indiqué dans cet article), ce qui les rend complices de la dépossession des Palestiniens.

Cependant, il existe très peu de rapports sur ces outils d’intelligence artificielle et sur la manière dont ils sont utilisés contre les Palestiniens, en particulier à des fins génocidaires.

Le développement et le déploiement de ces outils dans le cadre d’un génocide contre les Palestiniens, sont les résultats logiques d’un projet sioniste de colonisation. Nous devons les dénoncer comme tels.

Amber Fatima Rahman

 

Article original en anglais : Explainer: The Role of AI in Israel’s Genocidal Campaign Against Palestinians, Palestine Studies , le 16 octobre 2024

Traduction : Chronique de Palestine

*



Articles Par : Amber Rahman

Avis de non-responsabilité : Les opinions exprimées dans cet article n'engagent que le ou les auteurs. Le Centre de recherche sur la mondialisation se dégage de toute responsabilité concernant le contenu de cet article et ne sera pas tenu responsable pour des erreurs ou informations incorrectes ou inexactes.

Le Centre de recherche sur la mondialisation (CRM) accorde la permission de reproduire la version intégrale ou des extraits d'articles du site Mondialisation.ca sur des sites de médias alternatifs. La source de l'article, l'adresse url ainsi qu'un hyperlien vers l'article original du CRM doivent être indiqués. Une note de droit d'auteur (copyright) doit également être indiquée.

Pour publier des articles de Mondialisation.ca en format papier ou autre, y compris les sites Internet commerciaux, contactez: [email protected]

Mondialisation.ca contient du matériel protégé par le droit d'auteur, dont le détenteur n'a pas toujours autorisé l’utilisation. Nous mettons ce matériel à la disposition de nos lecteurs en vertu du principe "d'utilisation équitable", dans le but d'améliorer la compréhension des enjeux politiques, économiques et sociaux. Tout le matériel mis en ligne sur ce site est à but non lucratif. Il est mis à la disposition de tous ceux qui s'y intéressent dans le but de faire de la recherche ainsi qu'à des fins éducatives. Si vous désirez utiliser du matériel protégé par le droit d'auteur pour des raisons autres que "l'utilisation équitable", vous devez demander la permission au détenteur du droit d'auteur.

Contact média: [email protected]