đâđš âLavenderâ, l'IA qui guide les bombardements israĂ©liens Ă Gaza
Les frappes sur les chefs du Hamas se poursuivent & des sources dĂ©clarent que l'armĂ©e valide l'assassinat de âcentainesâ de civils par cible - une politique officielle historique jamais vue en IsraĂ«l.

đâđš âLavenderâ, l'IA qui guide les bombardements israĂ©liens Ă Gaza
Par Yuval Abraham, le 3 avril 2024
L'armée israélienne a désigné des dizaines de milliers d'habitants de Gaza comme étant suspectés de meurtres, en utilisant un systÚme de ciblage par IA peu supervisé par l'homme et une politique permissive en matiÚre de pertes humaines, révÚlent +972 et Local Call.
En 2021, un livre intitulĂ© âThe Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our Worldâ[âLa machine humaine : Comment crĂ©er une synergie entre humains et intelligence artificielle qui rĂ©volutionnera notre mondeâ] a Ă©tĂ© publiĂ© en anglais sous le nom de plume âBrigadier General Y.S.â Dans cet ouvrage, l'auteur - un homme dont nous avons confirmĂ© qu'il est l'actuel commandant de l'unitĂ© d'Ă©lite du renseignement israĂ©lien 8200 - plaide en faveur de la conception d'une machine spĂ©ciale capable de traiter rapidement des quantitĂ©s massives de donnĂ©es afin de gĂ©nĂ©rer des milliers de âciblesâ potentielles pour des frappes militaires dans le feu de l'action. Cette technologie, Ă©crit-il, rĂ©soudrait ce qu'il dĂ©crit comme une
âlacune humaine tant pour la localisation des nouvelles cibles que pour la prise de dĂ©cision concernant l'approbation des ciblesâ.
Il s'avĂšre qu'une telle machine existe rĂ©ellement. Une nouvelle enquĂȘte menĂ©e par +972 Magazine et Local Call rĂ©vĂšle que l'armĂ©e israĂ©lienne a mis au point un programme basĂ© sur l'intelligence artificielle, connu sous le nom de âLavenderâ, dĂ©voilĂ© ici pour la premiĂšre fois. Selon six officiers de renseignement israĂ©liens, qui ont tous servi dans l'armĂ©e pendant la guerre actuelle contre la bande de Gaza et ont Ă©tĂ© directement impliquĂ©s dans l'utilisation de l'intelligence artificielle pour gĂ©nĂ©rer des cibles Ă assassiner, Lavender a jouĂ© un rĂŽle central dans le bombardement sans prĂ©cĂ©dent des Palestiniens, en particulier pendant les premiĂšres phases de la guerre. En fait, selon les sources, son influence sur les opĂ©rations militaires Ă©tait telle qu'elles traitaient les rĂ©sultats de la machine d'IA âcomme s'il s'agissait d'une dĂ©cision humaineâ.
Officiellement, le systÚme Lavender est conçu pour sélectionner tous les agents présumés des branches militaires du Hamas et du Jihad islamique palestinien (PIJ), y compris les agents de rang inférieur, comme des cibles potentielles d'attentats à la bombe. Les sources ont déclaré à +972 et à Local Call que, pendant les premiÚres semaines de la guerre, l'armée s'est presque entiÚrement appuyée sur Lavender, qui a désigné jusqu'à 37 000 Palestiniens comme étant des militants présumés - ainsi que leurs leurs maisons - en vue d'éventuelles frappes aériennes.
Au dĂ©but de la guerre, l'armĂ©e a largement autorisĂ© les officiers Ă gĂ©nĂ©rer des listes de personnes Ă abattre de Lavender, sans qu'il soit nĂ©cessaire de vĂ©rifier minutieusement pourquoi la machine avait fait ces choix, ou d'examiner les donnĂ©es brutes du renseignement sur lesquelles elles Ă©taient basĂ©es. Une source a dĂ©clarĂ© que le personnel humain ne faisait souvent qu'entĂ©riner les dĂ©cisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu'environ â20 secondesâ Ă chaque cible avant d'autoriser un bombardement - juste pour s'assurer que la cible dĂ©signĂ©e par Lavender est bien un homme. Et ce, tout en sachant que le systĂšme commet ce que l'on considĂšre comme des âerreursâ dans environ 10 % des cas, et qu'il est notoire quâil sĂ©lectionne occasionnellement des individus qui n'ont qu'un lien tĂ©nu avec des groupes militants, voire aucun lien du tout.
En outre, l'armĂ©e israĂ©lienne a systĂ©matiquement attaquĂ© les personnes ciblĂ©es alors qu'elles se trouvaient chez elles - gĂ©nĂ©ralement la nuit, en prĂ©sence de toute leur famille - plutĂŽt qu'au cours d'une activitĂ© militaire prĂ©sumĂ©e. Selon les sources, cela s'expliquerait par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus chez eux. D'autres systĂšmes automatisĂ©s, dont celui appelĂ© âWhere's Daddy ?â [OĂč est papa ?], Ă©galement rĂ©vĂ©lĂ© ici pour la premiĂšre fois, ont Ă©tĂ© utilisĂ©s spĂ©cifiquement pour suivre les personnes ciblĂ©es et commettre des attentats Ă la bombe lorsqu'elles sont chez elles avec leur famille.

Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens - pour la plupart des femmes et des enfants ou des personnes qui n'étaient pas impliquées dans les combats - ont été tués par les frappes aériennes israéliennes, en particulier au cours des premiÚres semaines de la guerre, en raison des décisions du programme d'intelligence artificielle.
âNous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu'ils se trouvent dans un bĂątiment militaire ou participent Ă une activitĂ© militaireâ, a dĂ©clarĂ© A., un officier de renseignement, Ă +972 et Ă Local Call. âAu contraire, les Forces de dĂ©fense israĂ©liennes les ont bombardĂ©s dans leurs maisons sans hĂ©siter, en premiĂšre option. Il est beaucoup plus facile de bombarder la maison d'une famille. Le systĂšme est conçu pour les rechercher dans ce type de situationâ.
La machine Lavender rejoint un autre systĂšme d'IA, âThe Gospelâ, dont +972 et Local Call ont rĂ©vĂ©lĂ© des informations lors dâune prĂ©cĂ©dente enquĂȘte en novembre 2023, et visibles dans les propres publications de l'armĂ©e israĂ©lienne. Une diffĂ©rence fondamentale entre les deux systĂšmes rĂ©side dans la dĂ©finition de la cible : alors que The Gospel marque les bĂątiments et les structures Ă partir desquels, selon l'armĂ©e, les militants opĂšrent, Lavender dĂ©signe les personnes - et les inscrit sur une liste de suspects Ă abattre.
En outre, selon les sources, lorsqu'il s'agit de cibler des militants juniors prĂ©sumĂ©s marquĂ©s par Lavender, l'armĂ©e prĂ©fĂšre n'utiliser que des missiles non guidĂ©s, communĂ©ment appelĂ©s bombes âmuettesâ (par opposition aux bombes de prĂ©cision dites âintelligentesâ), qui peuvent dĂ©truire des bĂątiments entiers et causer d'importantes pertes humaines.
âNous ne voulons pas gaspiller des bombes coĂ»teuses sur des personnes sans importance - cela coĂ»te trĂšs cher au pays, alors que la pĂ©nurie [de ces bombes] se fait sentirâ,
a dĂ©clarĂ© C., l'un des officiers de renseignement. Une autre source a dĂ©clarĂ© qu'ils avaient personnellement autorisĂ© le bombardement de âcentainesâ dâhabitations privĂ©s d'agents subalternes prĂ©sumĂ©s marquĂ©s par Lavender, nombre de ces attaques tuant des civils et des familles entiĂšres en tant que âdommages collatĂ©rauxâ.
Selon deux des sources, l'armĂ©e a Ă©galement dĂ©cidĂ©, au cours des premiĂšres semaines de la guerre, que pour chaque agent subalterne du Hamas marquĂ© par Lavender, il Ă©tait permis de tuer jusqu'Ă 15 ou 20 civils. Par le passĂ©, l'armĂ©e n'autorisait aucun âdommage collatĂ©ralâ lors de l'assassinat de militants de moindre importance. Les sources ont ajoutĂ© que, quand la cible est un haut responsable du Hamas commandant de bataillon ou de brigade, l'armĂ©e a autorisĂ© Ă plusieurs reprises le meurtre de plus de 100 civils pour l'assassinat d'un seul commandant.

L'enquĂȘte suivante est prĂ©sentĂ©e selon les six Ă©tapes chronologiques de la production hautement automatisĂ©e de cibles par l'armĂ©e israĂ©lienne au cours des premiĂšres semaines de la guerre de Gaza. Tout d'abord, nous dĂ©crivons la machine Lavender elle-mĂȘme, qui a Ă©tiquetĂ© des dizaines de milliers de Palestiniens Ă l'aide de l'intelligence artificielle. Ensuite, nous dĂ©voilons le systĂšme âWhere's Daddy ?â, qui a traquĂ© ces cibles et les a signalĂ©es Ă l'armĂ©e lorsqu'elles rentrent chez elles. TroisiĂšmement, nous montrons comment les bombes âmuettesâ sont choisies pour frapper ces habitations.
QuatriĂšmement, nous dĂ©crivons comment l'armĂ©e a Ă©largi le nombre autorisĂ© de civils pouvant ĂȘtre tuĂ©s lors du bombardement d'une cible. CinquiĂšmement, cette Ă©tude montre comment un logiciel automatisĂ© a calculĂ© de maniĂšre peu prĂ©cise le nombre de non-combattants dans chaque foyer. SixiĂšmement, nous rĂ©vĂ©lons qu'Ă plusieurs reprises, lorsqu'une maison est bombardĂ©e, gĂ©nĂ©ralement la nuit, la cible visĂ©e n'est parfois pas chez elle, car les officiers ne vĂ©rifient pas l'information en temps rĂ©el.
ĂTAPE 1 : GĂNĂRER DES CIBLES
Lorsque l'on adopte l'automatisme, le processus de création des cibles échappe à tout contrÎle.
Dans l'armĂ©e israĂ©lienne, lâexpression âcible humaineâ dĂ©signait autrefois un haut responsable militaire qui, selon les rĂšgles du dĂ©partement du droit international de l'armĂ©e, pouvait ĂȘtre tuĂ© chez lui, mĂȘme avec des civils Ă proximitĂ©. Des sources du renseignement ont dĂ©clarĂ© Ă +972 et Ă Local Call qu'au cours des prĂ©cĂ©dentes guerres d'IsraĂ«l, puisqu'il s'agit d'une maniĂšre âparticuliĂšrement brutaleâ de tuer quelqu'un - souvent en tuant la cible et avec elle toute une famille - ces cibles humaines Ă©taient marquĂ©es trĂšs soigneusement et seuls les commandants militaires de premiĂšre importance Ă©taient bombardĂ©s Ă leur domicile, afin de maintenir le principe de proportionnalitĂ© en vertu du droit international.
Mais aprĂšs le 7 octobre, lorsque les militants du Hamas ont lancĂ© leur assaut contre les communautĂ©s du sud d'IsraĂ«l, tuant environ 1 200 personnes et en enlevant 240, l'armĂ©e a adoptĂ© une approche radicalement diffĂ©rente, selon les sources. Dans le cadre de l'opĂ©ration âIron Swordsâ, l'armĂ©e a dĂ©cidĂ© de dĂ©signer tous les agents de la branche militaire du Hamas comme des cibles humaines, quel que soit leur rang ou leur importance militaire. Cela a tout changĂ©.
Cette nouvelle politique a Ă©galement posĂ© un problĂšme technique aux services de renseignement israĂ©liens. Au cours des guerres prĂ©cĂ©dentes, pour autoriser l'assassinat d'une seule cible humaine, un officier devait se plier Ă un processus long et complexe dit d'âincriminationâ : vĂ©rifier par recoupement les preuves que la personne est bien un membre important de l'aile militaire du Hamas, dĂ©couvrir oĂč elle vit, ses coordonnĂ©es, et enfin savoir quand elle est chez elle en temps rĂ©el. Quand la liste des cibles ne comptait que quelques dizaines de hauts responsables, le personnel des services de renseignement pouvait s'occuper individuellement du processus d'incrimination et de localisation.

Cependant, une fois que la liste a Ă©tĂ© Ă©largie pour inclure des dizaines de milliers d'agents de moindre importance dans la hiĂ©rarchie, l'armĂ©e israĂ©lienne a compris qu'elle devait s'appuyer sur des logiciels automatisĂ©s et sur l'intelligence artificielle. Les sources tĂ©moignent que le rĂŽle du personnel humain dans l'incrimination des Palestiniens en tant qu'agents militaires a Ă©tĂ© mis de cĂŽtĂ© et que l'intelligence artificielle a fait le gros du travail Ă sa place. Selon quatre des sources qui ont parlĂ© Ă +972 et Ă Local Call, Lavender - qui a Ă©tĂ© dĂ©veloppĂ© pour crĂ©er des cibles humaines dans la guerre actuelle - a marquĂ© quelque 37 000 Palestiniens comme Ă©tant des âmilitants du Hamasâ prĂ©sumĂ©s, la plupart d'entre eux Ă©tant jeunes, en vue de leur assassinat (le porte-parole des FDI a niĂ© l'existence d'une telle liste dans une dĂ©claration Ă +972 et Ă Local Call).
âNous ne savions pas qui Ă©taient les agents subalternes, parce qu'IsraĂ«l ne les suivait pas rĂ©guliĂšrement [avant la guerre]â, a expliquĂ© l'officier B. Ă +972 et Ă Local Call, expliquant la raison pour laquelle cette machine Ă cibler a Ă©tĂ© dĂ©veloppĂ©e pour la guerre en cours.
âOn voulait pouvoir attaquer [les agents subalternes] systĂ©matiquement. C'est lĂ le Saint Graal. Une fois que vous passez Ă l'automatisme, la production de cibles se dĂ©chaĂźneâ.
Les sources ont dĂ©clarĂ© que l'autorisation de valider systĂ©matiquement les listes d'objectifs de Lavender, qui n'avaient Ă©tĂ© utilisĂ©es auparavant que comme outil auxiliaire, a Ă©tĂ© accordĂ©e environ deux semaines aprĂšs le dĂ©but de lâoffensive, aprĂšs que le personnel des services de renseignement a vĂ©rifiĂ© âmanuellementâ l'exactitude d'un Ă©chantillon alĂ©atoire de plusieurs centaines de cibles sĂ©lectionnĂ©es par le systĂšme d'intelligence artificielle. Lorsque cet Ă©chantillon a rĂ©vĂ©lĂ© que les rĂ©sultats de Lavender avaient atteint une prĂ©cision de 90 % dans l'identification de l'affiliation d'un individu au Hamas, l'armĂ©e a autorisĂ© l'utilisation gĂ©nĂ©ralisĂ©e du systĂšme. Ă partir de ce moment-lĂ , les sources ont dĂ©clarĂ© que si Lavender dĂ©cidait qu'un individu Ă©tait un militant du Hamas, il leur Ă©tait essentiellement demandĂ© de traiter lâinformation comme un ordre, sans qu'il soit nĂ©cessaire de vĂ©rifier de maniĂšre indĂ©pendante pourquoi la machine avait fait ce choix, ou d'examiner les donnĂ©es brutes de renseignement sur lesquelles elle est basĂ©e.
âĂ 5 heures du matin, [l'armĂ©e de l'air] dĂ©collait et bombardait toutes les maisons que nous avions marquĂ©esâ, raconte B.. âNous avons Ă©liminĂ© des milliers de personnes. Nous ne les avons pas vĂ©rifiĂ©es une par une - nous avons tout mis dans des systĂšmes automatisĂ©s, et dĂšs qu'un [des individus marquĂ©s] Ă©tait chez lui, il devenait immĂ©diatement une cible. Nous le bombardions, lui et sa maisonâ.
Lâissue meurtriĂšre du relĂąchement des restrictions au dĂ©but de la guerre ont Ă©tĂ© stupĂ©fiants. Selon les donnĂ©es du ministĂšre palestinien de la santĂ© Ă Gaza, sur lesquelles l'armĂ©e israĂ©lienne s'appuie presque exclusivement depuis le dĂ©but de la guerre, IsraĂ«l a tuĂ© quelque 15 000 Palestiniens - soit prĂšs de la moitiĂ© du nombre de morts Ă ce jour - au cours des six premiĂšres semaines de la guerre, jusqu'Ă ce qu'un cessez-le-feu d'une semaine soit conclu le 24 novembre.

Plus les informations sont précises et diversifiées, mieux c'est
Le logiciel Lavender analyse les informations recueillies sur la plupart des 2,3 millions d'habitants de la bande de Gaza grùce à un systÚme de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans l'aile militaire du Hamas ou du Jihad islamique palestinien. Selon certaines sources, la machine attribue à presque chaque habitant de Gaza une note de 1 à 100, exprimant la probabilité qu'il s'agisse d'un militant.
Lavender est capable d'identifier les caractĂ©ristiques des agents connus du Hamas et du Jihad islamique palestinien, PIJ, dont les informations ont Ă©tĂ© transmises Ă la machine Ă titre de donnĂ©es d'entraĂźnement, puis de repĂ©rer ces mĂȘmes caractĂ©ristiques - Ă©galement appelĂ©es âsignes distinctifsâ - au sein de la population dans son ensemble, ont expliquĂ© les sources. Une personne prĂ©sentant plusieurs caractĂ©ristiques incriminantes diffĂ©rentes obtient une note Ă©levĂ©e et devient ainsi systĂ©matiquement une cible potentielle pour un assassinat.
Dans âThe Human-Machine Teamâ, le livre citĂ© au dĂ©but de cet article, l'actuel commandant de l'unitĂ© 8200 plaide en faveur d'un tel systĂšme sans citer Lavender nommĂ©ment. (Le commandant lui-mĂȘme n'est pas nommĂ©, mais cinq sources au sein de l'unitĂ© 8200 ont confirmĂ© que le commandant Ă©tait l'auteur, comme l'a Ă©galement relatĂ© Haaretz). DĂ©crivant le personnel humain comme un âfacteur dâengorgementâ qui limite la capacitĂ© de l'armĂ©e lors d'une opĂ©ration militaire, le commandant se lamente :
âNous [les humains] ne pouvons pas traiter autant d'informations. Peu importe le nombre de personnes chargĂ©es de dĂ©terminer les objectifs Ă atteindre au cours de la guerre, il est toujours impossible de dĂ©finir un nombre suffisant d'objectifs par jour.â
Selon lui, la solution Ă ce problĂšme rĂ©side dans l'intelligence artificielle. Le livre propose un petit guide pour Ă©laborer une âmachine Ă ciblerâ, similaire Ă Lavender, basĂ©e sur l'intelligence artificielle et des algorithmes d'apprentissage automatique. Ce guide contient plusieurs exemples de âcentaines et de milliersâ de caractĂ©ristiques susceptibles d'augmenter la cote d'un individu, comme le fait de faire partie d'un groupe Whatsapp avec un militant connu, de changer de tĂ©lĂ©phone portable tous les quelques mois et de dĂ©mĂ©nager frĂ©quemment.
âPlus les informations sont nombreuses et variĂ©es, mieux c'estâ, Ă©crit le commandant. âInformations visuelles, cellulaires, connexions aux rĂ©seaux sociaux, informations sur le terrain, contacts tĂ©lĂ©phoniques, photosâ.
Si, dans un premier temps, ce sont les humains qui sĂ©lectionnent ces caractĂ©ristiques, poursuit le commandant, au fil du temps, la machine les identifiera d'elle-mĂȘme. Selon lui, cela peut permettre aux armĂ©es de crĂ©er âdes dizaines de milliers de ciblesâ, la dĂ©cision de les attaquer ou non restant du ressort de l'homme.
Ce livre n'est pas le seul dans lequel un commandant israĂ©lien a fait allusion Ă l'existence de machines Ă cibles humaines telles que Lavender. +972 et Local Call ont obtenu des sĂ©quences d'une confĂ©rence privĂ©e donnĂ©e par le commandant du pĂŽle secret de science des donnĂ©es et d'intelligence artificielle de l'unitĂ© 8200, le âcolonel Yoavâ, lors de la semaine de l'intelligence artificielle de l'universitĂ© de Tel-Aviv en 2023, dont les mĂ©dias israĂ©liens ont rendu compte Ă l'Ă©poque.
Lors de cette confĂ©rence, le commandant parle d'une nouvelle machine cible sophistiquĂ©e utilisĂ©e par l'armĂ©e israĂ©lienne, qui dĂ©tecte les âindividus dangereuxâ en se basant sur leur similitude avec les listes existantes de militants connus sur lesquelles elle a Ă©tĂ© entraĂźnĂ©e. âGrĂące Ă ce systĂšme, nous avons rĂ©ussi Ă identifier les commandants des escadrons du Hamasâ, a dĂ©clarĂ© le colonel Yoav lors de la confĂ©rence, en faisant rĂ©fĂ©rence Ă l'opĂ©ration militaire israĂ©lienne de mai 2021 Ă Gaza, au cours de laquelle la machine a Ă©tĂ© utilisĂ©e pour la premiĂšre fois.

Les diapositives de la présentation, également obtenues par +972 et Local Call, contiennent des illustrations du fonctionnement de la machine : elle est alimentée en données sur les agents du Hamas existants, elle apprend à assimiler leurs caractéristiques, puis elle évalue d'autres Palestiniens en fonction de leur degré de similitude avec les militants.
âNous classons les rĂ©sultats et dĂ©terminons le seuil [Ă partir duquel il convient d'attaquer une cible]â, a dĂ©clarĂ© le colonel Yoav lors de la confĂ©rence, soulignant qu'âau final, ce sont des personnes en chair et en os qui prennent les dĂ©cisions. Dans le domaine de la DĂ©fense, d'un point de vue Ă©thique, nous insistons beaucoup sur ce point. Ces outils sont destinĂ©s Ă aider [les officiers de renseignement] Ă franchir des barriĂšres.â
Dans la pratique, cependant, les sources qui ont utilisé Lavender au cours des derniers mois affirment que l'interaction humaine et la précision ont été remplacées par la création de cibles de masse et la létalité.
Pas de politique âzĂ©ro erreurâ
B., un officier supérieur qui a utilisé Lavender, a expliqué à +972 et à Local Call que dans la guerre actuelle, les officiers ne sont pas tenus d'examiner de maniÚre indépendante les évaluations du systÚme d'IA, afin de gagner du temps et de permettre la production en masse de cibles humaines sans entraves.
âTout est statistique, tout est parfaitement ordonnĂ© - c'est trĂšs sobreâ, a dĂ©clarĂ© B.. Il a notĂ© que ce manque de supervision a Ă©tĂ© autorisĂ© malgrĂ© des contrĂŽles internes montrant que les calculs de Lavender ne sont considĂ©rĂ©s comme exacts que dans 90 % des cas : en d'autres termes, on savait Ă l'avance que 10 % des cibles humaines destinĂ©es Ă ĂȘtre assassinĂ©es n'Ă©taient pas du tout des membres de l'aile militaire du Hamas.
Par exemple, des sources ont expliqué que Lavender signalait parfois par erreur des individus dont les modes de communication étaient similaires à ceux d'agents connus du Hamas ou du Djihad islamique palestinien, notamment des membres de la police et de la protection civile, des parents de militants, des habitants dont le nom et le surnom étaient identiques à ceux d'un agent, et des habitants de Gaza utilisant un téléphone ayant autrefois appartenu à un agent du Hamas.
âĂ quel point une personne doit-elle ĂȘtre proche du Hamas pour ĂȘtre [considĂ©rĂ©e par une machine d'IA comme] affiliĂ©e Ă l'organisation ?â, a dĂ©clarĂ© une source critiquant l'inexactitude de Lavender. âCâest trĂšs vague. Quelquâun qui ne reçoit pas de salaire du Hamas, mais qui l'aide pour toutes sortes de choses, est-elle un agent du Hamas ? Une personne qui a fait partie du Hamas dans le passĂ©, mais plus aujourd'hui, est-elle un agent du Hamas ? Chacune de ces caractĂ©ristiques - des caractĂ©ristiques qu'une machine signalerait comme suspectes - est inexacteâ.

Des problĂšmes similaires se posent concernant la capacitĂ© des machines de ciblage Ă Ă©valuer le tĂ©lĂ©phone utilisĂ© par une personne dĂ©signĂ©e pour ĂȘtre assassinĂ©e. âEn temps de guerre, les Palestiniens changent constamment de tĂ©lĂ©phoneâ, explique la source. âLes gens perdent le contact avec leur famille, donnent leur tĂ©lĂ©phone Ă un ami ou Ă une Ă©pouse, et le perdent peut-ĂȘtre. Il est impossible de se fier Ă 100 % au mĂ©canisme automatique qui dĂ©termine quel numĂ©ro de tĂ©lĂ©phone appartient Ă quiâ.
Selon les sources, l'armĂ©e savait quâune supervision humaine minimale en place ne permettrait pas de dĂ©couvrir ces failles.
Il n'y a pas de politique âzĂ©ro erreurâ. âLes erreurs sont traitĂ©es statistiquementâ, a dĂ©clarĂ© une source qui a utilisĂ© Lavender. âEn raison de la portĂ©e et de l'ampleur du projet, le protocole est le suivant : mĂȘme si l'on n'est pas sĂ»r que la machine donne un rĂ©sultat correct, on sait que statistiquement, elle fait le job. C'est pourquoi on l'utilise.â
âElle a fait ses preuvesâ, a dĂ©clarĂ© B., la source principale. "âL'approche statistique a quelque chose de normatif et de standard. Le nombre de [bombardements] dans cette opĂ©ration est illogique. De mĂ©moire, c'est sans prĂ©cĂ©dent. Mais je fais bien plus confiance Ă un mĂ©canisme statistique qu'Ă un soldat qui a perdu un ami il y a deux jours. Tous, moi compris, ont perdu des proches le 7 octobre. La machine procĂšde de maniĂšre neutre. Et cela facilite les chosesâ.
Une autre source de renseignements, qui a défendu le recours aux listes de suspects palestiniens établies par Lavender, a fait valoir que cela ne vaut la peine d'investir le temps d'un officier de renseignement que pour vérifier l'information si la cible est un commandant de haut rang du Hamas.
âMais lorsqu'il s'agit d'un militant subalterne, il n'est pas souhaitable d'investir du temps et de la main-d'Ćuvre dans cette tĂącheâ, a-t-il dĂ©clarĂ©. âEn temps de guerre, on n'a pas le temps de vĂ©rifier l'identitĂ© de chaque cible. On est donc prĂȘt Ă prendre la marge d'erreur liĂ©e Ă l'utilisation de l'intelligence artificielle, Ă risquer des dommages collatĂ©raux et la mort de civils, et Ă risquer d'attaquer par erreur, et Ă s'en accommoderâ.
B. explique que la raison de cette automatisation tient à la volonté d'augmenter en permanence le nombre de cibles à assassiner.
âLe jour oĂč il n'y aura pas de cibles [dont l'Ă©valuation des caractĂ©ristiques sera suffisante pour autoriser une frappe], nous attaquerons Ă un seuil plus bas. On nous a mis constamment la pression : âDonnez-nous plus de ciblesâ. Ils nous ont vraiment bousculĂ©s. Nous avons Ă©liminĂ© nos cibles trĂšs rapidementâ.
Il a expliqué qu'en abaissant le seuil de qualification de Lavender, le systÚme marque davantage de personnes comme étant des cibles à abattre.
âĂ son apogĂ©e, le systĂšme a rĂ©ussi Ă gĂ©nĂ©rer 37 000 personnes comme cibles humaines potentiellesâ, a dĂ©clarĂ© B. âMais les chiffres Ă©voluaient tout le temps, parce que tout dĂ©pend du seuil fixĂ© pour dĂ©finir ce qu'est un agent du Hamas. Parfois, la dĂ©finition d'un agent du Hamas est plus gĂ©nĂ©rale, puis la machine commence Ă nous fournir toutes sortes d'agents de la protection civile et de la police, sur lesquels il serait dommage de gaspiller des bombes. Ils aident le gouvernement du Hamas, mais ne mettent pas vraiment les soldats en danger.â

âNous vĂ©rifions juste que la cible est un hommeâ
L'armĂ©e israĂ©lienne rejette catĂ©goriquement ces affirmations. Dans une dĂ©claration Ă +972 et Local Call, le porte-parole de l'IDF a niĂ© utiliser l'intelligence artificielle pour dĂ©terminer des cibles, affirmant qu'il s'agit simplement âd'outils auxiliaires qui aident les officiers dans le processus d'implicationâ. Le communiquĂ© poursuit :
âDans tous les cas, un examen indĂ©pendant par un analyste [du renseignement] est nĂ©cessaire, qui vĂ©rifie que les cibles identifiĂ©es sont des cibles lĂ©gitimese, conformĂ©ment aux conditions Ă©noncĂ©es dans les directives de Tsahal et le droit international.â
Toutefois, des sources ont indiquĂ© que le seul protocole de supervision humaine mis en place avant de bombarder les maisons de militants âjuniorsâ prĂ©sumĂ©s marquĂ©s par Lavender consiste Ă effectuer une vĂ©rification unique : s'assurer que la cible sĂ©lectionnĂ©e par l'IA est un homme plutĂŽt qu'une femme. L'armĂ©e part du principe que s'il s'agit d'une femme, la machine a probablement commis une erreur, car il n'y a pas de femmes dans les rangs des ailes militaires du Hamas et du Jihad islamique palestinien.
âUn ĂȘtre humain ne doit consacrer que quelques secondes [Ă la vĂ©rification de la cible]â, explique B., qui prĂ©cise que ce protocole a Ă©tĂ© adoptĂ© aprĂšs avoir constatĂ© que le systĂšme Lavender âfait bien les chosesâ la plupart du temps.
âAu dĂ©but, nous faisions des vĂ©rifications pour nous assurer que la machine ne se trompait pas. Mais Ă un certain stade, nous nous sommes fiĂ©s au systĂšme automatique et nous nous sommes contentĂ©s de vĂ©rifier si [la cible] est bien un homme - et c'est suffisant. Il ne faut que peu de temps pour distinguer une voix masculine d'une voix fĂ©minineâ.
Pour effectuer la vérification homme/femme, B. affirme que dans la guerre actuelle,
âje mettrais 20 secondes pour chaque cible Ă ce stade, et j'en ferais des dizaines par jour. Je ne prĂ©sente aucune valeur ajoutĂ©e en tant qu'ĂȘtre humain, si ce n'est celle d'ĂȘtre une approbation. Cela permet de gagner beaucoup de temps. Si [l'agent] apparaĂźt dans le mĂ©canisme automatisĂ© et que je vĂ©rifie qu'il s'agit bien d'un homme, j'ai l'autorisation de le bombarder, sous rĂ©serve d'un examen des dommages collatĂ©rauxâ.

Dans la pratique, les sources ont déclaré que, pour les hommes civils marqués par erreur par Lavender, il n'y avait pas de mécanisme de supervision en place pour détecter l'erreur.
ĂTAPE 2 : RELIER LA CIBLE Ă SON DOMICILE
La plupart des personnes tuées étaient des femmes et des enfants
L'Ă©tape suivante de la procĂ©dure d'assassinat de l'armĂ©e israĂ©lienne consiste Ă dĂ©terminer oĂč attaquer les cibles gĂ©nĂ©rĂ©es par Lavender.
Dans une déclaration à +972 et à Local Call, le porte-parole des FDI a affirmé, en réponse à cet article, que
âle Hamas place ses agents et ses moyens militaires au cĆur de la population civile, utilise systĂ©matiquement la population civile comme bouclier humain et mĂšne des combats Ă l'intĂ©rieur de structures civiles, y compris des sites sensibles tels que les hĂŽpitaux, les mosquĂ©es, les Ă©coles et les installations de l'ONU. Les Forces de dĂ©fense israĂ©liennes sont soumises au droit international et agissent conformĂ©ment Ă celui-ci, en dirigeant leurs attaques uniquement contre des cibles militaires et des agents militairesâ.
Les six sources avec lesquelles nous nous sommes entretenus ont fait écho à ces propos dans une certaine mesure, affirmant que le vaste réseau de tunnels du Hamas passe délibérément sous les hÎpitaux et les écoles, que les militants du Hamas utilisent des ambulances pour se déplacer et qu'un nombre incalculable de moyens militaires ont été placés à proximité de bùtiments civils. Les sources affirment que de nombreuses frappes israéliennes tuent des civils en raison de ces tactiques du Hamas - une caractérisation qui, selon les groupes de défense des droits de l'homme, élude la responsabilité d'Israël quant au nombre de victimes.
Toutefois, contrairement aux déclarations officielles de l'armée israélienne, les sources ont expliqué que l'une des principales raisons du nombre sans précédent de victimes des bombardements israéliens actuels tient au fait que l'armée a systématiquement attaqué les cibles à leur domicile, avec leur famille - en partie parce qu'il est plus facile, du point de vue du renseignement, de marquer les maisons familiales à l'aide de systÚmes automatisés.
En effet, plusieurs sources ont souligné que, contrairement aux nombreux cas d'agents du Hamas engagés dans des activités militaires depuis des zones civiles, dans le cas des frappes d'assassinat systématiques, l'armée a réguliÚrement fait le choix délibéré de bombarder des militants présumés lorsqu'ils se trouvent chez eux, dans des zones sans activité militaire. Ce choix, selon eux, est le reflet de la conception du systÚme israélien de surveillance de masse dans la bande de Gaza.

Les sources ont dĂ©clarĂ© Ă +972 et Ă Local Call que, puisque chaque habitant de Gaza avait une adresse privĂ©e Ă laquelle il peut ĂȘtre associĂ©, les systĂšmes de surveillance de l'armĂ©e peuvent facilement et systĂ©matiquement ârelierâ des individus Ă des maisons familiales. Afin d'identifier en temps rĂ©el le moment oĂč les agents rentrent chez eux, plusieurs logiciels automatiques supplĂ©mentaires ont Ă©tĂ© dĂ©veloppĂ©s. Ces programmes suivent des milliers d'individus simultanĂ©ment, identifient le moment oĂč ils sont chez eux et envoient une alerte automatisĂ©e Ă l'officier chargĂ© du ciblage, qui marque alors la maison en vue d'un bombardement. L'un de ces logiciels, rĂ©vĂ©lĂ© ici pour la premiĂšre fois, s'appelle âWhere's Daddy ?â
âVous entrez des centaines [de cibles] dans le systĂšme et vous attendez de voir qui vous pouvez tuerâ, a dĂ©clarĂ© une source au fait du systĂšme. âC'est ce qu'on appelle la traque Ă©largie : vous copiez-collez Ă partir des listes gĂ©nĂ©rĂ©es par le systĂšme de ciblageâ.
Des preuves de cette politique ressortent également des données : au cours du premier mois de la guerre, plus de la moitié des victimes - 6 120 personnes - faisaient partie de 1 340 familles, dont beaucoup ont été entiÚrement anéanties à l'intérieur de leur maison, selon les chiffres de l'ONU. La proportion de familles entiÚres bombardées dans leurs maisons dans la guerre actuelle est beaucoup plus élevée que lors de l'opération israélienne de 2014 à Gaza, confirmant cette politique.
Une autre source a dĂ©clarĂ© que chaque fois que le rythme des assassinats diminue, de nouvelles cibles sont ajoutĂ©es Ă des systĂšmes comme Where's Daddy ? pour localiser les individus rentrĂ©s chez eux et donc susceptibles d'ĂȘtre bombardĂ©s. Il a ajoutĂ© que la dĂ©cision de placer des cibles dans les systĂšmes de repĂ©rage pouvait ĂȘtre prise par des officiers de grade modeste au sein de la hiĂ©rarchie militaire.
âUn jour, j'ai ajoutĂ© de mon propre chef quelque 1 200 nouvelles cibles au systĂšme [de repĂ©rage], parce que le nombre d'attaques [menĂ©es] avait baissĂ©â, a dĂ©clarĂ© la source. âCela me paraissait logique. RĂ©trospectivement, cela semble avoir Ă©tĂ© une dĂ©cision judicieuse Et de telles dĂ©cisions n'ont pas Ă©tĂ© prises en haut lieuâ.
Les sources ont indiquĂ© qu'au cours des deux premiĂšres semaines de l'offensive, âplusieurs milliersâ de cibles ont Ă©tĂ© initialement saisies dans des programmes de localisation tels que Where's Daddy ?. Il s'agissait notamment de tous les membres de l'unitĂ© d'Ă©lite des forces spĂ©ciales du Hamas, la Nukhba, de tous les opĂ©rateurs antichars du Hamas et de toute personne ayant pĂ©nĂ©trĂ© en IsraĂ«l le 7 octobre. Mais trĂšs vite, la liste des personnes Ă abattre s'est considĂ©rablement allongĂ©e.
âAu final, tout le monde [a Ă©tĂ© marquĂ© par Lavender]â, selon une source. âDes dizaines de milliers. Cela s'est produit quelques semaines plus tard, lorsque les brigades [israĂ©liennes] sont entrĂ©es dans Gaza et que le nombre de personnes non impliquĂ©es [c'est-Ă -dire de civils] dans les zones septentrionales Ă©tait dĂ©jĂ moins Ă©levĂ©. Selon cette source, mĂȘme certains mineurs ont Ă©tĂ© dĂ©signĂ©s par Lavender comme des cibles Ă abattre. Normalement, les agents ont plus de 17 ans, mais ce n'Ă©tait dĂ©jĂ plus un critĂšreâ.

Lavender et des systĂšmes comme Where's Daddy ? ont donc Ă©tĂ© conjuguĂ©s avec effet mortel, tuant des familles entiĂšres, d'aprĂšs certaines sources. En ajoutant un nom figurant sur les listes gĂ©nĂ©rĂ©es par Lavender au systĂšme de suivi des foyers Where's Daddy ?, a expliquĂ© A., la personne marquĂ©e est placĂ©e sous surveillance permanente et peut ĂȘtre attaquĂ©e dĂšs qu'elle met un pied chez elle, faisant s'effondrer la maison sur toutes les personnes qui s'y trouvent.
" Supposons que vous estimez [qu'un] [agent du Hamas] se trouve chez lui avec 10 [civils dans la maison]â, a dĂ©clarĂ© A.. âEn gĂ©nĂ©ral, ces dix personnes sont des femmes et des enfants. Par consĂ©quent, de maniĂšre absurde, la plupart des personnes que vous avez tuĂ©es Ă©taient des femmes et des enfantsâ.
ĂTAPE 3 : LE CHOIX DES ARMES
âNous menons gĂ©nĂ©ralement nos attaques avec des âbombes muettesââ.
Une fois que Lavender a désigné une cible à assassiner, que le personnel de l'armée a vérifié qu'il s'agit bien d'un homme et qu'un logiciel de suivi a localisé la cible à son domicile, l'étape suivante consiste à choisir les munitions qui serviront à l'éliminer.
En dĂ©cembre 2023, CNN a rapportĂ© que, selon les estimations des services de renseignement amĂ©ricains, environ 45 % des munitions utilisĂ©es par l'armĂ©e de l'air israĂ©lienne Ă Gaza Ă©taient des bombes âmuettesâ, connues pour causer davantage de dommages collatĂ©raux que les bombes tĂ©lĂ©guidĂ©es. En rĂ©ponse Ă l'article de CNN, un porte-parole de l'armĂ©e citĂ© dans l'article a dĂ©clarĂ© :
âEn tant qu'armĂ©e attachĂ©e au droit international et Ă un code de conduite moral, nous consacrons de vastes ressources Ă minimiser les dommages causĂ©s aux civils que le Hamas a contraints Ă jouer le rĂŽle de boucliers humains. Notre guerre est dirigĂ©e contre le Hamas, pas contre la population de Gazaâ.
Trois sources des services de renseignement ont toutefois dĂ©clarĂ© Ă +972 et Ă Local Call que les membres auxiliaires marquĂ©s par Lavender n'ont Ă©tĂ© assassinĂ©s qu'avec des bombes muettes, afin d'Ă©conomiser des armements plus coĂ»teux. L'une des sources a expliquĂ© que l'armĂ©e ne frappait pas de cible secondaire si elle vit dans un grand immeuble, parce qu'elle ne tient pas Ă investir dans une âbombe de plancherâ plus prĂ©cise et plus coĂ»teuse (aux effets collatĂ©raux plus limitĂ©s) pour l'abattre. En revanche, si une cible secondaire vit dans un immeuble de quelques Ă©tages seulement, l'armĂ©e est autorisĂ©e Ă la tuer, ainsi que tous les habitants de l'immeuble, Ă l'aide d'une bombe muette.

âĂa se passe comme ça avec toutes les cibles secondairesâ, tĂ©moigne C., qui a utilisĂ© divers programmes automatisĂ©s dans la guerre actuelle. âLa seule question est de savoir s'il est possible d'attaquer le bĂątiment en limitant les dommages collatĂ©raux. En effet, nous attaquons gĂ©nĂ©ralement avec des bombes muettes, ce qui signifie dĂ©truire littĂ©ralement toute le bĂątiment et ses occupants. Mais mĂȘme si une attaque est manquĂ©e, ça nâa pas dâimportance, on passe immĂ©diatement Ă la cible suivante. GrĂące au systĂšme, le ciblage ne s'arrĂȘte jamais. Il y en a encore 36 000 qui attendentâ.
ĂTAPE 4 : AUTORISER LES PERTES CIVILES
âNous avons presque toujours attaquĂ© sans tenir compte des dommages collatĂ©rauxâ.
Une source a dĂ©clarĂ© que pour les attaques contre des membres auxiliaires, y compris ceux marquĂ©s par des systĂšmes d'intelligence artificielle comme Lavender, le nombre de civils pouvant ĂȘtre tuĂ©s pour chaque cible a Ă©tĂ© fixĂ© Ă 20 au cours des premiĂšres semaines de la guerre. Selon une autre source, ce nombre aurait Ă©tĂ© fixĂ© Ă 15. Ces âseuils de dommages collatĂ©rauxâ, comme les militaires les appellent, ont Ă©tĂ© appliquĂ©s de maniĂšre gĂ©nĂ©ralisĂ©e Ă tous les militants secondaires prĂ©sumĂ©s, selon les sources, indĂ©pendamment de leur rang, de leur importance militaire et de leur Ăąge, et sans examen spĂ©cifique au cas par cas pour Ă©valuer le bien-fondĂ© militaire de leur assassinat au regard des dommages causĂ©s Ă la population civile.
Selon A., officier dans une salle d'opérations dans la guerre actuelle, le département du droit international de l'armée n'avait eencore jamais donné son accord à un degré aussi élevé de dommages collatéraux.
âNon seulement vous pouvez tuer toute personne appartenant au Hamas, ce qui est clairement autorisĂ© et lĂ©gitime en termes de droit internationalâ, a dĂ©clarĂ© A.. âMais ils vous disent ouvertement : âVous pouvez les tuer ainsi que de nombreux civilsââ.
âToute personne ayant portĂ© un uniforme du Hamas au cours de l'annĂ©e ou des deux derniĂšres annĂ©es est susceptible d'ĂȘtre bombardĂ©e avec 20 [civils tuĂ©s] en guise de dommages collatĂ©raux, mĂȘme sans autorisation spĂ©cialeâ, a poursuivi M. A.. âDans la pratique, le principe de proportionnalitĂ© n'existe pasâ.
Selon A., cette politique a Ă©tĂ© appliquĂ©e pendant la majeure partie de la pĂ©riode oĂč il a servi. Ce n'est que plus tard que l'armĂ©e a abaissĂ© le seuil des dommages collatĂ©raux. âSelon ce raisonnement, il peut s'agir de 20 enfants pour un soldat auxiliaire... Ce n'Ă©tait vraiment pas le cas dans le passĂ©â, a expliquĂ© A.. InterrogĂ© sur la logique sĂ©curitaire qui sous-tend cette politique, A. a rĂ©pondu : âLa lĂ©talitĂ©â.

Le degrĂ© prĂ©dĂ©terminĂ© et constant de dommages collatĂ©raux a contribuĂ© Ă accĂ©lĂ©rer le processus de dĂ©signation massive de cibles grĂące Ă Lavender, selon certaines sources, car il permet de gagner du temps. B. a affirmĂ© que le nombre de civils qu'ils ont Ă©tĂ© autorisĂ©s Ă tuer par militant auxiliaire prĂ©sumĂ© marquĂ© par l'IA au cours de la premiĂšre semaine de la guerre Ă©tait de quinze, mais que ce nombre âa fluctuĂ©â au fil du temps.
âAu dĂ©but, nous avons attaquĂ© sans pratiquement tenir compte des dommages collatĂ©rauxâ, a dĂ©clarĂ© B. Ă propos de la premiĂšre semaine qui a suivi le 7 octobre. âConcrĂštement, on ne comptait pas vraiment les gens [dans chaque maison bombardĂ©e], parce qu'on ne pouvait pas vraiment savoir s'ils Ă©taient chez eux ou non. Au bout d'une semaine, les restrictions sur les dommages collatĂ©raux ont commencĂ©. Le nombre est passĂ© [de 15] Ă cinq, ce qui a rendu nos attaques trĂšs difficiles, car si toute la famille Ă©tait Ă la maison, nous ne pouvions pas la bombarder. Puis ce nombre a de nouveau Ă©tĂ© revu Ă la hausseâ.
Nous savions que nous allions tuer plus de 100 civils
Des sources ont déclaré à +972 et à Local Call qu'aujourd'hui, en partie à cause de la pression américaine, l'armée israélienne ne génÚre plus de cibles humaines junior en masse pour les faire bombarder chez eux. Le fait que la plupart des maisons de la bande de Gaza soient déjà détruites ou endommagées, et que la quasi-totalité de la population ait été déplacée, a également réduit la capacité de l'armée à s'appuyer sur des bases de données de renseignements et des programmes automatisés de localisation des maisons.
E. a affirmé que les bombardements massifs des militants juniors n'ont eu lieu que pendant la premiÚre ou les deux premiÚres semaines de la guerre, et qu'ils ont ensuite été interrompus principalement pour ne pas gaspiller les bombes.
âUne politique dâĂ©conomie des munitions existeâ, a dĂ©clarĂ© E.. âIls ont toujours eu peur d'une guerre dans le nord [avec le Hezbollah au Liban]. Ils n'attaquent plus du tout ce genre de personnage [subalterne]â.
Cependant, les frappes aĂ©riennes contre les commandants en chef du Hamas se poursuivent, et des sources ont dĂ©clarĂ© que dans ce contexte, l'armĂ©e autorise l'assassinat de âcentainesâ de civils par cible - une politique officielle sans prĂ©cĂ©dent historique en IsraĂ«l, ni mĂȘme dans les rĂ©centes opĂ©rations militaires des Ătats-Unis.
âLors du bombardement du commandant du bataillon Shuja'iya, nous savions que nous allions tuer plus de 100 civilsâ, a rappelĂ© B. Ă propos d'un bombardement du 2 dĂ©cembre qui, selon le porte-parole des Forces de dĂ©fense israĂ©liennes, prĂ©voyait l'assassinat de Wisam Farhat. âPour moi, psychologiquement, c'Ă©tait anormal. Plus de 100 civils, c'est la ligne rouge Ă ne pas franchirâ.

Amjad Al-Sheikh, un jeune Palestinien de Gaza, a déclaré que de nombreux membres de sa famille avaient été tués dans ce bombardement. Habitant de Shuja'iya, à l'est de la ville de Gaza, il se trouvait ce jour-là dans un supermarché local lorsqu'il a entendu cinq détonations qui ont brisé les vitres.
âJ'ai couru vers chez moi, mais il n'y avait plus d'immeubleâ, a dĂ©clarĂ© M. Al-Sheikh Ă +972 et Ă Local Call. âLa rue Ă©tait remplie de cris et de fumĂ©e. Des pĂątĂ©s de maisons entiers on Ă©tĂ© mĂ©tamorphosĂ©s en montagnes de dĂ©combres avec dâĂ©normes cratĂšres. Les gens cherchaient dans les gravats, avec leurs mains, et moi aussi, je cherchais des traces de ma maison.â
La femme et la petite fille d'Al-Sheikh ont survĂ©cu - protĂ©gĂ©es des dĂ©combres par une armoire qui leur est tombĂ©e dessus - mais il a retrouvĂ© 11 autres membres de sa famille, dont ses sĆurs, ses frĂšres et leurs jeunes enfants, morts sous lâeffondrement de lâimmeuble. Selon l'organisation de dĂ©fense des droits de l'homme B'Tselem, les bombardements de ce jour-lĂ ont dĂ©truit des dizaines de bĂątiments, tuĂ© des dizaines de personnes et en ont enseveli des centaines sous les ruines de leurs maisons.
Des familles entiÚres ont été tuées
Des sources des services de renseignement ont déclaré à +972 et à Local Call qu'ils avaient participé à des frappes encore plus meurtriÚres. Afin d'assassiner Ayman Nofal, le commandant de la brigade centrale de Gaza du Hamas, une source a déclaré que l'armée avait autorisé le meurtre d'environ 300 civils, détruisant plusieurs bùtiments lors de frappes aériennes sur le camp de réfugiés d'Al-Bureij le 17 octobre, sur la base d'un repérage imprécis de Nofal. Des images satellite et des vidéos de la scÚne montrent la destruction de plusieurs grands immeubles d'habitation à plusieurs étages.
âEntre 16 et 18 bĂątiments ont Ă©tĂ© dĂ©truites lors de l'attaqueâ, a dĂ©clarĂ© Amro Al-Khatib, un rĂ©sident du camp, Ă +972 et Ă Local Call. âNous ne pouvions plus distinguer un appartement d'un autre - ils ont tous Ă©tĂ© dispersĂ©s dans les dĂ©combres, et nous avons trouvĂ© des morceaux de corps humains partoutâ.
Al-Khatib se souvient qu'une cinquantaine de cadavres ont été retirés des décombres, et qu'environ 200 personnes ont été blessées, dont beaucoup griÚvement. Mais ce n'était que le premier jour. Les habitants du camp ont passé cinq jours à sortir les morts et les blessés.

Nael Al-Bahisi, un secouriste, a été l'un des premiers à arriver sur les lieux. Il a dénombré entre 50 et 70 victimes le premier jour.
âĂ un moment donnĂ©, nous avons compris que la cible de la frappe Ă©tait le commandant du Hamas Ayman Nofalâ, a-t-il dĂ©clarĂ© Ă +972 et Ă Local Call. âIls l'ont tuĂ©, ainsi que de nombreuses personnes qui ne savaient pas qu'il Ă©tait lĂ . Des familles entiĂšres avec leurs enfants ont Ă©tĂ© tuĂ©es.â
Une autre source de renseignements a dĂ©clarĂ© Ă +972 et Ă Local Call que l'armĂ©e avait dĂ©truit une tour Ă Rafah Ă la mi-dĂ©cembre, tuant âdes dizaines de civilsâ, afin d'essayer de tuer Mohammed Shabaneh, le commandant de la brigade du Hamas Ă Rafah (on ne sait pas s'il a Ă©tĂ© tuĂ© ou non dans l'attaque). Selon la source, les hauts commandants se cachent souvent dans des tunnels passant sous des bĂątiments civils, et le choix de les assassiner dâune frappe aĂ©rienne tue donc nĂ©cessairement des civils.
âLa plupart des blessĂ©s Ă©taient des enfantsâ, a dĂ©clarĂ© Wael Al-Sir, 55 ans, qui a assistĂ© Ă la frappe de grande envergure que certains habitants de Gaza considĂšrent comme une tentative d'assassinat. Il a dĂ©clarĂ© Ă +972 et Ă Local Call que le bombardement du 20 dĂ©cembre a dĂ©truit un âquartier rĂ©sidentiel entierâ et tuĂ© au moins 10 enfants.
âLa politique relative aux victimes des opĂ©rations [de bombardement] Ă©tait totalement permissive - tellement permissive qu'Ă mon avis, la vengeance a jouĂ© un rĂŽleâ, a affirmĂ© D., une source des services de renseignement. âLes assassinats de hauts responsables [du Hamas et du PIJ] pour lesquels ils Ă©taient prĂȘts Ă tuer des centaines de civils Ă©taient certes au centre de cette politique. Mais le calcul Ă©tait le suivant : combien pour un commandant de brigade, combien pour un commandant de bataillon, et ainsi de suiteâ.
âDes rĂšgles existent, mais elles sont trĂšs souplesâ, explique E., une autre source du renseignement. âNous avons tuĂ© des gens avec des dommages collatĂ©raux Ă deux chiffres, voire Ă trois. Ăa ne s'Ă©tait jamais produit auparavantâ.

Un tel ratio de âdommages collatĂ©rauxâ est exceptionnellement Ă©levĂ© non seulement au regard de ce que l'armĂ©e israĂ©lienne jugeait auparavant acceptable, mais aussi en comparaison des guerres menĂ©es par les Ătats-Unis en Irak, en Syrie et en Afghanistan.
Le gĂ©nĂ©ral Peter Gersten, commandant adjoint des opĂ©rations et du renseignement dans les opĂ©rations de lutte contre l'Ătat islamique en Irak et en Syrie, a dĂ©clarĂ© Ă un magazine de la DĂ©fense amĂ©ricain en 2021 qu'une attaque avec des dommages collatĂ©raux frappant 15 civils s'Ă©cartait de la procĂ©dure. Pour la mener Ă bien, il avait dĂ» obtenir une autorisation spĂ©ciale du chef du Commandement central des Ătats-Unis, le gĂ©nĂ©ral Lloyd Austin, aujourd'hui SecrĂ©taire Ă la DĂ©fense.
âDans le cas d'Oussama Ben Laden, la NCV [Non-combatant Casualty Value : Taux de pertes de non-combattants] Ă©tait de 30, mais dans le cas d'un commandant de grade infĂ©rieur, la NCV Ă©tait gĂ©nĂ©ralement Ă©gale Ă zĂ©roâ, a expliquĂ© M. Gersten. âNous sommes restĂ©s Ă zĂ©ro pendant trĂšs longtempsâ.
On nous disait : âFaites le maximum, bombardezâ
Toutes les sources interrogĂ©es dans le cadre de cette enquĂȘte ont dĂ©clarĂ© que les massacres perpĂ©trĂ©s par le Hamas le 7 octobre et l'enlĂšvement d'otages ont fortement influencĂ© la politique de l'armĂ©e en matiĂšre de tirs et de taux de dommages collatĂ©raux.
âAu dĂ©but, l'atmosphĂšre Ă©tait tendue et revanchardeâ, a dĂ©clarĂ© B., incorporĂ© dans l'armĂ©e immĂ©diatement aprĂšs le 7 octobre, et qui a servi dans une salle d'opĂ©rations sur objectifs.
âLes rĂšgles Ă©taient trĂšs laxistes. Ils ont dĂ©truit quatre bĂątiments alors qu'ils savaient que la cible se trouvait dans l'un d'entre eux. C'Ă©tait de la folie.â
âNous avons Ă©tĂ© confrontĂ©s Ă un dilemme : d'une part, les gens ici Ă©taient frustrĂ©s par le fait que nous n'attaquions pas assezâ, a poursuivi B.. âEt en fin de journĂ©e, vous constatez qu'un millier d'habitants de Gaza sont morts, la plupart d'entre eux Ă©tant des civilsâ.
âChez les militaires de carriĂšre, c'Ă©tait l'hystĂ©rieâ, raconte D., lui aussi enrĂŽlĂ© juste aprĂšs le 7 octobre. âIls ne savaient pas du tout comment rĂ©agir. Tout ce qu'ils savaient faire Ă©tait de bombarder comme des fous pour essayer de dĂ©manteler les structures du Hamas.â

D. a soulignĂ© qu'on ne leur avait pas explicitement dit que l'objectif de l'armĂ©e Ă©tait âla vengeanceâ,
mais a prĂ©cisĂ© que âdĂšs l'instant oĂč une cible liĂ©e au Hamas devenait lĂ©gitime et que presque tous les dommages collatĂ©raux Ă©taient approuvĂ©s, il Ă©tait Ă©vident que des milliers de personnes allaient ĂȘtre tuĂ©es. MĂȘme si officiellement chaque cible est associĂ©e au Hamas, quand la politique est si permissive, elle perd tout son sensâ.
A. a Ă©galement employĂ© le mot âvengeanceâ pour dĂ©crire l'atmosphĂšre qui rĂ©gnait au sein de l'armĂ©e aprĂšs le 7 octobre.
âPersonne n'a pensĂ© Ă ce qu'il faudrait faire aprĂšs, une fois la guerre terminĂ©e, ni Ă la façon dont il serait possible de vivre Ă Gaza et Ă ce que l'on en feraitâ, a dĂ©clarĂ© A.. âOn nous a dit : maintenant, il faut foutre en l'air le Hamas, Ă n'importe quel prix. Tout ce que vous pouvez bombarder, bombardez-leâ.
B., la source principale du renseignement israĂ©lien, a dĂ©clarĂ© qu'avec le recul, il est convaincu que cette politique âdisproportionnĂ©eâ consistant Ă tuer des Palestiniens Ă Gaza met Ă©galement en danger les IsraĂ©liens, et que c'est l'une des raisons pour lesquelles il a dĂ©cidĂ© d'ĂȘtre interviewĂ©.
âĂ court terme, nous sommes peut-ĂȘtre plus en sĂ©curitĂ©, parce que nous avons touchĂ© le Hamas. Mais je pense que nous serons moins en sĂ©curitĂ© sur le long terme. Je conçois que toutes les familles endeuillĂ©es de Gaza - c'est-Ă -dire presque tout le monde - vont motiver les gens Ă rejoindre le Hamas dans dix ans. Et il sera beaucoup plus simple pour [le Hamas] de les recruterâ.
Dans une déclaration à +972 et à Local Call, l'armée israélienne a démenti une grande partie de ce que les sources nous ont confié, affirmant que
âchaque cible est Ă©tudiĂ©e individuellement, tout en Ă©valuant l'avantage militaire et les dommages collatĂ©raux attendus de l'attaque... Les Forces de dĂ©fense israĂ©liennes ne mĂšnent pas d'attaques si les dommages collatĂ©raux attendus sont excessifs comparĂ©s Ă l'avantage militaireâ.
ĂTAPE 5 : DĂTERMINER LES DOMMAGES COLLATĂRAUX
Une théorie éloignée de la pratique
Selon les sources du renseignement, le calcul par l'armĂ©e israĂ©lienne du nombre de civils susceptibles d'ĂȘtre tuĂ©s dans chaque maison situĂ©e Ă proximitĂ© d'une cible - une procĂ©dure examinĂ©e dans une enquĂȘte prĂ©cĂ©dente de +972 et Local Call - s'effectue Ă l'aide d'outils automatiques et imprĂ©cis. Lors des guerres prĂ©cĂ©dentes, les services du renseignement passaient beaucoup de temps Ă vĂ©rifier le nombre de personnes prĂ©sentes dans une maison appelĂ©e Ă ĂȘtre bombardĂ©e, le nombre de civils susceptibles d'ĂȘtre tuĂ©s Ă©tant rĂ©pertoriĂ© dans un âfichier de ciblesâ. AprĂšs le 7 octobre, cependant, cette vĂ©rification minutieuse a Ă©tĂ© largement abandonnĂ©e au profit de l'automatisation.
En octobre, le New York Times a fait état d'un systÚme exploité à partir d'une base spéciale dans le sud d'Israël, qui recueille des informations à partir des téléphones portables dans la bande de Gaza et fournit à l'armée une estimation en temps réel du nombre de Palestiniens qui ont fui le nord de la bande de Gaza vers le sud. Le général de brigade Udi Ben Muha a déclaré au Times :
âCe n'est pas un systĂšme Ă 100% fiable, mais il fournit les informations dont nous avons besoin pour prendre une dĂ©cisionâ.
Le systĂšme fonctionne par couleurs : le rouge indique les zones oĂč il y a beaucoup de monde, tandis que le vert et le jaune indiquent les zones plus ou moins vidĂ©es de leurs habitants.

Les sources qui se sont confiées à +972 et Local Call ont décrit un systÚme similaire de calcul des dommages collatéraux, utilisé pour décider de bombarder ou non un bùtiment à Gaza. Elles ont déclaré que le logiciel calculait le nombre de civils résidant dans chaque maison avant la guerre - en évaluant la taille du bùtiment et en examinant sa liste de résidents - et réduisait ensuite ces chiffres par la proportion de résidents censés avoir évacué le quartier.
Par exemple, si l'armée estime que la moitié des habitants d'un quartier sont partis, le programme va compter une maison comptant habituellement 10 habitants comme une maison de cinq personnes. Pour gagner du temps, l'armée ne contrÎle pas pour vérifier combien de personnes y vivent réellement, comme elle l'a fait lors d'opérations précédentes, afin de savoir si l'estimation du logiciel est vraiment exacte.
âCe concept est sans rapport avec la rĂ©alitĂ©â, affirme l'une des sources. âIl n'y a aucun lien entre les personnes qui vivent dans la maison aujourd'hui, pendant la guerre, et celles qui y vivaient avant la guerre. [Il nous est arrivĂ© de bombarder une maison sans savoir que plusieurs familles s'y cachaientâ.
Selon la source, bien que l'armĂ©e sache que de telles erreurs peuvent se produire, ce systĂšme imprĂ©cis a tout de mĂȘme Ă©tĂ© adoptĂ© parce qu'il est plus rapide. Ainsi, selon la source, âle calcul des dommages collatĂ©raux est totalement automatique et statistiqueâ - et sort mĂȘme des chiffres qui ne sont pas des nombres entiers.
ĂTAPE 6 : BOMBARDER UNE FAMILLE
Vous tuez une famille sans raison
Les sources qui ont parlĂ© Ă +972 et Ă Local Call ont expliquĂ© qu'il y avait parfois un dĂ©calage important entre le moment oĂč les systĂšmes de repĂ©rage comme Where's Daddy ? alertent un officier qu'une cible est entrĂ©e dans sa maison, et le bombardement lui-mĂȘme - ce qui a conduit au meurtre de familles entiĂšres sans mĂȘme que la cible visĂ©e par l'armĂ©e ne soit atteinte.
âIl m'est arrivĂ© plusieurs fois d'attaquer une maison, mais la personne n'Ă©tait mĂȘme pas chez elleâ, a dĂ©clarĂ© une source. âRĂ©sultat : vous avez tuĂ© une famille sans raisonâ.
Trois sources du renseignement ont dĂ©clarĂ© Ă +972 et Ă Local Call qu'elles avaient Ă©tĂ© tĂ©moins d'un incident au cours duquel l'armĂ©e israĂ©lienne avait bombardĂ© le domicile d'une famille, et qu'il s'Ă©tait avĂ©rĂ© par la suite que la cible visĂ©e par l'assassinat n'Ă©tait mĂȘme pas Ă l'intĂ©rieur de la maison, aucune autre vĂ©rification n'ayant Ă©tĂ© effectuĂ©e en temps rĂ©el.

âParfois, [la cible] arrive chez elle plus tĂŽt, puis le soir, elle va dormir ailleurs, par exemple sous terre, et vous ne le savez pasâ, a dĂ©clarĂ© l'une des sources. âIl y a des moments oĂč l'on vĂ©rifie deux fois l'emplacement, et d'autres oĂč l'on se dit simplement : âOk, il Ă©tait dans la maison ces derniĂšres heures, donc on peut donc bombarderââ.
Une autre source a dĂ©crit un incident similaire l'ayant affectĂ© et incitĂ© Ă participer Ă l'enquĂȘte.
âNous avons cru comprendre que la cible Ă©tait chez elle Ă 20 heures. En fin de compte, l'armĂ©e de l'air a bombardĂ© la maison Ă 3 heures du matin. Il y avait deux autres familles avec des enfants dans le bĂątiment que nous avons bombardĂ©â.
Lors des prĂ©cĂ©dentes guerres Ă Gaza, aprĂšs avoir tuĂ© des cibles, les services de renseignement israĂ©liens procĂ©daient Ă une Ă©valuation des dommages causĂ©s par les bombes (âbomb damage assessmentâ, ou BDA) - une vĂ©rification de routine aprĂšs la frappe pour voir si le commandant en chef avait Ă©tĂ© tuĂ© et combien de civils l'avaient Ă©tĂ© en mĂȘme temps que lui. Comme l'a rĂ©vĂ©lĂ© une prĂ©cĂ©dente enquĂȘte de +972 et Local Call, ces procĂ©dures impliquaient l'Ă©coute des appels tĂ©lĂ©phoniques des parents ayant perdu leurs proches. Dans la guerre actuelle, cependant, au moins en ce qui concerne les militants subalternes marquĂ©s par l'IA, les sources affirment que cette procĂ©dure a Ă©tĂ© abandonnĂ©e afin de gagner du temps. Les sources ont dĂ©clarĂ© qu'elles ne savaient pas combien de civils avaient Ă©tĂ© tuĂ©s lors de chaque frappe, et concernant les militants suspectĂ©s de faire partie du Hamas et du Jihad islamique palestinien, elles ne savaient mĂȘme pas si la cible elle-mĂȘme avait Ă©tĂ© tuĂ©e.
âVous ne savez pas exactement combien de personnes vous avez tuĂ©es, ni qui vous avez tuĂ©â, a dĂ©clarĂ© une source du renseignement Ă Local Call dans le cadre d'une prĂ©cĂ©dente enquĂȘte publiĂ©e en janvier.
âCe n'est que lorsqu'il s'agit de membres importants du Hamas que vous suivez la procĂ©dure de la BDA. Dans les autres cas, vous ne vous en souciez pas. Vous recevez un rapport de l'armĂ©e de l'air indiquant si le bĂątiment a explosĂ©, et c'est tout. Vous n'avez aucune idĂ©e de l'ampleur des dommages collatĂ©raux, vous passez immĂ©diatement Ă la cible suivante. L'accent Ă©tait mis sur la multiplication des cibles, le plus vite possibleâ.
Mais alors que l'armée israélienne peut tourner la page sur chaque frappe sans s'attarder sur le nombre de victimes, Amjad Al-Sheikh, le résident de Shuja'iya qui a perdu 11 membres de sa famille dans le bombardement du 2 décembre, a déclaré que lui et ses voisins sont toujours à la recherche des corps.
âJusqu'Ă prĂ©sent, on trouve toujours des corps sous les dĂ©combresâ, a-t-il dĂ©clarĂ©. âQuatorze bĂątiments rĂ©sidentiels ont Ă©tĂ© bombardĂ©s avec leurs habitants Ă l'intĂ©rieur. Certains de mes proches et de mes voisins sont toujours ensevelis.â
* Yuval Abraham est un journaliste et cinéaste basé à Jérusalem.


