👁🗨 “Lavender”, l'IA qui guide les bombardements israéliens à Gaza
Les frappes sur les chefs du Hamas se poursuivent & des sources déclarent que l'armée valide l'assassinat de “centaines” de civils par cible - une politique officielle historique jamais vue en Israël.
👁🗨 “Lavender”, l'IA qui guide les bombardements israéliens à Gaza
Par Yuval Abraham, le 3 avril 2024
L'armée israélienne a désigné des dizaines de milliers d'habitants de Gaza comme étant suspectés de meurtres, en utilisant un système de ciblage par IA peu supervisé par l'homme et une politique permissive en matière de pertes humaines, révèlent +972 et Local Call.
En 2021, un livre intitulé “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World”[“La machine humaine : Comment créer une synergie entre humains et intelligence artificielle qui révolutionnera notre monde”] a été publié en anglais sous le nom de plume “Brigadier General Y.S.” Dans cet ouvrage, l'auteur - un homme dont nous avons confirmé qu'il est l'actuel commandant de l'unité d'élite du renseignement israélien 8200 - plaide en faveur de la conception d'une machine spéciale capable de traiter rapidement des quantités massives de données afin de générer des milliers de “cibles” potentielles pour des frappes militaires dans le feu de l'action. Cette technologie, écrit-il, résoudrait ce qu'il décrit comme une
“lacune humaine tant pour la localisation des nouvelles cibles que pour la prise de décision concernant l'approbation des cibles”.
Il s'avère qu'une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l'armée israélienne a mis au point un programme basé sur l'intelligence artificielle, connu sous le nom de “Lavender”, dévoilé ici pour la première fois. Selon six officiers de renseignement israéliens, qui ont tous servi dans l'armée pendant la guerre actuelle contre la bande de Gaza et ont été directement impliqués dans l'utilisation de l'intelligence artificielle pour générer des cibles à assassiner, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières phases de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle qu'elles traitaient les résultats de la machine d'IA “comme s'il s'agissait d'une décision humaine”.
Officiellement, le système Lavender est conçu pour sélectionner tous les agents présumés des branches militaires du Hamas et du Jihad islamique palestinien (PIJ), y compris les agents de rang inférieur, comme des cibles potentielles d'attentats à la bombe. Les sources ont déclaré à +972 et à Local Call que, pendant les premières semaines de la guerre, l'armée s'est presque entièrement appuyée sur Lavender, qui a désigné jusqu'à 37 000 Palestiniens comme étant des militants présumés - ainsi que leurs leurs maisons - en vue d'éventuelles frappes aériennes.
Au début de la guerre, l'armée a largement autorisé les officiers à générer des listes de personnes à abattre de Lavender, sans qu'il soit nécessaire de vérifier minutieusement pourquoi la machine avait fait ces choix, ou d'examiner les données brutes du renseignement sur lesquelles elles étaient basées. Une source a déclaré que le personnel humain ne faisait souvent qu'entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu'environ “20 secondes” à chaque cible avant d'autoriser un bombardement - juste pour s'assurer que la cible désignée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce que l'on considère comme des “erreurs” dans environ 10 % des cas, et qu'il est notoire qu’il sélectionne occasionnellement des individus qui n'ont qu'un lien ténu avec des groupes militants, voire aucun lien du tout.
En outre, l'armée israélienne a systématiquement attaqué les personnes ciblées alors qu'elles se trouvaient chez elles - généralement la nuit, en présence de toute leur famille - plutôt qu'au cours d'une activité militaire présumée. Selon les sources, cela s'expliquerait par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus chez eux. D'autres systèmes automatisés, dont celui appelé “Where's Daddy ?” [Où est papa ?], également révélé ici pour la première fois, ont été utilisés spécifiquement pour suivre les personnes ciblées et commettre des attentats à la bombe lorsqu'elles sont chez elles avec leur famille.
Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens - pour la plupart des femmes et des enfants ou des personnes qui n'étaient pas impliquées dans les combats - ont été tués par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d'intelligence artificielle.
“Nous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu'ils se trouvent dans un bâtiment militaire ou participent à une activité militaire”, a déclaré A., un officier de renseignement, à +972 et à Local Call. “Au contraire, les Forces de défense israéliennes les ont bombardés dans leurs maisons sans hésiter, en première option. Il est beaucoup plus facile de bombarder la maison d'une famille. Le système est conçu pour les rechercher dans ce type de situation”.
La machine Lavender rejoint un autre système d'IA, “The Gospel”, dont +972 et Local Call ont révélé des informations lors d’une précédente enquête en novembre 2023, et visibles dans les propres publications de l'armée israélienne. Une différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels, selon l'armée, les militants opèrent, Lavender désigne les personnes - et les inscrit sur une liste de suspects à abattre.
En outre, selon les sources, lorsqu'il s'agit de cibler des militants juniors présumés marqués par Lavender, l'armée préfère n'utiliser que des missiles non guidés, communément appelés bombes “muettes” (par opposition aux bombes de précision dites “intelligentes”), qui peuvent détruire des bâtiments entiers et causer d'importantes pertes humaines.
“Nous ne voulons pas gaspiller des bombes coûteuses sur des personnes sans importance - cela coûte très cher au pays, alors que la pénurie [de ces bombes] se fait sentir”,
a déclaré C., l'un des officiers de renseignement. Une autre source a déclaré qu'ils avaient personnellement autorisé le bombardement de “centaines” d’habitations privés d'agents subalternes présumés marqués par Lavender, nombre de ces attaques tuant des civils et des familles entières en tant que “dommages collatéraux”.
Selon deux des sources, l'armée a également décidé, au cours des premières semaines de la guerre, que pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu'à 15 ou 20 civils. Par le passé, l'armée n'autorisait aucun “dommage collatéral” lors de l'assassinat de militants de moindre importance. Les sources ont ajouté que, quand la cible est un haut responsable du Hamas commandant de bataillon ou de brigade, l'armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils pour l'assassinat d'un seul commandant.
L'enquête suivante est présentée selon les six étapes chronologiques de la production hautement automatisée de cibles par l'armée israélienne au cours des premières semaines de la guerre de Gaza. Tout d'abord, nous décrivons la machine Lavender elle-même, qui a étiqueté des dizaines de milliers de Palestiniens à l'aide de l'intelligence artificielle. Ensuite, nous dévoilons le système “Where's Daddy ?”, qui a traqué ces cibles et les a signalées à l'armée lorsqu'elles rentrent chez elles. Troisièmement, nous montrons comment les bombes “muettes” sont choisies pour frapper ces habitations.
Quatrièmement, nous décrivons comment l'armée a élargi le nombre autorisé de civils pouvant être tués lors du bombardement d'une cible. Cinquièmement, cette étude montre comment un logiciel automatisé a calculé de manière peu précise le nombre de non-combattants dans chaque foyer. Sixièmement, nous révélons qu'à plusieurs reprises, lorsqu'une maison est bombardée, généralement la nuit, la cible visée n'est parfois pas chez elle, car les officiers ne vérifient pas l'information en temps réel.
ÉTAPE 1 : GÉNÉRER DES CIBLES
Lorsque l'on adopte l'automatisme, le processus de création des cibles échappe à tout contrôle.
Dans l'armée israélienne, l’expression “cible humaine” désignait autrefois un haut responsable militaire qui, selon les règles du département du droit international de l'armée, pouvait être tué chez lui, même avec des civils à proximité. Des sources du renseignement ont déclaré à +972 et à Local Call qu'au cours des précédentes guerres d'Israël, puisqu'il s'agit d'une manière “particulièrement brutale” de tuer quelqu'un - souvent en tuant la cible et avec elle toute une famille - ces cibles humaines étaient marquées très soigneusement et seuls les commandants militaires de première importance étaient bombardés à leur domicile, afin de maintenir le principe de proportionnalité en vertu du droit international.
Mais après le 7 octobre, lorsque les militants du Hamas ont lancé leur assaut contre les communautés du sud d'Israël, tuant environ 1 200 personnes et en enlevant 240, l'armée a adopté une approche radicalement différente, selon les sources. Dans le cadre de l'opération “Iron Swords”, l'armée a décidé de désigner tous les agents de la branche militaire du Hamas comme des cibles humaines, quel que soit leur rang ou leur importance militaire. Cela a tout changé.
Cette nouvelle politique a également posé un problème technique aux services de renseignement israéliens. Au cours des guerres précédentes, pour autoriser l'assassinat d'une seule cible humaine, un officier devait se plier à un processus long et complexe dit d'“incrimination” : vérifier par recoupement les preuves que la personne est bien un membre important de l'aile militaire du Hamas, découvrir où elle vit, ses coordonnées, et enfin savoir quand elle est chez elle en temps réel. Quand la liste des cibles ne comptait que quelques dizaines de hauts responsables, le personnel des services de renseignement pouvait s'occuper individuellement du processus d'incrimination et de localisation.
Cependant, une fois que la liste a été élargie pour inclure des dizaines de milliers d'agents de moindre importance dans la hiérarchie, l'armée israélienne a compris qu'elle devait s'appuyer sur des logiciels automatisés et sur l'intelligence artificielle. Les sources témoignent que le rôle du personnel humain dans l'incrimination des Palestiniens en tant qu'agents militaires a été mis de côté et que l'intelligence artificielle a fait le gros du travail à sa place. Selon quatre des sources qui ont parlé à +972 et à Local Call, Lavender - qui a été développé pour créer des cibles humaines dans la guerre actuelle - a marqué quelque 37 000 Palestiniens comme étant des “militants du Hamas” présumés, la plupart d'entre eux étant jeunes, en vue de leur assassinat (le porte-parole des FDI a nié l'existence d'une telle liste dans une déclaration à +972 et à Local Call).
“Nous ne savions pas qui étaient les agents subalternes, parce qu'Israël ne les suivait pas régulièrement [avant la guerre]”, a expliqué l'officier B. à +972 et à Local Call, expliquant la raison pour laquelle cette machine à cibler a été développée pour la guerre en cours.
“On voulait pouvoir attaquer [les agents subalternes] systématiquement. C'est là le Saint Graal. Une fois que vous passez à l'automatisme, la production de cibles se déchaîne”.
Les sources ont déclaré que l'autorisation de valider systématiquement les listes d'objectifs de Lavender, qui n'avaient été utilisées auparavant que comme outil auxiliaire, a été accordée environ deux semaines après le début de l’offensive, après que le personnel des services de renseignement a vérifié “manuellement” l'exactitude d'un échantillon aléatoire de plusieurs centaines de cibles sélectionnées par le système d'intelligence artificielle. Lorsque cet échantillon a révélé que les résultats de Lavender avaient atteint une précision de 90 % dans l'identification de l'affiliation d'un individu au Hamas, l'armée a autorisé l'utilisation généralisée du système. À partir de ce moment-là, les sources ont déclaré que si Lavender décidait qu'un individu était un militant du Hamas, il leur était essentiellement demandé de traiter l’information comme un ordre, sans qu'il soit nécessaire de vérifier de manière indépendante pourquoi la machine avait fait ce choix, ou d'examiner les données brutes de renseignement sur lesquelles elle est basée.
“À 5 heures du matin, [l'armée de l'air] décollait et bombardait toutes les maisons que nous avions marquées”, raconte B.. “Nous avons éliminé des milliers de personnes. Nous ne les avons pas vérifiées une par une - nous avons tout mis dans des systèmes automatisés, et dès qu'un [des individus marqués] était chez lui, il devenait immédiatement une cible. Nous le bombardions, lui et sa maison”.
L’issue meurtrière du relâchement des restrictions au début de la guerre ont été stupéfiants. Selon les données du ministère palestinien de la santé à Gaza, sur lesquelles l'armée israélienne s'appuie presque exclusivement depuis le début de la guerre, Israël a tué quelque 15 000 Palestiniens - soit près de la moitié du nombre de morts à ce jour - au cours des six premières semaines de la guerre, jusqu'à ce qu'un cessez-le-feu d'une semaine soit conclu le 24 novembre.
Plus les informations sont précises et diversifiées, mieux c'est
Le logiciel Lavender analyse les informations recueillies sur la plupart des 2,3 millions d'habitants de la bande de Gaza grâce à un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans l'aile militaire du Hamas ou du Jihad islamique palestinien. Selon certaines sources, la machine attribue à presque chaque habitant de Gaza une note de 1 à 100, exprimant la probabilité qu'il s'agisse d'un militant.
Lavender est capable d'identifier les caractéristiques des agents connus du Hamas et du Jihad islamique palestinien, PIJ, dont les informations ont été transmises à la machine à titre de données d'entraînement, puis de repérer ces mêmes caractéristiques - également appelées “signes distinctifs” - au sein de la population dans son ensemble, ont expliqué les sources. Une personne présentant plusieurs caractéristiques incriminantes différentes obtient une note élevée et devient ainsi systématiquement une cible potentielle pour un assassinat.
Dans “The Human-Machine Team”, le livre cité au début de cet article, l'actuel commandant de l'unité 8200 plaide en faveur d'un tel système sans citer Lavender nommément. (Le commandant lui-même n'est pas nommé, mais cinq sources au sein de l'unité 8200 ont confirmé que le commandant était l'auteur, comme l'a également relaté Haaretz). Décrivant le personnel humain comme un “facteur d’engorgement” qui limite la capacité de l'armée lors d'une opération militaire, le commandant se lamente :
“Nous [les humains] ne pouvons pas traiter autant d'informations. Peu importe le nombre de personnes chargées de déterminer les objectifs à atteindre au cours de la guerre, il est toujours impossible de définir un nombre suffisant d'objectifs par jour.”
Selon lui, la solution à ce problème réside dans l'intelligence artificielle. Le livre propose un petit guide pour élaborer une “machine à cibler”, similaire à Lavender, basée sur l'intelligence artificielle et des algorithmes d'apprentissage automatique. Ce guide contient plusieurs exemples de “centaines et de milliers” de caractéristiques susceptibles d'augmenter la cote d'un individu, comme le fait de faire partie d'un groupe Whatsapp avec un militant connu, de changer de téléphone portable tous les quelques mois et de déménager fréquemment.
“Plus les informations sont nombreuses et variées, mieux c'est”, écrit le commandant. “Informations visuelles, cellulaires, connexions aux réseaux sociaux, informations sur le terrain, contacts téléphoniques, photos”.
Si, dans un premier temps, ce sont les humains qui sélectionnent ces caractéristiques, poursuit le commandant, au fil du temps, la machine les identifiera d'elle-même. Selon lui, cela peut permettre aux armées de créer “des dizaines de milliers de cibles”, la décision de les attaquer ou non restant du ressort de l'homme.
Ce livre n'est pas le seul dans lequel un commandant israélien a fait allusion à l'existence de machines à cibles humaines telles que Lavender. +972 et Local Call ont obtenu des séquences d'une conférence privée donnée par le commandant du pôle secret de science des données et d'intelligence artificielle de l'unité 8200, le “colonel Yoav”, lors de la semaine de l'intelligence artificielle de l'université de Tel-Aviv en 2023, dont les médias israéliens ont rendu compte à l'époque.
Lors de cette conférence, le commandant parle d'une nouvelle machine cible sophistiquée utilisée par l'armée israélienne, qui détecte les “individus dangereux” en se basant sur leur similitude avec les listes existantes de militants connus sur lesquelles elle a été entraînée. “Grâce à ce système, nous avons réussi à identifier les commandants des escadrons du Hamas”, a déclaré le colonel Yoav lors de la conférence, en faisant référence à l'opération militaire israélienne de mai 2021 à Gaza, au cours de laquelle la machine a été utilisée pour la première fois.
Les diapositives de la présentation, également obtenues par +972 et Local Call, contiennent des illustrations du fonctionnement de la machine : elle est alimentée en données sur les agents du Hamas existants, elle apprend à assimiler leurs caractéristiques, puis elle évalue d'autres Palestiniens en fonction de leur degré de similitude avec les militants.
“Nous classons les résultats et déterminons le seuil [à partir duquel il convient d'attaquer une cible]”, a déclaré le colonel Yoav lors de la conférence, soulignant qu'“au final, ce sont des personnes en chair et en os qui prennent les décisions. Dans le domaine de la Défense, d'un point de vue éthique, nous insistons beaucoup sur ce point. Ces outils sont destinés à aider [les officiers de renseignement] à franchir des barrières.”
Dans la pratique, cependant, les sources qui ont utilisé Lavender au cours des derniers mois affirment que l'interaction humaine et la précision ont été remplacées par la création de cibles de masse et la létalité.
Pas de politique “zéro erreur”
B., un officier supérieur qui a utilisé Lavender, a expliqué à +972 et à Local Call que dans la guerre actuelle, les officiers ne sont pas tenus d'examiner de manière indépendante les évaluations du système d'IA, afin de gagner du temps et de permettre la production en masse de cibles humaines sans entraves.
“Tout est statistique, tout est parfaitement ordonné - c'est très sobre”, a déclaré B.. Il a noté que ce manque de supervision a été autorisé malgré des contrôles internes montrant que les calculs de Lavender ne sont considérés comme exacts que dans 90 % des cas : en d'autres termes, on savait à l'avance que 10 % des cibles humaines destinées à être assassinées n'étaient pas du tout des membres de l'aile militaire du Hamas.
Par exemple, des sources ont expliqué que Lavender signalait parfois par erreur des individus dont les modes de communication étaient similaires à ceux d'agents connus du Hamas ou du Djihad islamique palestinien, notamment des membres de la police et de la protection civile, des parents de militants, des habitants dont le nom et le surnom étaient identiques à ceux d'un agent, et des habitants de Gaza utilisant un téléphone ayant autrefois appartenu à un agent du Hamas.
“À quel point une personne doit-elle être proche du Hamas pour être [considérée par une machine d'IA comme] affiliée à l'organisation ?”, a déclaré une source critiquant l'inexactitude de Lavender. “C’est très vague. Quelqu’un qui ne reçoit pas de salaire du Hamas, mais qui l'aide pour toutes sortes de choses, est-elle un agent du Hamas ? Une personne qui a fait partie du Hamas dans le passé, mais plus aujourd'hui, est-elle un agent du Hamas ? Chacune de ces caractéristiques - des caractéristiques qu'une machine signalerait comme suspectes - est inexacte”.
Des problèmes similaires se posent concernant la capacité des machines de ciblage à évaluer le téléphone utilisé par une personne désignée pour être assassinée. “En temps de guerre, les Palestiniens changent constamment de téléphone”, explique la source. “Les gens perdent le contact avec leur famille, donnent leur téléphone à un ami ou à une épouse, et le perdent peut-être. Il est impossible de se fier à 100 % au mécanisme automatique qui détermine quel numéro de téléphone appartient à qui”.
Selon les sources, l'armée savait qu’une supervision humaine minimale en place ne permettrait pas de découvrir ces failles.
Il n'y a pas de politique “zéro erreur”. “Les erreurs sont traitées statistiquement”, a déclaré une source qui a utilisé Lavender. “En raison de la portée et de l'ampleur du projet, le protocole est le suivant : même si l'on n'est pas sûr que la machine donne un résultat correct, on sait que statistiquement, elle fait le job. C'est pourquoi on l'utilise.”
“Elle a fait ses preuves”, a déclaré B., la source principale. "“L'approche statistique a quelque chose de normatif et de standard. Le nombre de [bombardements] dans cette opération est illogique. De mémoire, c'est sans précédent. Mais je fais bien plus confiance à un mécanisme statistique qu'à un soldat qui a perdu un ami il y a deux jours. Tous, moi compris, ont perdu des proches le 7 octobre. La machine procède de manière neutre. Et cela facilite les choses”.
Une autre source de renseignements, qui a défendu le recours aux listes de suspects palestiniens établies par Lavender, a fait valoir que cela ne vaut la peine d'investir le temps d'un officier de renseignement que pour vérifier l'information si la cible est un commandant de haut rang du Hamas.
“Mais lorsqu'il s'agit d'un militant subalterne, il n'est pas souhaitable d'investir du temps et de la main-d'œuvre dans cette tâche”, a-t-il déclaré. “En temps de guerre, on n'a pas le temps de vérifier l'identité de chaque cible. On est donc prêt à prendre la marge d'erreur liée à l'utilisation de l'intelligence artificielle, à risquer des dommages collatéraux et la mort de civils, et à risquer d'attaquer par erreur, et à s'en accommoder”.
B. explique que la raison de cette automatisation tient à la volonté d'augmenter en permanence le nombre de cibles à assassiner.
“Le jour où il n'y aura pas de cibles [dont l'évaluation des caractéristiques sera suffisante pour autoriser une frappe], nous attaquerons à un seuil plus bas. On nous a mis constamment la pression : ‘Donnez-nous plus de cibles’. Ils nous ont vraiment bousculés. Nous avons éliminé nos cibles très rapidement”.
Il a expliqué qu'en abaissant le seuil de qualification de Lavender, le système marque davantage de personnes comme étant des cibles à abattre.
“À son apogée, le système a réussi à générer 37 000 personnes comme cibles humaines potentielles”, a déclaré B. “Mais les chiffres évoluaient tout le temps, parce que tout dépend du seuil fixé pour définir ce qu'est un agent du Hamas. Parfois, la définition d'un agent du Hamas est plus générale, puis la machine commence à nous fournir toutes sortes d'agents de la protection civile et de la police, sur lesquels il serait dommage de gaspiller des bombes. Ils aident le gouvernement du Hamas, mais ne mettent pas vraiment les soldats en danger.”
“Nous vérifions juste que la cible est un homme”
L'armée israélienne rejette catégoriquement ces affirmations. Dans une déclaration à +972 et Local Call, le porte-parole de l'IDF a nié utiliser l'intelligence artificielle pour déterminer des cibles, affirmant qu'il s'agit simplement “d'outils auxiliaires qui aident les officiers dans le processus d'implication”. Le communiqué poursuit :
“Dans tous les cas, un examen indépendant par un analyste [du renseignement] est nécessaire, qui vérifie que les cibles identifiées sont des cibles légitimese, conformément aux conditions énoncées dans les directives de Tsahal et le droit international.”
Toutefois, des sources ont indiqué que le seul protocole de supervision humaine mis en place avant de bombarder les maisons de militants “juniors” présumés marqués par Lavender consiste à effectuer une vérification unique : s'assurer que la cible sélectionnée par l'IA est un homme plutôt qu'une femme. L'armée part du principe que s'il s'agit d'une femme, la machine a probablement commis une erreur, car il n'y a pas de femmes dans les rangs des ailes militaires du Hamas et du Jihad islamique palestinien.
“Un être humain ne doit consacrer que quelques secondes [à la vérification de la cible]”, explique B., qui précise que ce protocole a été adopté après avoir constaté que le système Lavender “fait bien les choses” la plupart du temps.
“Au début, nous faisions des vérifications pour nous assurer que la machine ne se trompait pas. Mais à un certain stade, nous nous sommes fiés au système automatique et nous nous sommes contentés de vérifier si [la cible] est bien un homme - et c'est suffisant. Il ne faut que peu de temps pour distinguer une voix masculine d'une voix féminine”.
Pour effectuer la vérification homme/femme, B. affirme que dans la guerre actuelle,
“je mettrais 20 secondes pour chaque cible à ce stade, et j'en ferais des dizaines par jour. Je ne présente aucune valeur ajoutée en tant qu'être humain, si ce n'est celle d'être une approbation. Cela permet de gagner beaucoup de temps. Si [l'agent] apparaît dans le mécanisme automatisé et que je vérifie qu'il s'agit bien d'un homme, j'ai l'autorisation de le bombarder, sous réserve d'un examen des dommages collatéraux”.
Dans la pratique, les sources ont déclaré que, pour les hommes civils marqués par erreur par Lavender, il n'y avait pas de mécanisme de supervision en place pour détecter l'erreur.
ÉTAPE 2 : RELIER LA CIBLE À SON DOMICILE
La plupart des personnes tuées étaient des femmes et des enfants
L'étape suivante de la procédure d'assassinat de l'armée israélienne consiste à déterminer où attaquer les cibles générées par Lavender.
Dans une déclaration à +972 et à Local Call, le porte-parole des FDI a affirmé, en réponse à cet article, que
“le Hamas place ses agents et ses moyens militaires au cœur de la population civile, utilise systématiquement la population civile comme bouclier humain et mène des combats à l'intérieur de structures civiles, y compris des sites sensibles tels que les hôpitaux, les mosquées, les écoles et les installations de l'ONU. Les Forces de défense israéliennes sont soumises au droit international et agissent conformément à celui-ci, en dirigeant leurs attaques uniquement contre des cibles militaires et des agents militaires”.
Les six sources avec lesquelles nous nous sommes entretenus ont fait écho à ces propos dans une certaine mesure, affirmant que le vaste réseau de tunnels du Hamas passe délibérément sous les hôpitaux et les écoles, que les militants du Hamas utilisent des ambulances pour se déplacer et qu'un nombre incalculable de moyens militaires ont été placés à proximité de bâtiments civils. Les sources affirment que de nombreuses frappes israéliennes tuent des civils en raison de ces tactiques du Hamas - une caractérisation qui, selon les groupes de défense des droits de l'homme, élude la responsabilité d'Israël quant au nombre de victimes.
Toutefois, contrairement aux déclarations officielles de l'armée israélienne, les sources ont expliqué que l'une des principales raisons du nombre sans précédent de victimes des bombardements israéliens actuels tient au fait que l'armée a systématiquement attaqué les cibles à leur domicile, avec leur famille - en partie parce qu'il est plus facile, du point de vue du renseignement, de marquer les maisons familiales à l'aide de systèmes automatisés.
En effet, plusieurs sources ont souligné que, contrairement aux nombreux cas d'agents du Hamas engagés dans des activités militaires depuis des zones civiles, dans le cas des frappes d'assassinat systématiques, l'armée a régulièrement fait le choix délibéré de bombarder des militants présumés lorsqu'ils se trouvent chez eux, dans des zones sans activité militaire. Ce choix, selon eux, est le reflet de la conception du système israélien de surveillance de masse dans la bande de Gaza.
Les sources ont déclaré à +972 et à Local Call que, puisque chaque habitant de Gaza avait une adresse privée à laquelle il peut être associé, les systèmes de surveillance de l'armée peuvent facilement et systématiquement “relier” des individus à des maisons familiales. Afin d'identifier en temps réel le moment où les agents rentrent chez eux, plusieurs logiciels automatiques supplémentaires ont été développés. Ces programmes suivent des milliers d'individus simultanément, identifient le moment où ils sont chez eux et envoient une alerte automatisée à l'officier chargé du ciblage, qui marque alors la maison en vue d'un bombardement. L'un de ces logiciels, révélé ici pour la première fois, s'appelle “Where's Daddy ?”
“Vous entrez des centaines [de cibles] dans le système et vous attendez de voir qui vous pouvez tuer”, a déclaré une source au fait du système. “C'est ce qu'on appelle la traque élargie : vous copiez-collez à partir des listes générées par le système de ciblage”.
Des preuves de cette politique ressortent également des données : au cours du premier mois de la guerre, plus de la moitié des victimes - 6 120 personnes - faisaient partie de 1 340 familles, dont beaucoup ont été entièrement anéanties à l'intérieur de leur maison, selon les chiffres de l'ONU. La proportion de familles entières bombardées dans leurs maisons dans la guerre actuelle est beaucoup plus élevée que lors de l'opération israélienne de 2014 à Gaza, confirmant cette politique.
Une autre source a déclaré que chaque fois que le rythme des assassinats diminue, de nouvelles cibles sont ajoutées à des systèmes comme Where's Daddy ? pour localiser les individus rentrés chez eux et donc susceptibles d'être bombardés. Il a ajouté que la décision de placer des cibles dans les systèmes de repérage pouvait être prise par des officiers de grade modeste au sein de la hiérarchie militaire.
“Un jour, j'ai ajouté de mon propre chef quelque 1 200 nouvelles cibles au système [de repérage], parce que le nombre d'attaques [menées] avait baissé”, a déclaré la source. “Cela me paraissait logique. Rétrospectivement, cela semble avoir été une décision judicieuse Et de telles décisions n'ont pas été prises en haut lieu”.
Les sources ont indiqué qu'au cours des deux premières semaines de l'offensive, “plusieurs milliers” de cibles ont été initialement saisies dans des programmes de localisation tels que Where's Daddy ?. Il s'agissait notamment de tous les membres de l'unité d'élite des forces spéciales du Hamas, la Nukhba, de tous les opérateurs antichars du Hamas et de toute personne ayant pénétré en Israël le 7 octobre. Mais très vite, la liste des personnes à abattre s'est considérablement allongée.
“Au final, tout le monde [a été marqué par Lavender]”, selon une source. “Des dizaines de milliers. Cela s'est produit quelques semaines plus tard, lorsque les brigades [israéliennes] sont entrées dans Gaza et que le nombre de personnes non impliquées [c'est-à-dire de civils] dans les zones septentrionales était déjà moins élevé. Selon cette source, même certains mineurs ont été désignés par Lavender comme des cibles à abattre. Normalement, les agents ont plus de 17 ans, mais ce n'était déjà plus un critère”.
Lavender et des systèmes comme Where's Daddy ? ont donc été conjugués avec effet mortel, tuant des familles entières, d'après certaines sources. En ajoutant un nom figurant sur les listes générées par Lavender au système de suivi des foyers Where's Daddy ?, a expliqué A., la personne marquée est placée sous surveillance permanente et peut être attaquée dès qu'elle met un pied chez elle, faisant s'effondrer la maison sur toutes les personnes qui s'y trouvent.
" Supposons que vous estimez [qu'un] [agent du Hamas] se trouve chez lui avec 10 [civils dans la maison]”, a déclaré A.. “En général, ces dix personnes sont des femmes et des enfants. Par conséquent, de manière absurde, la plupart des personnes que vous avez tuées étaient des femmes et des enfants”.
ÉTAPE 3 : LE CHOIX DES ARMES
“Nous menons généralement nos attaques avec des ‘bombes muettes’”.
Une fois que Lavender a désigné une cible à assassiner, que le personnel de l'armée a vérifié qu'il s'agit bien d'un homme et qu'un logiciel de suivi a localisé la cible à son domicile, l'étape suivante consiste à choisir les munitions qui serviront à l'éliminer.
En décembre 2023, CNN a rapporté que, selon les estimations des services de renseignement américains, environ 45 % des munitions utilisées par l'armée de l'air israélienne à Gaza étaient des bombes “muettes”, connues pour causer davantage de dommages collatéraux que les bombes téléguidées. En réponse à l'article de CNN, un porte-parole de l'armée cité dans l'article a déclaré :
“En tant qu'armée attachée au droit international et à un code de conduite moral, nous consacrons de vastes ressources à minimiser les dommages causés aux civils que le Hamas a contraints à jouer le rôle de boucliers humains. Notre guerre est dirigée contre le Hamas, pas contre la population de Gaza”.
Trois sources des services de renseignement ont toutefois déclaré à +972 et à Local Call que les membres auxiliaires marqués par Lavender n'ont été assassinés qu'avec des bombes muettes, afin d'économiser des armements plus coûteux. L'une des sources a expliqué que l'armée ne frappait pas de cible secondaire si elle vit dans un grand immeuble, parce qu'elle ne tient pas à investir dans une “bombe de plancher” plus précise et plus coûteuse (aux effets collatéraux plus limités) pour l'abattre. En revanche, si une cible secondaire vit dans un immeuble de quelques étages seulement, l'armée est autorisée à la tuer, ainsi que tous les habitants de l'immeuble, à l'aide d'une bombe muette.
“Ça se passe comme ça avec toutes les cibles secondaires”, témoigne C., qui a utilisé divers programmes automatisés dans la guerre actuelle. “La seule question est de savoir s'il est possible d'attaquer le bâtiment en limitant les dommages collatéraux. En effet, nous attaquons généralement avec des bombes muettes, ce qui signifie détruire littéralement toute le bâtiment et ses occupants. Mais même si une attaque est manquée, ça n’a pas d’importance, on passe immédiatement à la cible suivante. Grâce au système, le ciblage ne s'arrête jamais. Il y en a encore 36 000 qui attendent”.
ÉTAPE 4 : AUTORISER LES PERTES CIVILES
“Nous avons presque toujours attaqué sans tenir compte des dommages collatéraux”.
Une source a déclaré que pour les attaques contre des membres auxiliaires, y compris ceux marqués par des systèmes d'intelligence artificielle comme Lavender, le nombre de civils pouvant être tués pour chaque cible a été fixé à 20 au cours des premières semaines de la guerre. Selon une autre source, ce nombre aurait été fixé à 15. Ces “seuils de dommages collatéraux”, comme les militaires les appellent, ont été appliqués de manière généralisée à tous les militants secondaires présumés, selon les sources, indépendamment de leur rang, de leur importance militaire et de leur âge, et sans examen spécifique au cas par cas pour évaluer le bien-fondé militaire de leur assassinat au regard des dommages causés à la population civile.
Selon A., officier dans une salle d'opérations dans la guerre actuelle, le département du droit international de l'armée n'avait eencore jamais donné son accord à un degré aussi élevé de dommages collatéraux.
“Non seulement vous pouvez tuer toute personne appartenant au Hamas, ce qui est clairement autorisé et légitime en termes de droit international”, a déclaré A.. “Mais ils vous disent ouvertement : ‘Vous pouvez les tuer ainsi que de nombreux civils’”.
“Toute personne ayant porté un uniforme du Hamas au cours de l'année ou des deux dernières années est susceptible d'être bombardée avec 20 [civils tués] en guise de dommages collatéraux, même sans autorisation spéciale”, a poursuivi M. A.. “Dans la pratique, le principe de proportionnalité n'existe pas”.
Selon A., cette politique a été appliquée pendant la majeure partie de la période où il a servi. Ce n'est que plus tard que l'armée a abaissé le seuil des dommages collatéraux. “Selon ce raisonnement, il peut s'agir de 20 enfants pour un soldat auxiliaire... Ce n'était vraiment pas le cas dans le passé”, a expliqué A.. Interrogé sur la logique sécuritaire qui sous-tend cette politique, A. a répondu : “La létalité”.
Le degré prédéterminé et constant de dommages collatéraux a contribué à accélérer le processus de désignation massive de cibles grâce à Lavender, selon certaines sources, car il permet de gagner du temps. B. a affirmé que le nombre de civils qu'ils ont été autorisés à tuer par militant auxiliaire présumé marqué par l'IA au cours de la première semaine de la guerre était de quinze, mais que ce nombre “a fluctué” au fil du temps.
“Au début, nous avons attaqué sans pratiquement tenir compte des dommages collatéraux”, a déclaré B. à propos de la première semaine qui a suivi le 7 octobre. “Concrètement, on ne comptait pas vraiment les gens [dans chaque maison bombardée], parce qu'on ne pouvait pas vraiment savoir s'ils étaient chez eux ou non. Au bout d'une semaine, les restrictions sur les dommages collatéraux ont commencé. Le nombre est passé [de 15] à cinq, ce qui a rendu nos attaques très difficiles, car si toute la famille était à la maison, nous ne pouvions pas la bombarder. Puis ce nombre a de nouveau été revu à la hausse”.
Nous savions que nous allions tuer plus de 100 civils
Des sources ont déclaré à +972 et à Local Call qu'aujourd'hui, en partie à cause de la pression américaine, l'armée israélienne ne génère plus de cibles humaines junior en masse pour les faire bombarder chez eux. Le fait que la plupart des maisons de la bande de Gaza soient déjà détruites ou endommagées, et que la quasi-totalité de la population ait été déplacée, a également réduit la capacité de l'armée à s'appuyer sur des bases de données de renseignements et des programmes automatisés de localisation des maisons.
E. a affirmé que les bombardements massifs des militants juniors n'ont eu lieu que pendant la première ou les deux premières semaines de la guerre, et qu'ils ont ensuite été interrompus principalement pour ne pas gaspiller les bombes.
“Une politique d’économie des munitions existe”, a déclaré E.. “Ils ont toujours eu peur d'une guerre dans le nord [avec le Hezbollah au Liban]. Ils n'attaquent plus du tout ce genre de personnage [subalterne]”.
Cependant, les frappes aériennes contre les commandants en chef du Hamas se poursuivent, et des sources ont déclaré que dans ce contexte, l'armée autorise l'assassinat de “centaines” de civils par cible - une politique officielle sans précédent historique en Israël, ni même dans les récentes opérations militaires des États-Unis.
“Lors du bombardement du commandant du bataillon Shuja'iya, nous savions que nous allions tuer plus de 100 civils”, a rappelé B. à propos d'un bombardement du 2 décembre qui, selon le porte-parole des Forces de défense israéliennes, prévoyait l'assassinat de Wisam Farhat. “Pour moi, psychologiquement, c'était anormal. Plus de 100 civils, c'est la ligne rouge à ne pas franchir”.
Amjad Al-Sheikh, un jeune Palestinien de Gaza, a déclaré que de nombreux membres de sa famille avaient été tués dans ce bombardement. Habitant de Shuja'iya, à l'est de la ville de Gaza, il se trouvait ce jour-là dans un supermarché local lorsqu'il a entendu cinq détonations qui ont brisé les vitres.
“J'ai couru vers chez moi, mais il n'y avait plus d'immeuble”, a déclaré M. Al-Sheikh à +972 et à Local Call. “La rue était remplie de cris et de fumée. Des pâtés de maisons entiers on été métamorphosés en montagnes de décombres avec d’énormes cratères. Les gens cherchaient dans les gravats, avec leurs mains, et moi aussi, je cherchais des traces de ma maison.”
La femme et la petite fille d'Al-Sheikh ont survécu - protégées des décombres par une armoire qui leur est tombée dessus - mais il a retrouvé 11 autres membres de sa famille, dont ses sœurs, ses frères et leurs jeunes enfants, morts sous l’effondrement de l’immeuble. Selon l'organisation de défense des droits de l'homme B'Tselem, les bombardements de ce jour-là ont détruit des dizaines de bâtiments, tué des dizaines de personnes et en ont enseveli des centaines sous les ruines de leurs maisons.
Des familles entières ont été tuées
Des sources des services de renseignement ont déclaré à +972 et à Local Call qu'ils avaient participé à des frappes encore plus meurtrières. Afin d'assassiner Ayman Nofal, le commandant de la brigade centrale de Gaza du Hamas, une source a déclaré que l'armée avait autorisé le meurtre d'environ 300 civils, détruisant plusieurs bâtiments lors de frappes aériennes sur le camp de réfugiés d'Al-Bureij le 17 octobre, sur la base d'un repérage imprécis de Nofal. Des images satellite et des vidéos de la scène montrent la destruction de plusieurs grands immeubles d'habitation à plusieurs étages.
“Entre 16 et 18 bâtiments ont été détruites lors de l'attaque”, a déclaré Amro Al-Khatib, un résident du camp, à +972 et à Local Call. “Nous ne pouvions plus distinguer un appartement d'un autre - ils ont tous été dispersés dans les décombres, et nous avons trouvé des morceaux de corps humains partout”.
Al-Khatib se souvient qu'une cinquantaine de cadavres ont été retirés des décombres, et qu'environ 200 personnes ont été blessées, dont beaucoup grièvement. Mais ce n'était que le premier jour. Les habitants du camp ont passé cinq jours à sortir les morts et les blessés.
Nael Al-Bahisi, un secouriste, a été l'un des premiers à arriver sur les lieux. Il a dénombré entre 50 et 70 victimes le premier jour.
“À un moment donné, nous avons compris que la cible de la frappe était le commandant du Hamas Ayman Nofal”, a-t-il déclaré à +972 et à Local Call. “Ils l'ont tué, ainsi que de nombreuses personnes qui ne savaient pas qu'il était là. Des familles entières avec leurs enfants ont été tuées.”
Une autre source de renseignements a déclaré à +972 et à Local Call que l'armée avait détruit une tour à Rafah à la mi-décembre, tuant “des dizaines de civils”, afin d'essayer de tuer Mohammed Shabaneh, le commandant de la brigade du Hamas à Rafah (on ne sait pas s'il a été tué ou non dans l'attaque). Selon la source, les hauts commandants se cachent souvent dans des tunnels passant sous des bâtiments civils, et le choix de les assassiner d’une frappe aérienne tue donc nécessairement des civils.
“La plupart des blessés étaient des enfants”, a déclaré Wael Al-Sir, 55 ans, qui a assisté à la frappe de grande envergure que certains habitants de Gaza considèrent comme une tentative d'assassinat. Il a déclaré à +972 et à Local Call que le bombardement du 20 décembre a détruit un “quartier résidentiel entier” et tué au moins 10 enfants.
“La politique relative aux victimes des opérations [de bombardement] était totalement permissive - tellement permissive qu'à mon avis, la vengeance a joué un rôle”, a affirmé D., une source des services de renseignement. “Les assassinats de hauts responsables [du Hamas et du PIJ] pour lesquels ils étaient prêts à tuer des centaines de civils étaient certes au centre de cette politique. Mais le calcul était le suivant : combien pour un commandant de brigade, combien pour un commandant de bataillon, et ainsi de suite”.
“Des règles existent, mais elles sont très souples”, explique E., une autre source du renseignement. “Nous avons tué des gens avec des dommages collatéraux à deux chiffres, voire à trois. Ça ne s'était jamais produit auparavant”.
Un tel ratio de “dommages collatéraux” est exceptionnellement élevé non seulement au regard de ce que l'armée israélienne jugeait auparavant acceptable, mais aussi en comparaison des guerres menées par les États-Unis en Irak, en Syrie et en Afghanistan.
Le général Peter Gersten, commandant adjoint des opérations et du renseignement dans les opérations de lutte contre l'État islamique en Irak et en Syrie, a déclaré à un magazine de la Défense américain en 2021 qu'une attaque avec des dommages collatéraux frappant 15 civils s'écartait de la procédure. Pour la mener à bien, il avait dû obtenir une autorisation spéciale du chef du Commandement central des États-Unis, le général Lloyd Austin, aujourd'hui Secrétaire à la Défense.
“Dans le cas d'Oussama Ben Laden, la NCV [Non-combatant Casualty Value : Taux de pertes de non-combattants] était de 30, mais dans le cas d'un commandant de grade inférieur, la NCV était généralement égale à zéro”, a expliqué M. Gersten. “Nous sommes restés à zéro pendant très longtemps”.
On nous disait : “Faites le maximum, bombardez”
Toutes les sources interrogées dans le cadre de cette enquête ont déclaré que les massacres perpétrés par le Hamas le 7 octobre et l'enlèvement d'otages ont fortement influencé la politique de l'armée en matière de tirs et de taux de dommages collatéraux.
“Au début, l'atmosphère était tendue et revancharde”, a déclaré B., incorporé dans l'armée immédiatement après le 7 octobre, et qui a servi dans une salle d'opérations sur objectifs.
“Les règles étaient très laxistes. Ils ont détruit quatre bâtiments alors qu'ils savaient que la cible se trouvait dans l'un d'entre eux. C'était de la folie.”
“Nous avons été confrontés à un dilemme : d'une part, les gens ici étaient frustrés par le fait que nous n'attaquions pas assez”, a poursuivi B.. “Et en fin de journée, vous constatez qu'un millier d'habitants de Gaza sont morts, la plupart d'entre eux étant des civils”.
“Chez les militaires de carrière, c'était l'hystérie”, raconte D., lui aussi enrôlé juste après le 7 octobre. “Ils ne savaient pas du tout comment réagir. Tout ce qu'ils savaient faire était de bombarder comme des fous pour essayer de démanteler les structures du Hamas.”
D. a souligné qu'on ne leur avait pas explicitement dit que l'objectif de l'armée était “la vengeance”,
mais a précisé que “dès l'instant où une cible liée au Hamas devenait légitime et que presque tous les dommages collatéraux étaient approuvés, il était évident que des milliers de personnes allaient être tuées. Même si officiellement chaque cible est associée au Hamas, quand la politique est si permissive, elle perd tout son sens”.
A. a également employé le mot “vengeance” pour décrire l'atmosphère qui régnait au sein de l'armée après le 7 octobre.
“Personne n'a pensé à ce qu'il faudrait faire après, une fois la guerre terminée, ni à la façon dont il serait possible de vivre à Gaza et à ce que l'on en ferait”, a déclaré A.. “On nous a dit : maintenant, il faut foutre en l'air le Hamas, à n'importe quel prix. Tout ce que vous pouvez bombarder, bombardez-le”.
B., la source principale du renseignement israélien, a déclaré qu'avec le recul, il est convaincu que cette politique “disproportionnée” consistant à tuer des Palestiniens à Gaza met également en danger les Israéliens, et que c'est l'une des raisons pour lesquelles il a décidé d'être interviewé.
“À court terme, nous sommes peut-être plus en sécurité, parce que nous avons touché le Hamas. Mais je pense que nous serons moins en sécurité sur le long terme. Je conçois que toutes les familles endeuillées de Gaza - c'est-à-dire presque tout le monde - vont motiver les gens à rejoindre le Hamas dans dix ans. Et il sera beaucoup plus simple pour [le Hamas] de les recruter”.
Dans une déclaration à +972 et à Local Call, l'armée israélienne a démenti une grande partie de ce que les sources nous ont confié, affirmant que
“chaque cible est étudiée individuellement, tout en évaluant l'avantage militaire et les dommages collatéraux attendus de l'attaque... Les Forces de défense israéliennes ne mènent pas d'attaques si les dommages collatéraux attendus sont excessifs comparés à l'avantage militaire”.
ÉTAPE 5 : DÉTERMINER LES DOMMAGES COLLATÉRAUX
Une théorie éloignée de la pratique
Selon les sources du renseignement, le calcul par l'armée israélienne du nombre de civils susceptibles d'être tués dans chaque maison située à proximité d'une cible - une procédure examinée dans une enquête précédente de +972 et Local Call - s'effectue à l'aide d'outils automatiques et imprécis. Lors des guerres précédentes, les services du renseignement passaient beaucoup de temps à vérifier le nombre de personnes présentes dans une maison appelée à être bombardée, le nombre de civils susceptibles d'être tués étant répertorié dans un “fichier de cibles”. Après le 7 octobre, cependant, cette vérification minutieuse a été largement abandonnée au profit de l'automatisation.
En octobre, le New York Times a fait état d'un système exploité à partir d'une base spéciale dans le sud d'Israël, qui recueille des informations à partir des téléphones portables dans la bande de Gaza et fournit à l'armée une estimation en temps réel du nombre de Palestiniens qui ont fui le nord de la bande de Gaza vers le sud. Le général de brigade Udi Ben Muha a déclaré au Times :
“Ce n'est pas un système à 100% fiable, mais il fournit les informations dont nous avons besoin pour prendre une décision”.
Le système fonctionne par couleurs : le rouge indique les zones où il y a beaucoup de monde, tandis que le vert et le jaune indiquent les zones plus ou moins vidées de leurs habitants.
Les sources qui se sont confiées à +972 et Local Call ont décrit un système similaire de calcul des dommages collatéraux, utilisé pour décider de bombarder ou non un bâtiment à Gaza. Elles ont déclaré que le logiciel calculait le nombre de civils résidant dans chaque maison avant la guerre - en évaluant la taille du bâtiment et en examinant sa liste de résidents - et réduisait ensuite ces chiffres par la proportion de résidents censés avoir évacué le quartier.
Par exemple, si l'armée estime que la moitié des habitants d'un quartier sont partis, le programme va compter une maison comptant habituellement 10 habitants comme une maison de cinq personnes. Pour gagner du temps, l'armée ne contrôle pas pour vérifier combien de personnes y vivent réellement, comme elle l'a fait lors d'opérations précédentes, afin de savoir si l'estimation du logiciel est vraiment exacte.
“Ce concept est sans rapport avec la réalité”, affirme l'une des sources. “Il n'y a aucun lien entre les personnes qui vivent dans la maison aujourd'hui, pendant la guerre, et celles qui y vivaient avant la guerre. [Il nous est arrivé de bombarder une maison sans savoir que plusieurs familles s'y cachaient”.
Selon la source, bien que l'armée sache que de telles erreurs peuvent se produire, ce système imprécis a tout de même été adopté parce qu'il est plus rapide. Ainsi, selon la source, “le calcul des dommages collatéraux est totalement automatique et statistique” - et sort même des chiffres qui ne sont pas des nombres entiers.
ÉTAPE 6 : BOMBARDER UNE FAMILLE
Vous tuez une famille sans raison
Les sources qui ont parlé à +972 et à Local Call ont expliqué qu'il y avait parfois un décalage important entre le moment où les systèmes de repérage comme Where's Daddy ? alertent un officier qu'une cible est entrée dans sa maison, et le bombardement lui-même - ce qui a conduit au meurtre de familles entières sans même que la cible visée par l'armée ne soit atteinte.
“Il m'est arrivé plusieurs fois d'attaquer une maison, mais la personne n'était même pas chez elle”, a déclaré une source. “Résultat : vous avez tué une famille sans raison”.
Trois sources du renseignement ont déclaré à +972 et à Local Call qu'elles avaient été témoins d'un incident au cours duquel l'armée israélienne avait bombardé le domicile d'une famille, et qu'il s'était avéré par la suite que la cible visée par l'assassinat n'était même pas à l'intérieur de la maison, aucune autre vérification n'ayant été effectuée en temps réel.
“Parfois, [la cible] arrive chez elle plus tôt, puis le soir, elle va dormir ailleurs, par exemple sous terre, et vous ne le savez pas”, a déclaré l'une des sources. “Il y a des moments où l'on vérifie deux fois l'emplacement, et d'autres où l'on se dit simplement : ‘Ok, il était dans la maison ces dernières heures, donc on peut donc bombarder’”.
Une autre source a décrit un incident similaire l'ayant affecté et incité à participer à l'enquête.
“Nous avons cru comprendre que la cible était chez elle à 20 heures. En fin de compte, l'armée de l'air a bombardé la maison à 3 heures du matin. Il y avait deux autres familles avec des enfants dans le bâtiment que nous avons bombardé”.
Lors des précédentes guerres à Gaza, après avoir tué des cibles, les services de renseignement israéliens procédaient à une évaluation des dommages causés par les bombes (“bomb damage assessment”, ou BDA) - une vérification de routine après la frappe pour voir si le commandant en chef avait été tué et combien de civils l'avaient été en même temps que lui. Comme l'a révélé une précédente enquête de +972 et Local Call, ces procédures impliquaient l'écoute des appels téléphoniques des parents ayant perdu leurs proches. Dans la guerre actuelle, cependant, au moins en ce qui concerne les militants subalternes marqués par l'IA, les sources affirment que cette procédure a été abandonnée afin de gagner du temps. Les sources ont déclaré qu'elles ne savaient pas combien de civils avaient été tués lors de chaque frappe, et concernant les militants suspectés de faire partie du Hamas et du Jihad islamique palestinien, elles ne savaient même pas si la cible elle-même avait été tuée.
“Vous ne savez pas exactement combien de personnes vous avez tuées, ni qui vous avez tué”, a déclaré une source du renseignement à Local Call dans le cadre d'une précédente enquête publiée en janvier.
“Ce n'est que lorsqu'il s'agit de membres importants du Hamas que vous suivez la procédure de la BDA. Dans les autres cas, vous ne vous en souciez pas. Vous recevez un rapport de l'armée de l'air indiquant si le bâtiment a explosé, et c'est tout. Vous n'avez aucune idée de l'ampleur des dommages collatéraux, vous passez immédiatement à la cible suivante. L'accent était mis sur la multiplication des cibles, le plus vite possible”.
Mais alors que l'armée israélienne peut tourner la page sur chaque frappe sans s'attarder sur le nombre de victimes, Amjad Al-Sheikh, le résident de Shuja'iya qui a perdu 11 membres de sa famille dans le bombardement du 2 décembre, a déclaré que lui et ses voisins sont toujours à la recherche des corps.
“Jusqu'à présent, on trouve toujours des corps sous les décombres”, a-t-il déclaré. “Quatorze bâtiments résidentiels ont été bombardés avec leurs habitants à l'intérieur. Certains de mes proches et de mes voisins sont toujours ensevelis.”
* Yuval Abraham est un journaliste et cinéaste basé à Jérusalem.