đâđš âOĂč est papa ?â Le systĂšme dâIA meurtrier dâIsraĂ«l
Lorsque la poussiÚre retombera sur Gaza, les historiens réaliseront quelle machine a donné les ordres. Where's Daddy ?, la machine qui fait de l'heure du coucher un champ de bataille. Qui tue l'amour.
đâđš âOĂč est papa ?â Le systĂšme dâIA meurtrier dâIsraĂ«l
Par Mk Sensei, le 25 mai 2025
Comment le systÚme d'IA d'Israël a transformé les liens familiaux en coordonnées de ciblage à Gaza.
I-Le code derriĂšre le carnage
Alors que les missiles pleuvent sur Gaza et que les immeubles s'effondrent, une guerre silencieuse se dĂ©roule derriĂšre les Ă©crans lumineux et les serveurs clignotants des centres de commandement militaire israĂ©liens. Le logiciel au cĆur de cette guerre porte un nom inquiĂ©tant : Where's Daddy ?
DĂ©veloppĂ© par l'unitĂ© 8200, l'Ă©lite des services du renseignement militaire israĂ©lien, Where's Daddy ? n'est mĂȘme pas mentionnĂ© dans le discours officiel. Mais Ă la suite de l'offensive gĂ©nocidaire d'IsraĂ«l Ă Gaza, oĂč plus de 67 000 Palestiniens sont tombĂ©s en date de mai 2025, dont plus de 70 % de femmes et d'enfants, ce systĂšme alimentĂ© par l'IA a Ă©mergĂ© comme l'une des technologies les plus effrayantes de la guerre moderne.
Créé Ă l'origine dans le cadre de l'architecture de surveillance par fusion de donnĂ©es d'IsraĂ«l, Where's Daddy ? utilise des mĂ©tadonnĂ©es, la reconnaissance de schĂ©mas et le profilage comportemental pour tracer les mouvements des hommes palestiniens, en particulier ceux considĂ©rĂ©s comme Ă©tant âen Ăąge de combattreâ, sur la base de leurs interactions familiales. En identifiant quand et oĂč un pĂšre est susceptible d'aller voir ses enfants, le systĂšme signale Ă l'armĂ©e de l'air israĂ©lienne qu'il y a une âopportunitĂ© de frappeâ En termes plus simples : on attend qu'il rentre chez lui pour embrasser son enfant, puis on bombarde la maison.
II-A Le piÚge numérique : comment fonctionne Where's Daddy ?
Selon des tĂ©moignages divulguĂ©s par des agents des services de renseignement israĂ©liens et corroborĂ©s par les enquĂȘtes du magazine +972 et de Local Call, Where's Daddy ? fonctionne en fusionnant les donnĂ©es de surveillance provenant de multiples plateformes : interceptions de communications cellulaires, images satellite, vidĂ©os de drones et profilage biomĂ©trique. GrĂące Ă un apprentissage automatique, le systĂšme crĂ©e des modĂšles probabilistes : oĂč la cible est-elle susceptible de se trouver Ă 18 heures ? Qui va-t-elle voir pour l'AĂŻd ? Quelle est la meilleure occasion de frapper sans âgaspillerâ de missiles ?
Le nom, qui aurait Ă©tĂ© inventĂ© par un analyste de l'UnitĂ© 8200, n'est pas seulement une requĂȘte algorithmique. C'est une philosophie de guerre. Les enfants sont l'appĂąt. Les maisons les piĂšges. La famille la faille fatale.
Un ancien officier israélien a révélé que durant les premiÚres phases de l'invasion terrestre,
ânous attendions qu'un pĂšre rentre chez lui. Une fois qu'il Ă©tait entrĂ©, nous donnions le feu vert pour l'attaqueâ.
Dans une dĂ©claration distincte, une source de l'armĂ©e de l'air a dĂ©crit comment le systĂšme âOptimise les crĂ©neaux de mise Ă mortâ en fonction de ces retours, souvent autour de l'heure du dĂźner.
L'efficacitĂ© macabre de ce modĂšle s'apparente Ă ce qu'on appelle la police prĂ©dictive Ă outrance. Sauf qu'Ă Gaza, ĂȘtre la mauvaise personne au mauvais moment ne signifie pas ĂȘtre arrĂȘtĂ©, mais ĂȘtre anĂ©anti.

III-La machine de mise à mort de l'IA à grande échelle
Where's Daddy ? n'est pas un cas isolé. Il fonctionne comme une composante d'un réseau plus vaste de systÚmes de guerre autonomes et semi-autonomes en Israël.
Ces systĂšmes d'IA â Lavender, Where's Daddy ?, Habsora (The Gospel), Gospel Plus et Fire Factory â ne fonctionnent pas de maniĂšre isolĂ©e.
Ils constituent plutĂŽt une infrastructure intĂ©grĂ©e de surveillance, de ciblage et d'anĂ©antissement. Ils Ćuvrent de concert, transmettant donnĂ©es et dĂ©cisions via un rĂ©seau interconnectĂ©, oĂč le contrĂŽle humain se rĂ©duit Ă une simple validation. Il ne s'agit pas seulement d'une guerre. Il s'agit d'une extermination algorithmique.
A. Lavender : le générateur de listes de personnes à abattre
Au cĆur de la chaĂźne meurtriĂšre de l'IA israĂ©lienne se trouve Lavender, un outil dotĂ© d'une intelligence artificielle dĂ©veloppĂ© par les services du renseignement militaire israĂ©liens.
Lavender fonctionne comme un moteur de profilage alimentĂ© par l'IA qui passe au crible d'Ă©normes quantitĂ©s de donnĂ©es de surveillance â mĂ©tadonnĂ©es, enregistrements tĂ©lĂ©phoniques, rĂ©seaux sociaux, modĂšles comportementaux et associations non vĂ©rifiĂ©es â afin de gĂ©nĂ©rer un âscore de mise Ă mortâ des hommes palestiniens. Une fois un seuil atteint, Lavender signale automatiquement l'individu comme devant ĂȘtre assassinĂ©. Selon des rapports d'enquĂȘte, des dizaines de milliers de noms sont passĂ©s par ce systĂšme. Dans la pratique, des soldats subalternes, souvent ĂągĂ©s d'une vingtaine d'annĂ©es, approuvent plus de 100 ordres d'assassinat par jour sur la seule base des suggestions automatisĂ©es de Lavender. Comme l'a dĂ©crit un initiĂ© :
âVous n'avez pas besoin de vĂ©rifier. S'il est dans Lavender, c'est un terroristeâ.
On ne conteste pas la décision. Il n'y a pas de confirmation. Pas de vérification par les services du renseignement. L'algorithme devient juge, jury et, par procuration, bourreau.
B. Where's Daddy ? Le timing parfait pour instaurer la terreur psychologique
Une fois que Lavender a identifié qui doit mourir, Where's Daddy ? détermine quand. Ce systÚme, également alimenté par l'IA, cartographie les habitudes et déplacements des personnes ciblées. Sa fonction principale est de synchroniser les frappes aériennes afin d'avoir un impact psychologique et civil maximal. Si la personne ciblée est chez elle avec sa famille, en particulier avec des enfants, Where's Daddy ? donne le feu vert à l'opération.
L'objectif n'est pas seulement l'assassinat, mais aussi le traumatisme collectif des civils. Des familles entiĂšres sont rayĂ©es de la carte en quelques secondes, dans le but glaçant d'envoyer un message politique : personne n'est en sĂ©curitĂ©, pas mĂȘme sous son propre toit.
Lavender choisit qui doit mourir, Where's Daddy ? choisit le moment oĂč l'impact est maximal.
C. Habsora (L'Ăvangile) : le moteur relationnel
Habsora, qui signifie âĂvangileâ en hĂ©breu, est un autre maillon clĂ© de cette machine de guerre IA. Il fonctionne comme un moteur de cartographie relationnelle, analysant les rĂ©seaux d'associations entre les individus. Le systĂšme analyse rapidement les donnĂ©es de surveillance afin d'identifier des cibles potentielles, notamment des bĂątiments, des Ă©quipements et des individus soupçonnĂ©s d'appartenir au Hamas ou au Jihad islamique. Selon des sources militaires, Habsora a considĂ©rablement accĂ©lĂ©rĂ© l'identification des cibles, passant d'environ 50 cibles par an Ă 100 cibles par jour durant le rĂ©cent gĂ©nocide. Ă l'aide de mĂ©tadonnĂ©es et de renseignements gĂ©ospatiaux, Habsora marque les individus socialement ou gĂ©ographiquement proches des cibles existantes. Cette approche Ă©largit considĂ©rablement le champ d'action des assassinats, bien au-delĂ des critĂšres traditionnels des services du renseignement militaire. En substance, Habsora transforme la proximitĂ© en arme. Habsora a permis de mener des campagnes de bombardements Ă grande Ă©chelle, des quartiers rĂ©sidentiels entiers Ă©tant marquĂ©s pour ĂȘtre frappĂ©s sur la base de probabilitĂ©s gĂ©nĂ©rĂ©es par l'IA plutĂŽt que de menaces confirmĂ©es.
D. Gospel Plus : le générateur de précédents
L'arme la plus rĂ©cente de cet arsenal est Gospel Plus, un systĂšme d'IA qui analyse les opĂ©rations militaires passĂ©es Ă l'aide du deep learning. Son rĂŽle est d'Ă©valuer la âfaisabilitĂ©â d'un assassinat, en tirant parti des actions passĂ©es d'IsraĂ«l pour prĂ©dire les actions futures possibles. Ce systĂšme crĂ©e un modĂšle de justification basĂ© sur les donnĂ©es. Si une frappe similaire n'a pas suscitĂ© de rĂ©action internationale dans le passĂ©, Gospel Plus la recommandera Ă nouveau. Les prĂ©cĂ©dents juridiques sont remplacĂ©s par une reconnaissance des schĂ©mas militaires. Les crimes de guerre deviennent alors des points de donnĂ©es dans un algorithme.
E. Fire Factory : La calculatrice de destruction
Une fois la cible et le moment choisis, Fire Factory s'occupe de la logistique. Ce systĂšme calcule le nombre et la taille des bombes nĂ©cessaires pour dĂ©truire un bĂątiment ou un quartier spĂ©cifique. Il met ensuite ces bombes en attente pour qu'elles soient automatiquement larguĂ©es par des drones ou des avions de combat. Fire Factory ne se soucie pas de savoir qui se trouve Ă l'intĂ©rieur du bĂątiment. Ses donnĂ©es sont purement structurelles : tonnage, rayon de l'explosion, dynamique de l'effondrement. Il s'agit d'un pur outil de dĂ©molition, utilisĂ© mĂȘme lorsque des civils sont encore piĂ©gĂ©s Ă l'intĂ©rieur. Comme l'a admis un officier des services de renseignement israĂ©liens :
âLa machine propose. L'humainvalide. Puis la bombe est larguĂ©eâ.
Mais mĂȘme cette âvalidationâ est en grande partie automatisĂ©e. Les cibles gĂ©nĂ©rĂ©es par IA sont prĂ©autorisĂ©es en masse. La supervision humaine est sommaire, souvent purement procĂ©durale. Il en rĂ©sulte un systĂšme oĂč la responsabilitĂ© est dissoute dans le code et oĂč les dĂ©cisions autrefois chargĂ©es d'un poids moral sont transfĂ©rĂ©es aux machines.
C'est ce qu'un lanceur d'alerte a qualifiĂ© de âmeurtre industrielâ.
La boucle : comment tout cela fonctionne ensemble
Lavender attribue une note Ă chaque individu en fonction de sa probabilitĂ© d'ĂȘtre tuĂ©. [Qui]
Where's Daddy ? suit leurs mouvements et sĂ©lectionne le moment le plus âpropiceâ pour frapper. [Quand]
Habsora The Gospel identifie les bĂątiments et les installations prĂ©tendument utilisĂ©s par les militants. [OĂč]
Gospel Plus justifie le meurtre à l'aide de données issues de frappes passées. [Contexte]
Fire Factory planifie et exécute la destruction proprement dite. [Comment]
IV-Le coût humain : les civils victimes collatérales
L'une des utilisations les plus effroyables de Where's Daddy ? a Ă©tĂ© son rĂŽle dans le ciblage de zones civiles Ă forte densitĂ©. Selon certaines informations, le systĂšme inclut explicitement âles enfants Ă la maisonâ dans les variables calculĂ©es.
âLa prĂ©sence d'enfants n'est pas un facteur dissuasifâ, a dĂ©clarĂ© une source. âC'est parfois mĂȘme le but recherchĂ©. Parce que nous savons que c'est Ă ce moment-lĂ que la cible sera lĂ â.
Cette stratĂ©gie a atteint son paroxysme dans les camps de rĂ©fugiĂ©s de Jabaliya et d'al-Bureij, oĂč des familles entiĂšres ont Ă©tĂ© incinĂ©rĂ©es parce que les pĂšres Ă©taient censĂ©s ĂȘtre Ă la maison aprĂšs le couvre-feu. Un cas citĂ© par le ministĂšre palestinien de la SantĂ© concerne une famille de neuf personnes, toutes tuĂ©es lorsqu'une bombe d'une tonne a rasĂ© leur appartement Ă 19 h 42, prĂ©cisĂ©ment Ă l'heure oĂč le pĂšre rentrait du marchĂ©.
Dans un autre cas, un agent de la protection civile trĂšs connu a Ă©tĂ© tuĂ© avec ses filles alors qu'ils regardaient la tĂ©lĂ©vision. Son âmode de vieâ, suivi grĂące Ă son tĂ©lĂ©phone portable, montrait qu'il rentrait chez lui tous les soirs Ă la mĂȘme heure. Ce n'Ă©tait pas un combattant, mais un ambulancier.
Le résultat ? Des centaines d'enfants tués, pas par accident, mais de maniÚre délibérée.

V-De la surveillance Ă l'extermination
Whereâs Daddy ? incarne l'instrumentalisation de la vie elle-mĂȘme. Alors que le ciblage traditionnel repose sur les services du renseignement, ce systĂšme s'appuie sur les habitudes. Il tue non pas en fonction de ce que fait une personne, mais en fonction de qui elle est, oĂč elle va, qui elle aime.
Il marque ainsi une évolution terrifiante dans la guerre numérique. Il abolit la distinction entre surveillance et exécution. L'amour d'un pÚre devient le déclencheur de l'algorithme. Une étreinte fait office de preuve.
Les autorités israéliennes nient que Where's Daddy ? vise des civils. Mais leur silence sur l'existence du systÚme, malgré les témoignages qui s'accumulent, en dit long. Tout comme leur refus de divulguer les registres de ciblage, les motifs des frappes ou les analyses post-mortem. La transparence, dans cette guerre, fait des victimes.

VI-Effondrement éthique et impunité juridique
Les défenseurs des droits humains avertissent que l'opération Where's Daddy ? peut constituer une violation du droit international.
âLe ciblage dĂ©libĂ©rĂ© de civils Ă l'aide de modĂšles prĂ©visionnels basĂ©s sur les habitudes familiales Ă©quivaut Ă un meurtre prĂ©mĂ©ditĂ©â,
a déclaré le Dr Kareem Ahmed, spécialiste du droit de la guerre à l'université SOAS de Londres.
L'utilisation de l'IA à cette fin porte également atteinte au principe de distinction inscrit dans les Conventions de GenÚve.
âCe ne sont pas des erreurs. Ce sont des caractĂ©ristiquesâ, a ajoutĂ© Ahmed. âLe systĂšme est conçu pour exploiter les aspects les plus humains de la vie â les liens, la parentĂ©, la routine â comme vecteurs de mortâ.
Selon les juristes, IsraĂ«l pourrait ĂȘtre accusĂ© de crimes de guerre si des preuves sont mises au jour. Mais avec un systĂšme entourĂ© du plus grand secret et un accĂšs restreint aux mĂ©dias, la justice pourrait rester aussi lointaine que l'horizon dĂ©figurĂ© de Gaza.
VII- Une guerre de relations publiques : une déshumanisation planifiée
Alors que Where's Daddy ? ravageles foyers, les responsables israĂ©liens ont lancĂ© une campagne mĂ©diatique mondiale avec des slogans tels que âRamenez-les chez euxâ et âNous ciblons le Hamas, pas les famillesâ. Contraste saisissant.
La propagande prĂ©sente chaque Ă©cole bombardĂ©e comme un âcentre de commandement du Hamasâ. Chaque appartement dĂ©truit est un ânid de terroristesâ. Pourtant, la philosophie sous-jacente Ă ces attaques est toute autre. Il ne s'agit pas seulement d'Ă©liminer les membres du Hamas, mais de dĂ©truire les structures mĂȘmes qui permettent aux Palestiniens de vivre, d'ĂȘtre ensemble et de se sentir en sĂ©curitĂ©.
Et rien ne le montre plus clairement que Where's Daddy ?, un intitulé qui se moque du chagrin et réduit la recherche d'un enfant à un GPS de traque.
VIII- Ătape suivante : une guerre d'IA sans tĂ©moins
Alors qu'Israël renforce son infrastructure technologique et externalise le ciblage à des réseaux névralgiques et à des prestataires privés, nombreux sont ceux qui craignent que cette guerre n'ait révélé l'avenir des conflits armés : opaques, automatisés et totalement dépourvus d'humanité.
âCe que Where's Daddy ? nous a montrĂ©â, a dĂ©clarĂ© un ancien technicien de l'armĂ©e israĂ©lienne qui a fui IsraĂ«l en signe de protestation, âc'est qu'il n'est pas nĂ©cessaire de voir son ennemi. Il suffit de connaĂźtre ses habitudes. Et une fois que vous connaissez ses habitudes, lâhumain disparaĂźtâ.
C'est sans doute la vérité la plus terrifiante de toutes.
Lorsque la poussiÚre retombera sur Gaza, si jamais elle retombe, les historiens ne se demanderont pas seulement qui a donné les ordres, mais quelle machine a conçu la liste. Dans ce génocide par métadonnées, Where's Daddy ? est plus qu'un accessoire. C'est l'arme.
Une machine qui transforme l'heure du coucher en champ de bataille.
Qui tue l'amour.
Et qui demande, avec une précision impitoyable : Where's Daddy ?
Et qui demande, avec une précision impitoyable : Where's Daddy ?
Traduit par Spirit of Free Speech

Références :
1- https://www.accessnow.org/publication/artificial-genocidal-intelligence-israel-gaza/
2- https://www.aa.com.tr/en/europe/eu-funding-for-israeli-tech-raises-fresh-concerns-of-complicity-in-genocide/3444314
3- https://verfassungsblog.de/gaza-artificial-intelligence-and-kill-lists/
4- https://www.techpolicy.press/when-algorithms-decide-who-is-a-target-idfs-use-of-ai-in-gaza/
5- https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/
6- https://www.972mag.com/lavender-ai-israeli-army-gaza/
7- https://www.hrw.org/news/2024/09/10/questions-and-answers-israeli-militarys-use-digital-tools-gaza
8- https://www.ohchr.org/en/press-releases/2024/04/gaza-un-experts-deplore-use-purported-ai-commit-domicide-gaza-call
9- https://theconversation.com/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net-227422
Je suis quasi-certain que ces 'joujoux' immondes seront en vente car ils interessent sĂ»rement les responsables europĂ©ens en vue du futur univers carcĂ©ral quâils nous prĂ©parent...Retailleau ne serait pas contre Ă substituer la mollesse de ses troupes de choc par des cyber-flics ou robocops tueurs programmĂ©s pour tuer tout dissident pro-russe, complotiste, islamo-gauchiste, ....(rayez les mentions inutile).
ĂcĆurant...La machine sionazie reprĂ©sente la part la plus hideuse de lâhumanitĂ©. La technologie au service de la barbarie portĂ©e au plus haut degrĂ© de linfĂąmie.