đâđš IsraĂ«l dĂ©veloppe un outil similaire Ă ChatGPT pour intensifier la surveillance des Palestiniens
âLes Palestiniens sont des sujet de laboratoire pour IsraĂ«l qui dĂ©veloppe ces techniques dans le seul but dâassoir l'apartheid oĂč elles sont utilisĂ©es pour dominer un peuple & contrĂŽler sa vieâ.

đâđš IsraĂ«l dĂ©veloppe un outil similaire Ă ChatGPT pour intensifier la surveillance des Palestiniens
Par Yuval Abraham, 6 mars 2025
L'armée israélienne est en train de construire un modÚle de langage d'IA utilisant des millions de conversations interceptées entre Palestiniens, susceptible d'accélérer le processus d'incrimination et d'arrestation.
L'armĂ©e israĂ©lienne dĂ©veloppe un nouvel outil d'intelligence artificielle similaire Ă ChatGPT et le perfectionne Ă partir de millions de conversations en arabe obtenues grĂące Ă la surveillance des Palestiniens dans les territoires occupĂ©s, rĂ©vĂšle une enquĂȘte menĂ©e par +972 Magazine, Local Call et The Guardian.
L'outil d'IA, dĂ©veloppĂ© sous les auspices de l'UnitĂ© 8200, une unitĂ© d'Ă©lite de cyberguerre au sein de la Direction du renseignement militaire d'IsraĂ«l, est ce que l'on appelle un âgrand modĂšle de langageâ (Large Language Model, LLM) : un programme d'apprentissage automatique capable d'analyser des informations et de gĂ©nĂ©rer, traduire, anticiper et rĂ©sumer du texte. Alors que les LLM accessibles au public, comme le moteur de ChatGPT, sont alimentĂ©s par des informations rĂ©cupĂ©rĂ©es sur Internet, le nouveau modĂšle en cours de dĂ©veloppement par l'armĂ©e israĂ©lienne est alimentĂ© par de vastes quantitĂ©s de renseignements recueillis sur la vie quotidienne des Palestiniens vivant sous occupation.
L'existence du LLM de l'unitĂ© 8200 a Ă©tĂ© confirmĂ©e Ă +972, Local Call, et au Guardian par trois sources de sĂ©curitĂ© israĂ©liennes ayant connaissance de son dĂ©veloppement. Le modĂšle Ă©tait encore en cours de dĂ©veloppement au cours du second semestre de l'annĂ©e derniĂšre, et on ne sait pas encore s'il a Ă©tĂ© dĂ©ployĂ© ou comment l'armĂ©e l'utilisera exactement. Cependant, des sources ont expliquĂ© que l'un des principaux avantages pour l'armĂ©e sera la capacitĂ© de l'outil Ă traiter rapidement de grandes quantitĂ©s de matĂ©riel de surveillance afin de ârĂ©pondre Ă des questionsâ sur des individus spĂ©cifiques. Ă en juger par la façon dont l'armĂ©e utilise dĂ©jĂ des âmodĂšles de langageâ plus restreints, il semble probable que le LLM pourrait encore accroĂźtre les possibilitĂ©s de mise en accusation et d'arrestation de Palestiniens par IsraĂ«l.
âL'IA accroĂźt le pouvoirâ, a expliquĂ© une source du renseignement qui a suivi de prĂšs le dĂ©veloppement des modĂšles linguistiques par l'armĂ©e israĂ©lienne ces derniĂšres annĂ©es.
âElle permet des opĂ©rations [utilisant] les donnĂ©es d'un nombre beaucoup plus important de personnes, permettant ainsi le contrĂŽle de la population. Il ne s'agit pas seulement de prĂ©venir les tentatives d'attentats. Je peux suivre les militants des droits de l'homme. Je peux surveiller l'activitĂ© de construction palestinienne dans la zone C [de la Cisjordanie]. J'ai accĂšs Ă davantage d'outils pour savoir ce que fait chaque personne en Cisjordanie. Lorsque vous dĂ©tenez autant de donnĂ©es, vous pouvez les utiliser dans n'importe quel butâ.
Bien que l'outil ait Ă©tĂ© dĂ©veloppĂ© avant la guerre actuelle, l'enquĂȘte rĂ©vĂšle qu'aprĂšs le 7 octobre, l'unitĂ© 8200 a sollicitĂ© l'aide de citoyens israĂ©liens ayant une expertise dans le dĂ©veloppement de modĂšles linguistiques et travaillant pour des gĂ©ants de la technologie tels que Google, Meta et Microsoft. Avec la mobilisation massive des rĂ©servistes au dĂ©but de l'offensive d'IsraĂ«l sur Gaza, des experts du secteur privĂ© ont commencĂ© Ă s'enrĂŽler dans l'unitĂ©, apportant des connaissances qui n'Ă©taient auparavant âaccessibles qu'Ă un groupe trĂšs restreint d'entreprises dans le mondeâ, comme l'a dĂ©clarĂ© une source du secteur de la sĂ©curitĂ©. (En rĂ©ponse Ă nos demandes de renseignements, Google a dĂ©clarĂ© que âcertains de ses employĂ©s font partie de la rĂ©serve dans plusieurs paysâ et a soulignĂ© que le travail qu'ils accomplissent dans ce contexte ân'est pas liĂ© Ă Googleâ. Meta et Microsoft ont refusĂ© de commenter.

Selon une source, le âchatbotâ [agent logiciel conçu pour interagir avec des utilisateurs] de l'UnitĂ© 8200 a Ă©tĂ© entraĂźnĂ© sur 100 milliards de mots d'arabe obtenus en partie grĂące Ă la surveillance Ă grande Ă©chelle des Palestiniens par IsraĂ«l, sous le contrĂŽle de son armĂ©e, ce qui, selon les experts, constitue une grave violation des droits des Palestiniens.
âNous parlons d'informations strictement personnelles, obtenues auprĂšs de personnes qui ne sont soupçonnĂ©es d'aucun crime, pour concevoir un outil qui pourrait ensuite contribuer Ă faire naĂźtre des craintesâ,
a déclaré Zach Campbell, chercheur senior en technologie à Human Rights Watch, à +972, Local Call et The Guardian.
Nadim Nashif, directeur et fondateur du groupe palestinien de défense des Droits numériques 7amleh, s'est fait l'écho de ces préoccupations.
âLes Palestiniens sont devenus des sujet de laboratoire pour IsraĂ«l, qui dĂ©veloppe ces techniques et militarise l'IA, dans le seul but de maintenir un rĂ©gime d'apartheid et d'occupation oĂč ces technologies sont utilisĂ©es pour dominer un peuple, pour contrĂŽler sa vie. Il s'agit d'une violation grave et continue des Droits numĂ©riques des Palestiniens, qui relĂšvent des Droits de l'Hommeâ.
âNous remplacerons tous les agents du renseignement par des agents IAâ
Les efforts de l'armée israélienne pour développer son propre LLM ont été reconnus publiquement pour la premiÚre fois par Chaked Roger Joseph Sayedoff, un officier du renseignement qui s'est présenté comme le chef de projet, lors d'une conférence peu remarquée l'année derniÚre.
âNous avons cherchĂ© Ă crĂ©er la plus grande base de donnĂ©es possible, en collectant toutes les donnĂ©es dont l'Ătat d'IsraĂ«l ait jamais disposĂ© en arabeâ,
a-t-il expliquĂ© lors de sa prĂ©sentation Ă la confĂ©rence Defense ML Ă Tel Aviv. Il a ajoutĂ© que le programme est alimentĂ© par des âquantitĂ©s pharamineusesâ d'informations du renseignement.
Selon M. Sayedoff, lorsque le LLM de ChatGPT a Ă©tĂ© mis Ă la disposition du public pour la premiĂšre fois en novembre 2022, l'armĂ©e israĂ©lienne a mis en place une Ă©quipe du renseignement dĂ©diĂ©e pour explorer comment l'IA pourrait ĂȘtre adaptĂ©e Ă des fins militaires.
âNous nous sommes dit : âWow, maintenant nous allons remplacer tous les agents du renseignement par des agents [IA]. Toutes les cinq minutes, ils liront toutes les informations du renseignement israĂ©lien et prĂ©diront qui sera le prochain terroristeââ, a dĂ©clarĂ© M. Sayedoff.
Mais l'Ă©quipe n'a pas fait beaucoup de progrĂšs au dĂ©but. OpenAI, la sociĂ©tĂ© Ă l'origine de ChatGPT, a rejetĂ© la demande d'accĂšs direct de l'unitĂ© 8200 Ă son modĂšle de langage et a refusĂ© de l'intĂ©grer dans le systĂšme interne hors ligne de l'unitĂ©. (L'armĂ©e israĂ©lienne utilise depuis le modĂšle de langage d'OpenAI, achetĂ© via Microsoft Azure, comme l'ont rĂ©vĂ©lĂ© +972 et Local Call dans le cadre d'une autre enquĂȘte rĂ©cente. OpenAI a refusĂ© de commenter cette information.
Comme l'explique Sayedoff, un autre problĂšme s'est posĂ© : les modĂšles linguistiques existants ne pouvaient traiter que l'arabe standard, utilisĂ© dans les communications formelles, la littĂ©rature et les mĂ©dias, et non les dialectes parlĂ©s. L'unitĂ© 8200 a rĂ©alisĂ© qu'elle devait dĂ©velopper son propre programme, basĂ©, comme l'a dit Sayedoff dans sa confĂ©rence, âsur les dialectes de ceux qui nous haĂŻssentâ.

Tout a évolué au début de la guerre de Gaza en octobre 2023, lorsque l'Unité 8200 a commencé à recruter des experts en modÚles linguistiques d'entreprises technologiques privées en tant que réservistes. Ori Goshen, co-PDG et co-fondateur de la société israélienne AI21 Labs, spécialisée dans les modÚles de langage, a confirmé que des employés de son entreprise ont participé au projet pendant leur service de réserve.
âUne agence de sĂ©curitĂ© ne peut pas travailler avec un service comme ChatGPT, elle doit donc trouver un moyen de faire fonctionner l'IA au sein d'un systĂšme [interne] non connectĂ© Ă d'autres rĂ©seauxâ, a-t-il expliquĂ©.
Selon M. Goshen, les LLM pourraient notamment permettre aux agences du renseignement de traiter rapidement les informations et de gĂ©nĂ©rer des listes de âsuspectsâ Ă arrĂȘter. Mais pour lui, la clĂ© rĂ©side en leur capacitĂ© Ă rĂ©cupĂ©rer des donnĂ©es provenant de sources multiples. PlutĂŽt que d'utiliser des âoutils de recherche primitifsâ, les agents pourraient simplement âposer des questions et obtenir des rĂ©ponsesâ d'un agent conversationnel, qui serait par exemple capable de dire si deux personnes se sont dĂ©jĂ rencontrĂ©es ou de dĂ©terminer instantanĂ©ment si une personne a dĂ©jĂ commis un acte donnĂ©.
M. Goshen a toutefois concédé que le recours aveugle à ces outils peut entraßner des erreurs.
âCe sont des modĂšles probabilistes : vous leur posez une question ou leur donnez une instruction, et ils gĂ©nĂšrent quelque chose qui sâapparente Ă de la magieâ, a-t-il expliquĂ©. âMais souvent, la rĂ©ponse n'a aucun sens. Nous appelons cela une « hallucinationâ.
M. Campbell, de Human Rights Watch, a soulevĂ© une prĂ©occupation similaire. Les LLM, a-t-il dĂ©clarĂ©, fonctionnent comme des âmachines Ă devinerâ, et leurs erreurs sont inhĂ©rentes au systĂšme. De plus, ceux qui utilisent ces outils ne sont souvent pas ceux qui les ont dĂ©veloppĂ©s, et les recherches montrent qu'ils ont tendance Ă s'y fier davantage. âEt ces suppositions pourraient ĂȘtre utilisĂ©es pour incriminer des innocentsâ, a-t-il dĂ©clarĂ©.
De prĂ©cĂ©dentes enquĂȘtes menĂ©es par +972 et Local Call sur l'utilisation par l'armĂ©e israĂ©lienne de systĂšmes de ciblage basĂ©s sur l'IA pour faciliter ses bombardements sur Gaza ont mis en Ă©vidence les failles opĂ©rationnelles inhĂ©rentes Ă de tels outils. Par exemple, l'armĂ©e a utilisĂ© un programme connu sous le nom de Lavender pour gĂ©nĂ©rer une âliste de ciblesâ de dizaines de milliers de Palestiniens, que l'IA a mis en cause parce qu'ils prĂ©sentaient des caractĂ©ristiques associĂ©es Ă l'appartenance Ă un groupe militant.
L'armĂ©e a ensuite bombardĂ© nombre de ces personnes, gĂ©nĂ©ralement alors qu'elles se trouvaient chez elles, en famille, alors mĂȘme que le programme Ă©tait connu pour avoir un taux d'erreur de 10 %. Selon certaines sources, la supervision humaine du processus d'assassinat n'aurait servi que de âcache-misĂšreâ et les soldats auraient traitĂ© les rĂ©sultats de Lavender âcomme s'il s'agissait d'une dĂ©cision humaineâ.

âParfois, c'est juste un commandant de division qui exige 100 arrestations par moisâ
Le dĂ©veloppement d'un outil de type ChatGPT entraĂźnĂ© Ă reconnaĂźtre l'arabe parlĂ© reprĂ©sente une nouvelle expansion de l'appareil de surveillance d'IsraĂ«l dans les territoires occupĂ©s, dĂ©jĂ trĂšs intrusif depuis longtemps. Il y a plus de dix ans, des soldats ayant servi dans l'unitĂ© 8200 ont tĂ©moignĂ© avoir surveillĂ© des civils n'ayant aucun lien avec des groupes militants afin d'obtenir des informations pouvant ĂȘtre utilisĂ©es pour les faire chanter, sur leurs difficultĂ©s financiĂšres, leur orientation sexuelle ou une maladie grave les affectant eux-mĂȘmes ou un membre de leur famille. Les anciens soldats ont Ă©galement admis avoir pistĂ© des militants politiques.
ParallÚlement au développement de son propre LLM, l'unité 8200 utilise déjà des modÚles linguistiques plus modestes qui permettent la classification des informations, la transcription et la traduction de conversations de l'arabe parlé vers l'hébreu, ainsi que des recherches par mots-clés efficaces. Ces outils facilitent l'accÚs immédiat aux renseignements, en particulier pour la division de l'armée en Judée-Samarie (Cisjordanie). Selon deux sources, les modÚles plus modestes permettent à l'armée de passer au crible les données de surveillance et d'identifier les Palestiniens exprimant leur colÚre face à l'occupation ou leur désir d'attaquer des soldats ou des colons israéliens.
Une source a dĂ©crit un modĂšle d'analyse linguistique actuellement utilisĂ© qui scanne les donnĂ©es et identifie les Palestiniens Ă l'aide de mots indiquant qu'ils âcherchent des ennuisâ. La source a ajoutĂ© que l'armĂ©e a utilisĂ© des modĂšles d'analyse linguistique pour prĂ©dire qui serait susceptible de jeter des pierres sur les soldats lors d'opĂ©rations visant Ă âaffirmer la prĂ©senceâ de l'armĂ©e, lorsque les soldats font des descentes dans une ville ou un village de Cisjordanie et font du porte-Ă -porte, entrant de force dans chaque maison d'une rue donnĂ©e pour procĂ©der Ă des arrestations et terroriser les habitants.
Des sources du renseignement ont dĂ©clarĂ© que l'utilisation de ces modĂšles linguistiques parallĂšlement Ă une surveillance Ă grande Ă©chelle dans les territoires occupĂ©s a renforcĂ© le contrĂŽle d'IsraĂ«l sur la population palestinienne et a considĂ©rablement augmentĂ© la frĂ©quence des arrestations. Les commandants peuvent accĂ©der Ă des renseignements bruts traduits en hĂ©breu - sans avoir besoin de s'appuyer sur les centres linguistiques de l'UnitĂ© 8200 pour fournir le matĂ©riel, ni de connaĂźtre eux-mĂȘmes l'arabe - et sĂ©lectionner des âsuspectsâ Ă arrĂȘter dans une liste sans cesse croissante dans chaque localitĂ© palestinienne.
âParfois, c'est juste un commandant de division qui exige 100 arrestations par mois dans sa zoneâ, a dĂ©clarĂ© une source.
Cependant, contrairement aux modÚles plus modestes déjà utilisés, le modÚle de grande taille actuellement en cours de développement est alimenté par l'ensemble de données de l'Unité 8200, qui contient des millions de conversations entre Palestiniens.
âL'arabe parlĂ© est une donnĂ©e [difficilement] disponible sur Internetâ, explique la source. âOn ne peut pas transcrire les conversations ou les discussions WhatsApp en ligne. Elles ne sont pas disponibles en quantitĂ© suffisante pour alimenter un tel modĂšleâ.
Pour former le LLM, les conversations quotidiennes entre Palestiniens qui n'ont pas de valeur immĂ©diate en matiĂšre de renseignement ont tout de mĂȘme un rĂŽle essentiel.
âSi quelqu'un appelle une autre personne [au tĂ©lĂ©phone] et lui dit de sortir parce qu'il l'attend devant l'Ă©cole, ce n'est qu'une conversation anodine, ce n'est pas intĂ©ressantâ, a expliquĂ© une source de sĂ©curitĂ©. âMais pour un modĂšle comme celui-ci, c'est de l'or, car cela fournit de plus en plus de donnĂ©es pour s'entraĂźnerâ.

L'Unité 8200 n'est pas la seule agence nationale du renseignement à tenter de développer des outils d'IA générative. La CIA a développé un outil similaire à ChatGPT pour analyser les informations open-source, et les agences du renseignement au Royaume-Uni sont également en train de développer leurs propres LLM. Cependant, d'anciens responsables de la sécurité britanniques et américains ont déclaré à +972, Local Call et au Guardian que la communauté du renseignement israélienne prend plus de risques que ses homologues américains ou britanniques en matiÚre d'intégration des systÚmes d'IA dans l'analyse du renseignement.
Brianna Rosen, ancienne responsable de la sécurité à la Maison Blanche et actuellement chercheuse en affaires militaires et de sécurité à l'université d'Oxford, a expliqué qu'un analyste du renseignement utilisant un outil comme ChatGPT serait potentiellement capable de
âdĂ©tecter des menaces que les humains pourraient manquer, avant mĂȘme qu'elles ne se produisentâ. Cependant, cela ârisque Ă©galement d'entraĂźner de faux rapprochements et des conclusions erronĂ©es. Des erreurs seront commises, et certaines d'entre elles pourraient avoir des rĂ©percussions trĂšs gravesâ.
Des sources du renseignement israĂ©lien ont soulignĂ© qu'en Cisjordanie, la question la plus urgente n'est pas nĂ©cessairement l'exactitude de ces modĂšles, mais plutĂŽt la vaste portĂ©e des arrestations qu'ils permettent. Les listes de âsuspectsâ ne cessent de s'allonger, car des quantitĂ©s massives d'informations sont continuellement collectĂ©es et rapidement traitĂ©es au moyen de l'IA.
Plusieurs sources ont dĂ©clarĂ© qu'une âcrainteâ vague ou trop gĂ©nĂ©rale suffit souvent Ă justifier la mise en dĂ©tention administrative des Palestiniens, soit une peine de prison de six mois renouvelable sans inculpation ni procĂšs, sur la base de âpreuvesâ non divulguĂ©es. Dans un contexte oĂč la surveillance des Palestiniens est si Ă©tendue et le seuil d'arrestation si bas, ont-ils dĂ©clarĂ©, l'ajout de nouveaux outils basĂ©s sur l'IA renforcera la capacitĂ© d'IsraĂ«l Ă trouver des informations compromettantes sur un plus grand nombre de personnes.
Le porte-parole de l'armée israélienne n'a pas répondu aux questions posées par +972, Local Call et le Guardian
âen raison de la nature sensible des informationsâ, affirmant seulement que âtoute utilisation d'outils technologiques est soumise Ă un processus rigoureux menĂ© par des professionnels, afin de garantir une prĂ©cision maximale des informations de renseignementâ.
* Harry Davies du Guardian et Sebastian Ben Daniel (John Brown) ont contribuĂ© Ă cette enquĂȘte.
* Yuval Abraham est un journaliste et cinéaste basé à Jérusalem.
https://www.972mag.com/israeli-intelligence-chatgpt-8200-surveillance-ai/