đâđš Une enquĂȘte dâurgence s'impose sur le rĂŽle des rĂ©seaux sociaux dans l'assassinat des civils de Gaza
Google, Meta & autres pourraient avoir été de connivence avec Israël dans des crimes & violations, y compris des exécutions extrajudiciaires contre les Palestiniens, au mépris du droit international.
đâđš Une enquĂȘte dâurgence s'impose sur le rĂŽle des rĂ©seaux sociaux dans l'assassinat des civils de Gaza
Par Euro-Med Human Rights Monitor, le 21 avril 2024
Territoires palestiniens - Le rĂŽle des grandes entreprises technologiques et des plateformes internationales de rĂ©seaux sociaux dans le meurtre de civils palestiniens pendant la guerre gĂ©nocidaire d'IsraĂ«l contre la bande de Gaza, en cours depuis le 7 octobre 2023, doit faire l'objet d'une enquĂȘte. Ces entreprises doivent ĂȘtre tenues pour responsables s'il s'avĂšre qu'elles sont complices ou qu'elles n'ont pas pris les prĂ©cautions nĂ©cessaires pour empĂȘcher l'accĂšs aux informations des utilisateurs et leur exploitation. Elles doivent s'assurer que leurs services ne sont pas utilisĂ©s dans les zones de conflit et que la vie privĂ©e de leurs utilisateurs est respectĂ©e.
Des rapports fréquents indiquent qu'Israël utilise un certain nombre de systÚmes technologiques basés sur l'intelligence artificielle, notamment Where's Daddy, Fire Factory, Gospel et Lavender, pour pister et surveiller illégalement les Palestiniens. Ces systÚmes sont capables d'identifier des suspects potentiels et de les classer comme cibles légitimes sur la base d'informations potentiellement pertinentes qui ne sont généralement pas liées au lieu ou à l'individu en question, en recherchant des similitudes et des modÚles parmi tous les habitants de la bande de Gaza, en particulier les hommes, et dans les rangs de leur armée.
Des études ont montré que, bien qu'elle soit consciente de la marge d'erreur importante due à la nature de ces systÚmes opérationnels et à leur incapacité à fournir des informations précises - en particulier concernant la localisation des personnes placées sur la liste de ciblage en temps réel - l'armée israélienne ne vérifie généralement pas l'exactitude des informations fournies par ces systÚmes.
Par exemple, l'armée israélienne utilise largement le systÚme Lavender pour identifier les suspects dans la bande de Gaza avant de les prendre pour cible. Ce systÚme fait intentionnellement un grand nombre de victimes civiles.
Lavender utilise la logique des probabilités, une caractéristique distinctive des algorithmes par apprentissage automatique. L'algorithme recherche dans de vastes ensembles de données des schémas correspondant au comportement des combattants, et la quantité et la qualité des données déterminent le degré de réussite de l'algorithme dans la recherche de ces schémas. Il recommande ensuite des cibles en fonction des probabilités.
Des sources militaires et de renseignement israéliennes ont reconnu avoir attaqué des cibles potentielles sans tenir compte du principe de proportionnalité ou des dommages collatéraux, alors que de vives inquiétudes ont été exprimées quant à la dépendance possible du systÚme Lavender à la surveillance des comptes de réseaux sociaux.
Ces soupçons sont Ă©tayĂ©s par un livre (The Human Machine Team) Ă©crit par l'actuel commandant de l'unitĂ© d'Ă©lite 8200 de l'armĂ©e israĂ©lienne, qui donne des instructions sur la maniĂšre de crĂ©er une âmachine Ă ciblerâ semblable au systĂšme d'intelligence artificielle Lavender. Le livre contient Ă©galement des informations sur des centaines de signaux qsusceptibles dâaugmenter le taux de classification d'une personne, comme le fait de changer de tĂ©lĂ©phone portable tous les quelques mois, de changer frĂ©quemment d'adresse, ou mĂȘme de rejoindre le mĂȘme groupe sur l'application WhatsApp de Meta en tant que âcombattantâ.
En outre, il a Ă©tĂ© rĂ©cemment rĂ©vĂ©lĂ© que Google et IsraĂ«l collaborent Ă plusieurs initiatives technologiques, dont le projet Nimbus, qui fournit Ă l'armĂ©e israĂ©lienne des outils permettant de renforcer la surveillance et la collecte illĂ©gale de donnĂ©es sur les Palestiniens, Ă©largissant ainsi les politiques israĂ©liennes de rĂ©pression et de persĂ©cution, ainsi que d'autres crimes Ă l'encontre du peuple palestinien. Ce projet en particulier a suscitĂ© d'importantes critiques en matiĂšre de droits de l'homme, poussant des dizaines d'employĂ©s de l'entreprise Ă protester et Ă dĂ©missionner, et d'autres Ă ĂȘtre licenciĂ©s en raison de leurs protestations.
L'armĂ©e israĂ©lienne utilise Ă©galement la fonction de reconnaissance faciale de Google Photos pour surveiller les civils palestiniens dans la bande de Gaza et dresser une âliste de ciblesâ. Elle rassemble autant d'images que possible de l'Ă©vĂ©nement du 7 octobre, connu sous le nom dââAl-Aqsa Floodâ, au cours duquel les visages des Palestiniens Ă©taient visibles alors qu'ils prenaient d'assaut la barriĂšre de sĂ©paration et pĂ©nĂ©traient dans les colonies de peuplement. Cette technologie est ensuite utilisĂ©e pour trier les photos et stocker les images de visages, entraĂźnant l'arrestation rĂ©cente de milliers de Palestiniens de la bande de Gaza, en violation des rĂšgles explicites de l'entreprise et des principes directeurs des Nations unies relatifs aux entreprises et aux droits de l'homme.
L'équipe de terrain d'Euro-Med Monitor a recueilli des témoignages de civils palestiniens qui, en raison de leur activité sur les réseaux sociaux, ont été désignés comme suspects par Israël, bien que sans aucune action militaire.
Un jeune Palestinien qui a demandĂ© Ă ĂȘtre identifiĂ© uniquement comme âA.F.â pour des raisons de sĂ©curitĂ©, a par exemple Ă©tĂ© gravement blessĂ© lors d'un bombardement israĂ©lien qui a visĂ© une maison rĂ©sidentielle dans le quartier Al-Sabra de la ville de Gaza.
La maison a Ă©tĂ© visĂ©e peu aprĂšs qu'âA.F.â a postĂ© un clip vidĂ©o sur Instagram qui appartient Ă Meta, dans lequel il plaisantait en disant qu'il Ă©tait en âmission de reconnaissance sur le terrainâ.
Son parent a déclaré à Euro-Med Monitor qu'A.F. avait simplement tenté d'imiter les journalistes lorsqu'il avait posté le bref clip vidéo sur son compte Instagram personnel. Soudain, cependant, A.F. a été pris pour cible par un avion de reconnaissance israélien alors qu'il se trouvait sur le toit de sa maison.
Le 16 avril, un autre bombardement israélien a coûté la vie à six jeunes Palestiniens qui s'étaient rassemblés pour accéder à des services Internet. L'une des victimes utilisait une discussion de groupe sur WhatsApp - filiale de Meta - pour donner des nouvelles du quartier Sheikh Radwan de la ville de Gaza.
Le parent du garçon tué, qui a requis l'anonymat pour des raisons de sécurité, a informé Euro-Med Monitor que la victime se trouvait prÚs du point d'accÚs à Internet lorsque le groupe a été touché par un missile provenant d'un avion de reconnaissance israélien. La victime partageait volontairement des informations sur les attaques israéliennes et la situation humanitaire à Sheikh Radwan dans des groupes familiaux et publics sur l'application WhatsApp.
La stratĂ©gie secrĂšte de l'armĂ©e israĂ©lienne consistant Ă lancer des attaques aĂ©riennes et d'artillerie extrĂȘmement meurtriĂšres sur le fondement de donnĂ©es qui ne rĂ©pondent pas aux normes minimales d'Ă©valuation prĂ©cise des cibles, qu'il s'agisse d'enregistrements de tĂ©lĂ©phones portables, de photos, de contacts sur les rĂ©seaux sociaux ou de schĂ©mas de communication, le tout dans le contexte plus large d'un programme d'assassinat incroyablement alĂ©atoire, est particuliĂšrement inquiĂ©tante.
Les preuves présentées par les experts mondiaux en technologie indiquent un lien probable entre l'utilisation par l'armée israélienne du systÚme Lavender - utilisé pour identifier des cibles lors des attaques militaires d'Israël sur la bande de Gaza - et l'entreprise Meta. Ce qui signifie que l'armée israélienne a pu cibler des personnes simplement parce qu'elles faisaient partie de groupes WhatsApp avec d'autres personnes figurant sur la liste des suspects. En outre, les experts se demandent comment Israël a pu obtenir ces données sans que Meta ne les divulgue.
Auparavant, le journal britannique The Guardian a rĂ©vĂ©lĂ© l'utilisation par IsraĂ«l de l'intelligence artificielle (Lavender) pour assassiner un grand nombre de civils palestiniens. L'armĂ©e israĂ©lienne a utilisĂ© des systĂšmes de reconnaissance automatique pour identifier les combattants potentiels sans grande influence, dans le but de les cibler sans tenir compte du niveau de dommages collatĂ©raux tolĂ©rables. Une âmarge de tolĂ©ranceâ a Ă©tĂ© adoptĂ©e, autorisant la mort de 20 civils pour chaque cible abattue. Lorsqu'il s'agit de âcombattants importantsâ, cette marge de tolĂ©rance autorise Ă tuer 100 personnes pour chaque combattant.
Google, Meta et d'autres entreprises de technologie et de réseaux sociaux pourraient avoir été de connivence avec Israël dans des crimes et des violations contre le peuple palestinien, y compris des exécutions extrajudiciaires, au mépris du droit international et des engagements déclarés de ces entreprises en matiÚre de droits de l'homme.
Les rĂ©seaux sociaux ne devraient pas divulguer ce type de donnĂ©es personnelles sur leurs utilisateurs ni prendre part au gĂ©nocide israĂ©lien contre les civils palestiniens dans la bande de Gaza. Une enquĂȘte internationale est indispensable pour garantir que les responsables rendent des comptes et que les victimes obtiennent justice.
Le parti pris manifeste et mĂȘme ostensible de Meta pour IsraĂ«l, la suppression massive des contenus soutenant la cause palestinienne et sa politique de rĂ©pression des critiques des crimes israĂ©liens - y compris les rumeurs de liens privilĂ©giĂ©s entre les hauts responsables de Meta et IsraĂ«l - suggĂšrent l'implication probable de l'entreprise dans l'assassinat de civils palestiniens.
Compte tenu des risques liĂ©s Ă l'absence de mesures suffisantes pour dĂ©montrer que l'objectif est lĂ©gitime au regard du droit humanitaire international, les entreprises susmentionnĂ©es doivent s'engager pleinement Ă mettre fin Ă toute coopĂ©ration avec l'armĂ©e israĂ©lienne, et cesser dâautoriser IsraĂ«l Ă accĂ©der aux donnĂ©es et aux informations qui violent les droits des Palestiniens et mettent leur vie en pĂ©ril.
Une enquĂȘte doit ĂȘtre diligentĂ©e sans dĂ©lai sur le non-respect par IsraĂ«l du devoir de prĂ©caution et des droits de l'homme lors de l'utilisation de l'intelligence artificielle Ă des fins militaires, ainsi que sur le non-respect du droit international et du droit international humanitaire.
Ces entreprises doivent rapidement rĂ©agir aux informations qui circulent sur leur implication dans les crimes israĂ©liens contre le peuple palestinien. Des enquĂȘtes sĂ©rieuses concernant leurs politiques et pratiques en matiĂšre de crimes israĂ©liens et de violations des droits de l'homme doivent ĂȘtre ouvertes si nĂ©cessaire, et les entreprises doivent ĂȘtre tenues pour responsables s'il s'avĂšre qu'elles sont complices ou qu'elles n'ont pas pris les prĂ©cautions adĂ©quates pour empĂȘcher l'exploitation des informations fournies par les utilisateurs Ă des fins criminelles.