Il est urgent d’enquêter sur le rôle de la technologie et des sociétés de médias sociaux dans le meurtre de civils à Gaza [EN/AR] – Territoire palestinien occupé – .

Il est urgent d’enquêter sur le rôle de la technologie et des sociétés de médias sociaux dans le meurtre de civils à Gaza [EN/AR] – Territoire palestinien occupé – .
Descriptive text here

Pièces jointes

Territoire Palestinien – Le rôle des grandes entreprises technologiques et des plateformes internationales de médias sociaux dans le meurtre de civils palestiniens pendant la guerre génocidaire menée par Israël contre la bande de Gaza, en cours depuis le 7 octobre 2023, doit faire l’objet d’une enquête. Ces entreprises doivent être tenues pour responsables si elles se révèlent complices ou si elles n’ont pas pris les précautions adéquates pour empêcher l’accès aux informations des utilisateurs et leur exploitation. Ils doivent veiller à ce que leurs services ne soient pas utilisés dans des zones de conflit et à ce que la vie privée de leurs utilisateurs soit respectée.

De nombreux rapports indiquent qu’Israël utilise un certain nombre de systèmes technologiques basés sur l’intelligence artificielle, notamment Where’s Daddy ?, Fire Factory, Gospel et Lavender, pour traquer et surveiller illégalement les Palestiniens. Ces systèmes sont capables d’identifier d’éventuels suspects et de les classer comme cibles légitimes sur la base d’informations potentiellement pertinentes qui n’ont généralement aucun rapport avec le lieu ou l’individu en question, en recherchant des similitudes et des tendances parmi tous les résidents de la bande de Gaza, en particulier les hommes, et parmi les membres de factions armées.

Des études ont montré que, bien qu’ils soient conscients d’une marge d’erreur importante due à la nature de ces systèmes d’exploitation et à leur incapacité à fournir des informations précises, notamment en ce qui concerne la localisation en temps réel des personnes inscrites sur la liste de ciblage, les Israéliens L’armée ne vérifie généralement pas l’exactitude des informations fournies par ces systèmes.

Par exemple, l’armée israélienne utilise largement le système Lavender pour identifier les suspects dans la bande de Gaza avant de les cibler ; ce système entraîne intentionnellement un nombre élevé de victimes civiles.

Le système Lavender utilise la logique des probabilités, caractéristique distinctive des algorithmes d’apprentissage automatique. L’algorithme recherche dans de grands ensembles de données des modèles qui correspondent au comportement des combattants, et la quantité et la qualité des données déterminent dans quelle mesure l’algorithme réussit à trouver ces modèles. Il recommande ensuite des objectifs basés sur les probabilités.

Alors que des inquiétudes ont été exprimées concernant le recours possible du système Lavender au suivi des comptes de réseaux sociaux, des sources militaires et de renseignement israéliennes ont reconnu avoir attaqué des cibles potentielles sans tenir compte du principe de proportionnalité ou de dommages collatéraux.

Ces soupçons sont étayés par un livre (The Human Machine Team) écrit par l’actuel commandant de l’unité d’élite 8200 de l’armée israélienne, qui propose des instructions sur la façon de créer une « machine cible » semblable au système d’intelligence artificielle Lavender. Le livre comprend également des informations sur des centaines de signaux qui peuvent augmenter la gravité de la classification d’une personne, comme changer de téléphone portable tous les quelques mois, changer d’adresse fréquemment ou même simplement rejoindre le même groupe sur l’application WhatsApp de Meta en tant que « combattant ».

En outre, il a été récemment révélé que Google et Israël collaborent sur plusieurs initiatives technologiques, notamment le projet Nimbus, qui fournit à l’armée israélienne des outils pour une surveillance accrue et une collecte illégale de données sur les Palestiniens, élargissant ainsi les politiques israéliennes de déni et de persécution. d’autres crimes contre le peuple palestinien. Ce projet en particulier a suscité d’importantes critiques en matière de droits humains, incitant des dizaines d’employés de l’entreprise à protester et à démissionner, tandis que d’autres ont été licenciés en raison de leurs protestations.

L’armée israélienne utilise également la fonction de reconnaissance faciale de Google Photos pour garder un œil sur les civils palestiniens dans la bande de Gaza et créer une « liste noire ». Il rassemble autant d’images que possible de l’événement du 7 octobre, connu sous le nom d’inondation d’Al-Aqsa, au cours duquel des visages palestiniens étaient visibles alors qu’ils prenaient d’assaut la barrière de séparation et pénétraient dans les colonies. Cette technologie est ensuite utilisée pour trier des photos et stocker des images de visages, ce qui a entraîné la récente arrestation de milliers de Palestiniens de la bande de Gaza, en violation des règles explicites de l’entreprise et des principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme.

L’équipe de terrain d’Euro-Med Monitor a documenté des récits de civils palestiniens qui, en raison de leur activité sur les réseaux sociaux, ont été désignés comme suspects par Israël, bien qu’ils n’aient entrepris aucune action militaire.

Un jeune Palestinien qui a demandé à être identifié uniquement comme « AF » pour des raisons de sécurité, par exemple, a été grièvement blessé dans un bombardement israélien qui a visé une maison d’habitation dans le quartier Al-Sabra de la ville de Gaza.

La maison a été prise pour cible peu de temps après qu’AF a publié sur Instagram, propriété de Meta, un clip vidéo dans lequel il plaisantait en disant qu’il participait à une « mission de reconnaissance sur le terrain ».

Son proche a déclaré à Euro-Med Monitor qu’AF avait simplement tenté d’imiter les journalistes de presse lorsqu’il avait publié le bref clip vidéo sur son compte Instagram personnel. Soudain, cependant, AF a été pris pour cible par un avion de reconnaissance israélien alors qu’il se trouvait sur le toit de la maison.

Un autre attentat israélien, le 16 avril, a coûté la vie à six jeunes Palestiniens qui s’étaient rassemblés pour accéder aux services Internet. L’une des victimes utilisait une discussion de groupe sur WhatsApp – une filiale de Meta – pour rapporter des nouvelles du quartier Sheikh Radwan de la ville de Gaza.

Le proche du défunt, qui a requis l’anonymat pour des raisons de sécurité, a informé Euro-Med Monitor que la victime se trouvait à proximité du point d’accès Internet lorsque le groupe a été directement touché par un missile lancé par un avion de reconnaissance israélien. La victime partageait volontairement des informations avec sa famille et des groupes publics sur l’application WhatsApp concernant les attaques israéliennes et la situation humanitaire à Cheikh Radwan.

La stratégie secrète de l’armée israélienne consistant à lancer des attaques aériennes et d’artillerie extrêmement dommageables sur la base de données qui ne répondent pas aux normes minimales d’évaluation précise des cibles, allant des enregistrements de téléphones portables et des photos aux contacts et modèles de communication sur les réseaux sociaux, le tout dans le contexte plus large d’une programme d’assassinat incroyablement aléatoire, est profondément préoccupant.

Les preuves présentées par des experts mondiaux en technologie indiquent un lien probable entre l’utilisation par l’armée israélienne du système Lavender – qui a été utilisé pour identifier des cibles lors des attaques militaires israéliennes sur la bande de Gaza – et la société Meta. Cela signifie que l’armée israélienne a potentiellement ciblé des individus simplement parce qu’ils faisaient partie de groupes WhatsApp avec d’autres personnes figurant sur la liste des suspects. De plus, les experts se demandent comment Israël aurait pu obtenir ces données sans que Meta les divulgue.

Plus tôt, le journal britannique The Guardian avait dénoncé l’utilisation par Israël de l’intelligence artificielle (Lavande) pour assassiner un grand nombre de civils palestiniens. L’armée israélienne a utilisé des systèmes d’apprentissage automatique pour identifier les combattants potentiels « de bas rang », dans le but de les cibler sans tenir compte du niveau de dommages collatéraux admissibles. Une « marge de tolérance » a été adoptée, autorisant la mort de 20 civils pour chaque cible renversée ; en ciblant les « combattants de haut rang », cette marge de tolérance permettait la mort de 100 personnes pour chaque combattant.

Google, Meta et d’autres sociétés de technologie et de médias sociaux pourraient avoir été de connivence avec Israël dans des crimes et des violations contre le peuple palestinien, y compris des exécutions extrajudiciaires, au mépris du droit international et des engagements déclarés de ces sociétés en matière de droits de l’homme.

Les réseaux sociaux ne devraient pas divulguer ce genre de données personnelles sur leurs utilisateurs ni participer au génocide israélien contre les civils palestiniens dans la bande de Gaza. Une enquête internationale est nécessaire afin de garantir que les responsables répondent de leurs actes et que justice soit rendue aux victimes.

Le parti pris manifeste et évident de Meta envers Israël, sa suppression substantielle de contenus soutenant la cause palestinienne et sa politique consistant à étouffer les critiques des crimes israéliens – y compris les rumeurs de liens étroits entre de hauts responsables de Meta et Israël – suggèrent l’implication plausible de l’entreprise dans le meurtre de Civils palestiniens.

Compte tenu du risque de ne pas prendre de mesures raisonnables pour démontrer que l’objectif est légitime au regard du droit international humanitaire, les sociétés susmentionnées doivent s’engager pleinement à mettre fin à toute coopération avec l’armée israélienne et à fournir à Israël un accès aux données et informations qui violent les droits des Palestiniens. et mettent leur vie en danger.

L’incapacité d’Israël à faire preuve de diligence raisonnable et à prendre en compte les droits de l’homme lors de l’utilisation de l’intelligence artificielle à des fins militaires doit faire immédiatement l’objet d’une enquête, ainsi que son non-respect du droit international et du droit humanitaire international.

Ces entreprises doivent réagir rapidement à toute information circulant sur leur implication dans les crimes israéliens contre le peuple palestinien. Des enquêtes sérieuses concernant leurs politiques et pratiques en matière de crimes israéliens et de violations des droits de l’homme doivent être ouvertes si nécessaire, et les entreprises doivent être tenues pour responsables si elles sont reconnues complices ou n’ont pas pris de précautions raisonnables pour empêcher l’exploitation des informations des utilisateurs à des fins criminelles. activités.

 
For Latest Updates Follow us on Google News
 

PREV Dumornay nominé pour le prix du meilleur espoir féminin
NEXT l’essence et le diesel plus chers aujourd’hui