Agression contre Ghaza: l’IA utilisée par l’entité sioniste s’appuie sur des données « erronées »
EL-QODS occupée – Les technologies d’intelligence artificielle (IA) et d’autres outils numériques utilisées par l’entité sioniste dans le cadre de son agression contre Ghaza, s’appuient sur des données « erronées » et « incomplètes », indique mardi l’ONG Human Rights Watch (HRW).
Dans un communiqué publié sur son site, l’ONG a constaté que l’armée d’occupation sioniste utilise des « données incomplètes, des calculs erronés et des outils inadaptés pour l’aider à prendre des décisions de vie ou de mort à Ghaza, ce qui pourrait accroître les dommages aux civils », a déclaré Zach Campbell, chercheur senior sur les questions de surveillance à Human Rights Watch.
Dans le cadre de son agression contre Ghaza, l’armée sioniste utilise « quatre outils numériques » afin d’estimer, entre autres, « le nombre de civils dans une zone avant une attaque », selon l’ONG.
Cela implique notamment, d’après la source, une « surveillance continue et systématique des résidents palestiniens de Ghaza, y compris une collecte de données » qui a débuté même avant l’agression actuelle, et ce « d’une manière incompatible avec le droit international des droits humains ».
« Aucune décision de ciblage ne doit être prise sur la seule base des recommandations d’un outil d’apprentissage automatique », insiste l’ONG, soulignant que « les violations graves des lois de la guerre, telles que des attaques indiscriminées contre des civils avec une intention criminelle, constituent des crimes de guerre ».