« Lavander » : L’IA qui décide des bombardements israéliens à Gaza

« Lavander » : L’IA qui décide des bombardements israéliens à Gaza

Par Yuval Abraham − Le 3 avril 2024 − Source 972 Mag

En 2021, un livre intitulé “L’équipe homme-machine : Comment créer une synergie homme/IA qui révolutionnera notre monde” a été publié en anglais sous le nom de plume “Brigadier General Y.S.” Dans cet ouvrage, l’auteur – un homme dont nous avons confirmé qu’il est l’actuel commandant de l’unité d’élite du renseignement israélien 8200 – plaide en faveur de la conception d’une machine spéciale capable de traiter rapidement des quantités massives de données afin de générer des milliers de “cibles” potentielles pour des frappes militaires dans le feu de l’action. Cette technologie, écrit-il, résoudrait ce qu’il décrit comme un “goulot d’étranglement humain, tant pour la localisation des nouvelles cibles que pour la prise de décision concernant l’approbation des cibles“.

Il s’avère qu’une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a mis au point un programme basé sur l’intelligence artificielle, connu sous le nom de “Lavender“, dévoilé ici pour la première fois. Selon six officiers du renseignement israéliens, qui ont tous servi dans l’armée pendant la guerre actuelle contre la bande de Gaza et ont été directement impliqués dans l’utilisation de l’intelligence artificielle pour générer des cibles à assassiner, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières phases de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle qu’ils traitaient les résultats de la machine d’IA “comme s’il s’agissait d’une décision humaine“.

Officiellement, le système Lavender est conçu pour identifier tous les agents présumés des branches militaires du Hamas et du Jihad islamique palestinien (PIJ), y compris les agents de rang inférieur, comme des cibles potentielles d’attentats à la bombe. Les sources ont déclaré à +972 et à Local Call que, pendant les premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a identifié jusqu’à 37 000 Palestiniens comme militants présumés – et leurs maisons – en vue d’éventuelles frappes aériennes.

Au cours des premières phases de la guerre, l’armée a largement autorisé les officiers à adopter les listes de personnes à abattre de Lavender, sans exiger de vérification approfondie des raisons pour lesquelles la machine avait fait ces choix ni d’examen des données brutes de renseignement sur lesquelles elles étaient basées. Une source a déclaré que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’environ “20 secondes” à chaque cible avant d’autoriser un bombardement – juste pour s’assurer que la cible marquée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce que l’on considère comme des “erreurs” dans environ 10 % des cas, et qu’il est connu pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout.

En outre, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles se trouvaient chez elles – généralement la nuit, en présence de toute leur famille – plutôt qu’au cours d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus dans leurs maisons privées. D’autres systèmes automatisés, dont celui appelé “Where’s Daddy ?“, également révélé ici pour la première fois, ont été utilisés spécifiquement pour suivre les individus ciblés et lancer des bombes lorsqu’ils étaient entrés dans les résidences de leur famille.

Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens – pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats – ont été éliminés par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’intelligence artificielle.

Nous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou qu’ils participaient à une activité militaire“, a déclaré A., un officier de renseignement, à +972 et à Local Call. “Au contraire, les FDI les ont bombardés dans leurs maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations.”

La machine Lavender rejoint un autre système d’IA, “The Gospel“, au sujet duquel des informations ont été révélées lors d’une précédente enquête menée par +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. Une différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels, selon l’armée, les militants opèrent, Lavender marque les personnes – et les inscrit sur une liste de personnes à abattre.

En outre, selon les sources, lorsqu’il s’agissait de cibler des militants juniors présumés marqués par Lavender, l’armée préférait n’utiliser que des missiles non guidés, communément appelés bombes “muettes” (par opposition aux bombes de précision “intelligentes“), qui peuvent détruire des bâtiments entiers sur leurs occupants et causer d’importantes pertes humaines. “Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance – cela coûte très cher au pays et il y a une pénurie [de ces bombes]“, a déclaré C., l’un des officiers de renseignement. Une autre source a déclaré qu’ils avaient personnellement autorisé le bombardement de “centaines” de domiciles privés d’agents subalternes présumés marqués par Lavender, nombre de ces attaques tuant des civils et des familles entières en tant que “dommages collatéraux“.

Selon deux des sources, l’armée a également décidé, au cours des premières semaines de la guerre, que pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils ; par le passé, l’armée n’autorisait aucun “dommage collatéral” lors de l’assassinat de militants de bas rang. Les sources ont ajouté que, dans le cas où la cible était un haut responsable du Hamas ayant le rang de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils lors de l’assassinat d’un seul commandant.

L’enquête qui suit est organisée selon les six étapes chronologiques de la production hautement automatisée de cibles par l’armée israélienne au cours des premières semaines de la guerre de Gaza. Tout d’abord, nous expliquons la machine Lavender elle-même, qui a identifié des dizaines de milliers de Palestiniens à l’aide de l’IA. Ensuite, nous révélons le système “Where’s Daddy ?” (Où est papa ?), qui a suivi ces cibles et signalé à l’armée qu’elles rentraient dans leurs maisons familiales. Troisièmement, nous décrivons comment les bombes “muettes” ont été choisies pour frapper ces maisons.

Quatrièmement, nous expliquons comment l’armée a assoupli le nombre de civils pouvant être tués lors du bombardement d’une cible. Cinquièmement, nous expliquons comment un logiciel automatisé a calculé de manière inexacte le nombre de non-combattants dans chaque foyer. Sixièmement, nous montrons qu’à plusieurs reprises, lorsqu’une maison a été frappée, généralement la nuit, la cible individuelle n’était parfois pas du tout à l’intérieur, parce que les officiers militaires n’avaient pas vérifié l’information en temps réel.

Une fois que l’on passe à l’automatisme, la génération de cibles s’emballe

Dans l’armée israélienne, le terme “cible humaine” désignait autrefois un haut responsable militaire qui, selon les règles du département du droit international de l’armée, pouvait être tué à son domicile privé, même s’il y avait des civils à proximité. Des sources de renseignement ont déclaré à +972 et à Local Call qu’au cours des précédentes guerres d’Israël, étant donné qu’il s’agissait d’une manière “particulièrement brutale” de tuer quelqu’un – souvent en tuant toute la famille aux côtés de la cible – ces cibles humaines étaient marquées très soigneusement et seuls les commandants militaires de haut rang étaient bombardés à leur domicile, afin de maintenir le principe de proportionnalité en vertu du droit international.

Mais après le 7 octobre, lorsque les militants du Hamas ont lancé un assaut meurtrier contre les communautés du sud d’Israël, tuant environ 1 200 personnes et en enlevant 240, l’armée a adopté une approche radicalement différente, selon les sources. Dans le cadre de l’opération “Iron Swords“, l’armée a décidé de désigner tous les agents de la branche militaire du Hamas comme des cibles humaines, quel que soit leur rang ou leur importance militaire. Cela a tout changé.

Cette nouvelle politique a également posé un problème technique aux services de renseignement israéliens. Au cours des guerres précédentes, pour autoriser l’assassinat d’une seule cible humaine, un officier devait passer par un processus d’”incrimination” long et complexe : vérifier par recoupement les preuves que la personne était bien un membre haut placé de l’aile militaire du Hamas, découvrir où elle vivait, ses coordonnées, et enfin savoir quand elle était chez elle en temps réel. Lorsque la liste des cibles ne comptait que quelques dizaines d’agents de haut rang, les services de renseignement pouvaient s’occuper individuellement du travail d’incrimination et de localisation.

Cependant, une fois que la liste a été élargie pour inclure des dizaines de milliers d’agents de rang inférieur, l’armée israélienne a compris qu’elle devait s’appuyer sur des logiciels automatisés et sur l’intelligence artificielle. Le résultat, selon les sources, est que le rôle du personnel humain dans l’incrimination des Palestiniens en tant qu’agents militaires a été mis de côté et que l’intelligence artificielle a fait le gros du travail à sa place. Selon quatre des sources qui ont parlé à +972 et à Local Call, Lavender – qui a été développé pour créer des cibles humaines dans la guerre actuelle – a identifié quelque 37 000 Palestiniens comme étant des “militants du Hamas” présumés, la plupart d’entre eux étant des jeunes, pour les assassiner (le porte-parole des FDI a nié l’existence d’une telle liste dans une déclaration à +972 et à Local Call).

Nous ne savions pas qui étaient les agents subalternes, parce qu’Israël ne les suivait pas régulièrement [avant la guerre]“, a expliqué l’officier supérieur B. à +972 et à Local Call, expliquant ainsi la raison pour laquelle cette machine à cibler a été mise au point pour la guerre en cours. “Ils voulaient nous permettre d’attaquer automatiquement [les agents subalternes]. C’est le Saint Graal. Une fois que vous passez à l’automatisme, la génération de cibles devient folle“.

Les sources ont déclaré que l’autorisation d’adopter automatiquement les listes d’objectifs de Lavender, qui n’avaient été utilisées auparavant que comme outil auxiliaire, a été accordée environ deux semaines après le début de la guerre, après que le personnel des services de renseignement a vérifié “manuellement” l’exactitude d’un échantillon aléatoire de plusieurs centaines de cibles sélectionnées par le système d’intelligence artificielle. Lorsque cet échantillon a révélé que les résultats de Lavender avaient atteint une précision de 90 % dans l’identification de l’affiliation d’un individu au Hamas, l’armée a autorisé l’utilisation généralisée du système. À partir de ce moment-là, les sources ont déclaré que si Lavender décidait qu’un individu était un militant du Hamas, il leur était essentiellement demandé de traiter cela comme un ordre, sans qu’il soit nécessaire de vérifier de manière indépendante pourquoi la machine avait fait ce choix ou d’examiner les données brutes de renseignement sur lesquelles elle est basée.

À 5 heures du matin, [l’armée de l’air] arrivait et bombardait toutes les maisons que nous avions marquées“, raconte B.. « Nous avons éliminé des milliers de personnes. Nous ne les avons pas examinées une par une – nous avons tout mis dans des systèmes automatisés, et dès qu’un [des individus marqués] était chez lui, il devenait immédiatement une cible. Nous le bombardions, lui et sa maison. »

J’ai été très surpris que l’on nous demande de bombarder une maison pour tuer un soldat au sol, dont l’importance dans les combats était si faible“, a déclaré une source au sujet de l’utilisation de l’IA pour marquer des militants présumés de bas rang. « J’ai surnommé ces cibles “cibles poubelles”. Néanmoins, je les trouvais plus éthiques que les cibles que nous bombardions uniquement à des fins de “dissuasion” – des gratte-ciel évacués et renversés dans le seul but de provoquer des destructions ».

Les résultats meurtriers de ce relâchement des restrictions au début de la guerre ont été stupéfiants. Selon les données du ministère palestinien de la santé à Gaza, sur lesquelles l’armée israélienne s’appuie presque exclusivement depuis le début de la guerre, Israël a tué quelque 15 000 Palestiniens – soit près de la moitié du nombre de morts à ce jour – au cours des six premières semaines de la guerre, jusqu’à ce qu’un cessez-le-feu d’une semaine soit conclu le 24 novembre.

Le logiciel Lavender analyse les informations recueillies sur la plupart des 2,3 millions d’habitants de la bande de Gaza grâce à un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans l’aile militaire du Hamas ou du PIJ. Selon certaines sources, la machine attribue à presque chaque habitant de Gaza une note de 1 à 100, exprimant la probabilité qu’il s’agisse d’un militant.

Lavender apprend à identifier les caractéristiques des agents connus du Hamas et du PIJ, dont les informations ont été transmises à la machine en tant que données d’entraînement, puis à repérer ces mêmes caractéristiques – également appelées “traits” – au sein de la population générale, ont expliqué les sources. Une personne présentant plusieurs caractéristiques incriminantes différentes atteindra une cote élevée et deviendra ainsi automatiquement la cible potentielle d’un assassinat.

Dans “The Human-Machine Team“, le livre cité au début de cet article, le commandant actuel de l’unité 8200 plaide en faveur d’un tel système sans citer le nom de Lavender. (Le commandant lui-même n’est pas nommé, mais cinq sources au sein de l’unité 8200 ont confirmé que le commandant était l’auteur, comme l’a également rapporté Haaretz). Décrivant le personnel humain comme un “goulot d’étranglement” qui limite la capacité de l’armée au cours d’une opération militaire, le commandant se lamente : “Nous [les humains] ne pouvons pas traiter autant d’informations. Peu importe le nombre de personnes chargées de produire des objectifs pendant la guerre, il est toujours impossible de produire suffisamment d’objectifs par jour“.

Selon lui, la solution à ce problème réside dans l’intelligence artificielle. Le livre propose un petit guide pour construire une “machine à cibles“, similaire à Lavender, basée sur l’intelligence artificielle et des algorithmes d’apprentissage automatique. Ce guide contient plusieurs exemples de “centaines et de milliers” de caractéristiques susceptibles d’augmenter la cote d’un individu, comme le fait de faire partie d’un groupe Whatsapp avec un militant connu, de changer de téléphone portable tous les quelques mois et de changer fréquemment d’adresse.

Plus il y a d’informations et plus elles sont variées, mieux c’est“, écrit le commandant. “Informations visuelles, informations cellulaires, connexions aux médias sociaux, informations sur le champ de bataille, contacts téléphoniques, photos. Si, dans un premier temps, ce sont les humains qui sélectionnent ces caractéristiques, poursuit le commandant, au fil du temps, la machine en viendra à les identifier d’elle-même. Selon lui, cela peut permettre aux armées de créer “des dizaines de milliers de cibles“, la décision de les attaquer ou non restant du ressort de l’homme.

Ce livre n’est pas la seule fois où un haut commandant israélien a fait allusion à l’existence de machines à cibles humaines comme Lavender. +972 et Local Call ont obtenu des images d’une conférence privée donnée par le commandant du centre secret de science des données et d’IA de l’unité 8200, le “colonel Yoav“, lors de la semaine de l’IA de l’université de Tel-Aviv en 2023, dont les médias israéliens ont parlé à l’époque.

Dans cette conférence, le commandant parle d’une nouvelle machine cible sophistiquée utilisée par l’armée israélienne, qui détecte les “personnes dangereuses” en se basant sur leur ressemblance avec les listes existantes de militants connus sur lesquelles elle a été formée. “Grâce à ce système, nous avons réussi à identifier les commandants des escadrons de missiles du Hamas“, a déclaré le colonel Yoav dans la conférence, faisant référence à l’opération militaire israélienne de mai 2021 à Gaza, au cours de laquelle la machine a été utilisée pour la première fois.

Les diapositives de présentation de la conférence, également obtenues par +972 et Local Call, contiennent des illustrations du fonctionnement de la machine : elle est alimentée en données sur les agents du Hamas existants, elle apprend à remarquer leurs caractéristiques, puis elle évalue d’autres Palestiniens en fonction de leur degré de similitude avec les militants.

Nous classons les résultats et déterminons le seuil [à partir duquel il convient d’attaquer une cible]“, a déclaré le colonel Yoav lors de la conférence, soulignant qu’”en fin de compte, ce sont des personnes en chair et en os qui prennent les décisions. Dans le domaine de la défense, d’un point de vue éthique, nous insistons beaucoup sur ce point. Ces outils sont destinés à aider [les officiers de renseignement] à franchir leurs barrières“.

Dans la pratique, cependant, les sources qui ont utilisé Lavender au cours des derniers mois affirment que l’action humaine et la précision ont été remplacées par la création de cibles de masse et la létalité.

B., un officier supérieur qui a utilisé Lavender, a expliqué à +972 et Local Call que dans la guerre actuelle, les officiers n’étaient pas tenus d’examiner de manière indépendante les évaluations du système d’IA, afin de gagner du temps et de permettre la production en masse de cibles humaines sans entraves.

Tout était statistique, tout était ordonné – c’était très sec“, a déclaré B.. Il a noté que ce manque de supervision a été autorisé malgré des contrôles internes montrant que les calculs de Lavender n’étaient considérés comme exacts que dans 90 % des cas ; en d’autres termes, on savait à l’avance que 10 % des cibles humaines destinées à être assassinées n’étaient pas du tout des membres de l’aile militaire du Hamas.

Par exemple, des sources ont expliqué que la machine Lavender signalait parfois par erreur des individus dont les modes de communication étaient similaires à ceux d’agents connus du Hamas ou du PIJ, notamment des policiers et des membres de la défense civile, des parents de militants, des habitants dont le nom et le surnom étaient identiques à ceux d’un agent, et des habitants de Gaza qui utilisaient un appareil ayant appartenu à un agent du Hamas.

À quel point une personne doit-elle être proche du Hamas pour être [considérée par une machine d’IA comme] affiliée à l’organisation ?“, a déclaré une source critiquant l’inexactitude de Lavender. “Il s’agit d’une limite vague. Une personne qui ne reçoit pas de salaire du Hamas, mais qui l’aide pour toutes sortes de choses, est-elle un agent du Hamas ? Une personne qui a fait partie du Hamas dans le passé, mais qui n’y est plus aujourd’hui, est-elle un agent du Hamas ? Chacune de ces caractéristiques – des caractéristiques qu’une machine signalerait comme suspectes – est inexacte“.

Des problèmes similaires existent avec la capacité des machines cibles à évaluer le téléphone utilisé par un individu destiné à être assassiné. « En temps de guerre, les Palestiniens changent tout le temps de téléphone », a expliqué la source. « Les gens perdent le contact avec leur famille, donnent leur téléphone à un ami ou à leur femme, voire le perdent. Il n’y a aucun moyen de s’appuyer à 100 pour cent sur le mécanisme automatique qui détermine quel numéro [de téléphone] appartient à qui. »

Selon les sources, l’armée savait que le minimum de surveillance humaine en place ne permettrait pas de découvrir ces failles. « Il n’y avait pas de politique du « zéro erreur ». Les erreurs ont été traitées statistiquement », a déclaré une source qui a utilisé Lavender. « En raison de la portée et de l’ampleur, le protocole était le suivant : même si vous n’êtes pas sûr que la machine fonctionne correctement, vous savez que statistiquement, tout va bien. Alors foncez. »

Cela a fait ses preuves“, a déclaré B., la source principale. « Il y a quelque chose dans l’approche statistique qui vous impose une certaine norme et un certain standard. Il y a eu un nombre illogique de [bombardements] dans cette opération. C’est sans précédent, dans ma mémoire. Et j’ai bien plus confiance dans un mécanisme statistique qu’un soldat qui a perdu un ami il y a deux jours. Tout le monde là-bas, moi y compris, a perdu des gens le 7 octobre. La machine l’a fait froidement. Et cela a rendu les choses plus faciles. »

Une autre source de renseignement, qui a défendu le recours aux listes de suspects palestiniens tués générées par Lavender, a fait valoir qu’il valait la peine d’investir le temps d’un officier du renseignement uniquement pour vérifier les informations si la cible était un haut commandant du Hamas. « Mais lorsqu’il s’agit d’un jeune activiste, vous ne voulez pas y investir de temps et de main d’œuvre », a-t-il déclaré. « En temps de guerre, on n’a pas le temps d’incriminer toutes les cibles. Vous êtes donc prêt à prendre la marge d’erreur liée à l’utilisation de l’intelligence artificielle, au risque de dommages collatéraux et à la mort de civils, ainsi qu’au risque d’attaque par erreur, et à vivre avec ».

Une autre source a déclaré que la raison de cette automatisation était une volonté constante de générer davantage de cibles d’assassinat. « Dans une journée sans cibles [dont les caractéristiques étaient suffisantes pour autoriser une frappe], nous avons attaqué à un seuil inférieur. Nous subissions constamment des pressions : « Amenez-nous plus de cibles. » Ils nous ont vraiment crié dessus. Nous avons fini de tuer nos cibles très rapidement».

Il a expliqué qu’en abaissant le seuil de notation de Lavande, davantage de personnes seraient désignées comme cibles de frappes. « À son apogée, le système a réussi à générer 37 000 personnes comme cibles humaines potentielles », a déclaré B. « Mais les chiffres changeaient tout le temps, car cela dépend de la définition de ce qu’est un agent du Hamas. Il y a eu des moments où un agent du Hamas était défini de manière plus large, puis la machine a commencé à nous amener toutes sortes de personnels de la protection civile, des policiers, sur lesquels il serait dommage de gaspiller des bombes. Ils aident le gouvernement du Hamas, mais ils ne mettent pas vraiment les soldats en danger. »

Une source qui a travaillé avec l’équipe militaire de science des données qui a formé Lavender a déclaré que les données collectées auprès des employés du ministère de la Sécurité intérieure dirigé par le Hamas, qu’il ne considère pas comme des militants, ont également été introduites dans la machine. « J’ai été gêné par le fait que lorsque Lavender a été formé, ils ont utilisé le terme « agent du Hamas » de manière vague et ont inclus des personnes qui étaient des agents de la défense civile dans l’ensemble des données », a-t-il déclaré.

La source a ajouté que même si l’on pense que ces personnes méritent d’être tuées, la formation du système en fonction de leurs profils de communication rendait Lavender plus susceptible de sélectionner des civils par erreur lorsque ses algorithmes étaient appliqués à la population générale. « Puisqu’il s’agit d’un système automatique qui n’est pas actionné manuellement par des humains, le sens de cette décision est dramatique : cela signifie que vous incluez de nombreuses personnes ayant un profil de communication civil comme cibles potentielles. »

L’armée israélienne rejette catégoriquement ces affirmations. Dans une déclaration au +972 et Local Call, le porte-parole de Tsahal a nié avoir utilisé l’intelligence artificielle pour incriminer des cibles, affirmant qu’il s’agissait simplement d’« outils auxiliaires qui aident les officiers dans le processus d’incrimination ». Le communiqué poursuit : « Dans tous les cas, un examen indépendant par un analyste [du renseignement] est requis, qui vérifie que les cibles identifiées sont des cibles légitimes d’attaque, conformément aux conditions énoncées dans les directives de Tsahal et le droit international. »

Cependant, des sources ont déclaré que le seul protocole de surveillance humaine en place avant de bombarder les maisons de militants « juniors » présumés marqués par Lavande consistait à effectuer une seule vérification : s’assurer que la cible sélectionnée par l’IA est un homme plutôt qu’une femme. L’hypothèse au sein de l’armée était que si la cible était une femme, la machine avait probablement commis une erreur, car il n’y a aucune femme dans les rangs des branches militaires du Hamas et du JIP.

« Un être humain devait [vérifier la cible] pendant quelques secondes seulement », a déclaré B., expliquant que c’est devenu le protocole après avoir réalisé que le système Lavender « faisait les choses correctement » la plupart du temps. « Au début, nous avons vérifié que la machine ne se trompait pas. Mais à un moment donné, nous nous sommes appuyés sur le système automatique et nous avons seulement vérifié que [la cible] était un homme – cela suffisait. Il ne faut pas longtemps pour savoir si quelqu’un a une voix masculine ou féminine. »

Pour effectuer le contrôle homme/femme, B. a affirmé que dans la guerre actuelle, « j’investirais 20 secondes pour chaque cible à ce stade, et j’en ferais des dizaines chaque jour. Je n’avais aucune valeur ajoutée en tant qu’humain, à part être un sceau d’approbation. Cela a permis de gagner beaucoup de temps. Si [l’agent] apparaissait dans le mécanisme automatisé et que je vérifiais qu’il s’agissait d’un homme, il y aurait l’autorisation de le bombarder, sous réserve d’un examen des dommages collatéraux. »

Dans la pratique, des sources ont déclaré que cela signifiait que pour les hommes civils marqués par erreur par Lavender, aucun mécanisme de surveillance n’était en place pour détecter l’erreur. Selon B., une erreur courante se produisait « si la cible [du Hamas] donnait [son téléphone] à son fils, à son frère aîné ou simplement à un homme au hasard. Cette personne sera bombardée dans sa maison avec sa famille. Cela arrivait souvent. Ce sont la plupart des erreurs causées par Lavande », a déclaré B..

La prochaine étape de la procédure d’assassinat de l’armée israélienne consiste à identifier où attaquer les cibles générées par Lavander.

Dans une déclaration au +972 et Local Call, le porte-parole de Tsahal a affirmé en réponse à cet article que « le Hamas place ses agents et ses moyens militaires au cœur de la population civile, utilise systématiquement la population civile comme boucliers humains et mène les combats de l’intérieur des structures civiles, y compris les sites sensibles tels que les hôpitaux, les mosquées, les écoles et les installations des Nations Unies. L’armée israélienne est liée et agit conformément au droit international, dirigeant ses attaques uniquement contre des cibles et des agents militaires. »

Les six sources avec lesquelles nous avons parlé ont fait écho dans une certaine mesure à cette idée, affirmant que le vaste système de tunnels du Hamas passe délibérément sous les hôpitaux et les écoles ; que les militants du Hamas utilisent des ambulances pour se déplacer ; et que d’innombrables moyens militaires ont été situés à proximité de bâtiments civils. Les sources ont fait valoir que de nombreuses frappes israéliennes tuent des civils en raison de ces tactiques du Hamas – une caractérisation qui, selon les groupes de défense des droits de l’homme, n’empêche pas Israel d’échapper à la responsabilité d’avoir infligé ces pertes.

Cependant, contrairement aux déclarations officielles de l’armée israélienne, les sources ont expliqué que l’une des principales raisons du bilan sans précédent des bombardements israéliens actuels est le fait que l’armée a systématiquement attaqué des cibles dans leurs maisons privées, aux côtés de leurs familles – en partie parce qu’il était plus facile, du point de vue du renseignement, de marquer les maisons familiales à l’aide de systèmes automatisés.

En effet, plusieurs sources ont souligné que, contrairement aux nombreux cas où des membres du Hamas s’engageaient dans des activités militaires à partir de zones civiles, dans le cas de frappes d’assassinat systématiques, l’armée faisait régulièrement le choix actif de bombarder des militants présumés lorsqu’ils se trouvaient dans des maisons civiles où aucun militaire n’avait accès. Ce choix, disent-ils, reflète la manière dont est conçu le système israélien de surveillance de masse à Gaza.

Les sources ont déclaré à +972 et Local Call que puisque tout le monde à Gaza avait une maison privée à laquelle il pouvait être associé, les systèmes de surveillance de l’armée pouvaient facilement et automatiquement « relier » les individus aux maisons familiales. Afin d’identifier en temps réel le moment où les agents entrent dans leur maison, divers logiciels automatiques supplémentaires ont été développés. Ces programmes suivent simultanément des milliers d’individus, identifient leur présence chez eux et envoient une alerte automatique à l’agent qui les cible, qui marque ensuite la maison en vue d’un bombardement. L’un de ces logiciels de suivi, dévoilé ici pour la première fois, s’appelle « Where is Daddy ? »

« Vous mettez des centaines [de cibles] dans le système et attendez de voir qui vous pouvez tuer », a déclaré une source connaissant le système. “Cela s’appelle une chasse large : vous copiez-collez à partir des listes produites par le système cible.”

Les preuves de cette politique ressortent également clairement des données : au cours du premier mois de la guerre, plus de la moitié des victimes – 6 120 personnes – appartenaient à 1 340 familles, dont beaucoup ont été complètement anéanties alors qu’elles étaient à l’intérieur de leurs maisons, selon les chiffres de l’ONU. La proportion de familles entières bombardées dans leurs maisons lors de la guerre actuelle est bien plus élevée que lors de l’opération israélienne à Gaza de 2014 (qui était auparavant la guerre la plus meurtrière menée par Israël dans la bande de Gaza), ce qui suggère encore davantage l’importance de cette politique.

Une autre source a déclaré qu’à chaque fois que le rythme des assassinats diminuait, davantage de cibles étaient ajoutées aux systèmes comme Where is Daddy ? pour localiser les individus qui entraient chez eux et risquaient donc d’être bombardés. Il a déclaré que la décision de savoir qui intégrer dans les systèmes de suivi pouvait être prise par des officiers de rang relativement bas dans la hiérarchie militaire.

« Un jour, de mon plein gré, j’ai ajouté environ 1 200 nouvelles cibles au système [de suivi], car le nombre d’attaques [que nous menions] diminuait », a expliqué la source. « Cela me paraissait logique. Rétrospectivement, cela semble être une décision sérieuse que j’ai prise. De telles décisions n’étaient pas prises à des niveaux élevés. »

Les sources ont indiqué qu’au cours des deux premières semaines de la guerre, « plusieurs milliers » de cibles ont été initialement saisies dans des programmes de localisation comme Where is Daddy ?. Il s’agissait notamment de tous les membres des forces spéciales d’élite du Hamas, Nukhba, de tous les agents antichars du Hamas et de tous ceux qui sont entrés en Israël le 7 octobre. Mais peu de temps après, la liste des victimes s’est considérablement élargie.

En fin de compte, c’était tout le monde [marqué par Lavender]“, a expliqué une source. « Des dizaines de milliers. Cela s’est produit quelques semaines plus tard, lorsque les brigades [israéliennes] sont entrées dans Gaza, et il y avait déjà moins de personnes non impliquées [c.-à-d. civils] dans les régions du nord ». Selon cette source, même certains mineurs ont été marqués par Lavande comme cibles de bombardements. “Normalement, les agents ont plus de 17 ans, mais ce n’était pas une condition.

Lavande et des systèmes comme Where is Daddy ? se sont ainsi combinées avec un effet meurtrier, tuant des familles entières, selon des sources. En ajoutant un nom issu des listes générées par Lavender à la liste Where is Daddy ? grâce au système de localisation du domicile, a expliqué A., la personne marquée serait placée sous surveillance permanente et pourrait être attaquée dès qu’elle mettrait les pieds dans sa maison, détruisant la maison sur tout le monde à l’intérieur.

« Disons que vous calculez [qu’il y a un] Hamas [agent] plus 10 [civils dans la maison] », a déclaré A.. « Habituellement, ces 10 seront des femmes et des enfants. Il s’avère donc, absurdement, que la plupart des personnes que vous avez tuées étaient des femmes et des enfants ».

Une fois que Lavender a marqué une cible pour l’assassinat, que le personnel de l’armée a vérifié qu’il s’agit d’un homme et qu’un logiciel de suivi a localisé la cible dans leur maison, l’étape suivante consiste à choisir les munitions avec lesquelles la bombarder.

En décembre 2023, CNN a rapporté que, selon les estimations des services de renseignement américains, environ 45 % des munitions utilisées par l’armée de l’air israélienne à Gaza étaient des bombes « stupides », connues pour causer plus de dommages collatéraux que les bombes guidées. En réponse au reportage de CNN, un porte-parole de l’armée cité dans l’article a déclaré : « En tant qu’armée attachée au droit international et à un code de conduite moral, nous consacrons de vastes ressources à minimiser les dommages causés aux civils que le Hamas a forcés à jouer le rôle de boucliers humains. Notre guerre est contre le Hamas, pas contre la population de Gaza. »

Cependant, trois sources de renseignement ont déclaré à +972 et Local Call que les agents subalternes marqués par Lavender avaient été assassinés uniquement avec des bombes stupides, dans l’intérêt d’économiser des armements plus coûteux. L’implication, a expliqué une source, était que l’armée ne frapperait pas une cible junior si celle-ci vivait dans un immeuble de grande hauteur, parce que l’armée ne voulait pas dépenser une « bombe intelligente » plus précise et plus coûteuse (avec un effet collatéral plus limité) pour le tuer. Mais si une cible junior vivait dans un immeuble de quelques étages seulement, l’armée était autorisée à le tuer ainsi que toutes les personnes présentes dans le bâtiment avec une bombe muette.

C’était comme ça avec toutes les cibles juniors“, a déclaré C., qui a utilisé divers programmes automatisés pendant la guerre actuelle. « La seule question était : est-il possible d’attaquer le bâtiment en termes de dommages collatéraux ? Parce que nous menions généralement les attaques avec des bombes stupides, ce qui signifiait littéralement détruire toute la maison, en plus de ses occupants. Mais même si une attaque est prévenue, cela ne vous importe pas : vous passez immédiatement à la cible suivante. Grâce au système, les objectifs ne finissent jamais. Il y en a 36 000 autres qui attendent ».

Une source a déclaré que lors de l’attaque de jeunes agents, y compris ceux marqués par des systèmes d’IA comme Lavender, le nombre de civils qu’ils étaient autorisés à tuer aux côtés de chaque cible était fixé à 20 au cours des premières semaines de la guerre. Une autre source a affirmé que ce nombre était fixe. Ces « degrés de dommages collatéraux », comme les appelle les militaires, étaient largement appliqués à tous les jeunes militants présumés, ont indiqué les sources, quels que soient leur grade, leur importance militaire et leur âge, et sans cas particulier ni examen du cas pour peser l’avantage militaire de les assassiner par rapport au préjudice attendu pour les civils.

Selon A., qui était officier dans une salle d’opérations ciblées pendant la guerre actuelle, le département du droit international de l’armée n’a jamais donné auparavant une « approbation aussi complète » pour un degré de dommages collatéraux aussi élevé. « Il ne s’agit pas simplement de pouvoir tuer n’importe quelle personne qui est un soldat du Hamas, ce qui est clairement autorisé et légitime au regard du droit international », a déclaré A. « Mais ils vous disent directement : ‘Vous avez le droit de les tuer ainsi que de nombreux civils ».

« Toute personne ayant porté un uniforme du Hamas au cours des deux dernières années pourrait être bombardée, provoquant 20 [civils tués] comme dommages collatéraux, même sans autorisation spéciale », a poursuivi A. “En pratique, le principe de proportionnalité n’existe pas.”

Selon A., c’était la politique qu’il avait suivie pendant la majeure partie de son mandat. Ce n’est que plus tard que l’armée a réduit le degré des dommages collatéraux. “Dans ce calcul, cela pourrait aussi être 20 enfants pour un opérateur junior… Ce n’était vraiment pas comme ça dans le passé“, a expliqué A.. Interrogé sur la justification sécuritaire de cette politique, A. a répondu : « Létalité ».

Le degré de dommage collatéral prédéterminé et fixe a contribué à accélérer la création massive de cibles à l’aide de la machine Lavender, selon des sources, car il a permis de gagner du temps. B. a affirmé que le nombre de civils qu’ils étaient autorisés à tuer au cours de la première semaine de la guerre par militant junior présumé marqué par AI était de quinze, mais que ce nombre « augmentait et diminuait » au fil du temps.

« Au début, nous avons attaqué presque sans tenir compte des dommages collatéraux », a déclaré B. à propos de la première semaine après le 7 octobre. « En pratique, on ne comptait pas vraiment les gens [dans chaque maison bombardée], parce qu’on ne pouvait pas vraiment dire qui étaient à la maison ou pas. Au bout d’une semaine, des restrictions sur les dommages collatéraux ont commencé. Le nombre est tombé [de 15] à cinq, ce qui a rendu très difficile notre attaque, car si toute la famille était à la maison, nous ne pouvions pas la bombarder. Ils ont alors augmenté le nombre ».

Des sources ont déclaré à +972 et Local Call que désormais, en partie à cause de la pression américaine, l’armée israélienne ne génère plus en masse de jeunes cibles humaines pour bombarder des maisons civiles. Le fait que la plupart des maisons de la bande de Gaza aient déjà été détruites ou endommagées et que la quasi-totalité de la population ait été déplacée a également compromis la capacité de l’armée à s’appuyer sur les bases de données des renseignements et sur les programmes automatisés de localisation des maisons.

Une des sources a affirmé que le bombardement massif de jeunes militants n’avait eu lieu qu’au cours de la première ou des deux premières semaines de la guerre, puis avait été arrêté principalement pour ne pas gaspiller de bombes. « Il existe une économie de munitions », a déclaré E.. « Ils ont toujours eu peur qu’il y ait [une guerre] dans le nord [avec le Hezbollah au Liban]. Ils n’attaquent plus du tout ce genre de personnes [juniors].”

Cependant, les frappes aériennes contre les hauts commandants du Hamas se poursuivent, et des sources ont déclaré que pour ces attaques, l’armée autorise le meurtre de « centaines » de civils par cible – une politique officielle pour laquelle il n’y a pas de précédent historique en Israël, ni même lors des récentes opérations militaires américaines.

« Lors de l’attentat à la bombe contre le commandant du bataillon Shuja’iya, nous savions que nous allions tuer plus de 100 civils », a rappelé B. à propos du bombardement du 2 décembre qui, selon le porte-parole de Tsahal, visait à assassiner Wisam Farhat. « Pour moi, psychologiquement, c’était inhabituel. Plus de 100 civils – cela franchit une ligne rouge ».

Amjad Al-Sheikh, un jeune Palestinien de Gaza, a déclaré que de nombreux membres de sa famille avaient été tués dans cet attentat. Habitant de Shujaiya, à l’est de la ville de Gaza, il se trouvait ce jour-là dans un supermarché local lorsqu’il a entendu cinq explosions qui ont brisé les vitres.

« J’ai couru vers la maison de ma famille, mais il n’y avait plus de bâtiments là-bas », a déclaré Al-Sheikh au +972 et à Local Call. « La rue était remplie de cris et de fumée. Des blocs résidentiels entiers se sont transformés en montagnes de décombres et en fosses profondes. Les gens ont commencé à fouiller le ciment avec leurs mains, et moi aussi, à la recherche de traces de la maison de ma famille ».

L’épouse et la petite fille d’Al-Sheikh ont survécu – protégées des décombres par un placard tombé sur elles – mais il a retrouvé 11 autres membres de sa famille, parmi lesquels ses sœurs, ses frères et leurs jeunes enfants, morts sous les décombres. Selon l’association de défense des droits humains B’Tselem, les bombardements de ce jour-là ont détruit des dizaines de bâtiments, tué des dizaines de personnes et enseveli des centaines de personnes sous les ruines de leurs maisons.

Des sources du renseignement ont déclaré à +972 et Local Call qu’ils avaient participé à des frappes encore plus meurtrières. Afin d’assassiner Ayman Nofal, le commandant de la Brigade centrale de Gaza du Hamas, une source a déclaré que l’armée avait autorisé le meurtre d’environ 300 civils, détruisant plusieurs bâtiments lors de frappes aériennes sur le camp de réfugiés d’Al-Bureij le 17 octobre, sur la base d’une localisation imprécise de Nofal. Des images satellite et des vidéos de la scène montrent la destruction de plusieurs grands immeubles d’habitation à plusieurs étages.

Entre 16 et 18 bâtiments ont été détruits lors de l’attaque“, a déclaré Amro Al-Khatib, un habitant du camp, au +972 et à Local Call. “Nous ne pouvions pas distinguer un appartement de l’autre : ils étaient tous mélangés dans les décombres et nous avons trouvé des parties de corps humains partout.

Dans la foulée, Al-Khatib a rappelé qu’une cinquantaine de cadavres avaient été retirés des décombres et qu’environ 200 personnes avaient été blessées, dont beaucoup grièvement. Mais ce n’était que le premier jour. Les habitants du camp ont passé cinq jours à évacuer les morts et les blessés, a-t-il expliqué.

Nael Al-Bahisi, un secouriste, a été l’un des premiers sur les lieux. Il a dénombré entre 50 et 70 victimes ce premier jour. « À un certain moment, nous avons compris que la cible de la frappe était le commandant du Hamas Ayman Nofal », a-t-il déclaré à +972 et Local Call. « Ils l’ont tué, ainsi que de nombreuses personnes qui ne savaient pas qu’il était là. Des familles entières avec enfants ont été tuées ».

Une autre source du renseignement a déclaré à +972 et Local Call que l’armée avait détruit un immeuble de grande hauteur à Rafah à la mi-décembre, tuant « des dizaines de civils », afin de tenter de tuer Mohammed Shabaneh, le commandant de la brigade de Rafah du Hamas (on ne sait pas vraiment s’il a été tué ou non lors de l’attaque). Souvent, a indiqué la source, les hauts commandants se cachent dans des tunnels qui passent sous les bâtiments civils, et donc le choix de les assassiner par une frappe aérienne tue nécessairement des civils.

« La plupart des blessés étaient des enfants », a déclaré Wael Al-Sir, 55 ans, qui a été témoin de la frappe à grande échelle considérée par certains Gazaouis comme une tentative d’assassinat. Il a déclaré à +972 et Local Call que l’attentat du 20 décembre avait détruit « un bloc résidentiel entier » et tué au moins 10 enfants.

« Il y avait une politique totalement permissive concernant les victimes des opérations [de bombardement] – si permissive qu’à mon avis, elle comportait un élément de vengeance », a affirmé D., une source du renseignement. « L’essentiel de cette affaire concernait les assassinats de hauts responsables [des commandants du Hamas et du JIP] pour lesquels ils étaient prêts à tuer des centaines de civils. Nous avions fait un calcul : combien pour un commandant de brigade, combien pour un commandant de bataillon, et ainsi de suite ».

« Il y avait des réglementations, mais elles étaient tout simplement très clémentes », a expliqué E., une autre source de renseignement. « Nous avons tué des personnes avec des dommages collatéraux à deux chiffres, voire à trois chiffres. Ce sont des choses qui ne s’étaient jamais produites auparavant ».

Un taux aussi élevé de « dommages collatéraux » est exceptionnel, non seulement par rapport à ce que l’armée israélienne considérait auparavant comme acceptable, mais aussi par rapport aux guerres menées par les États-Unis en Irak, en Syrie et en Afghanistan.

Le général Peter Gersten, commandant adjoint des opérations et du renseignement de l’opération de lutte contre EI en Irak et en Syrie, a déclaré en 2021 à un magazine américain de défense qu’une attaque avec des dommages collatéraux de 15 civils avait dévié de la procédure ; pour le réaliser, il a dû obtenir une autorisation spéciale du chef du commandement central américain, le général Lloyd Austin, aujourd’hui secrétaire à la Défense.

« Avec Oussama Ben Laden, vous auriez une NCV [Non-combattant Casualty Value] de 30, mais si vous aviez un commandant de bas niveau, sa NCV était généralement de zéro », a déclaré Gersten. “Nous avons couru à zéro pendant très longtemps.”

Toutes les sources interrogées dans le cadre de cette enquête ont affirmé que les massacres du Hamas du 7 octobre et les enlèvements d’otages ont grandement influencé la politique de tir de l’armée et l’ampleur des dommages collatéraux. “Au début, l’atmosphère était douloureuse et vindicative“, a déclaré B., qui a été enrôlé dans l’armée immédiatement après le 7 octobre et a servi dans une salle d’opérations ciblées. « Les règles étaient très clémentes. Ils ont démoli quatre bâtiments alors qu’ils savaient que la cible se trouvait dans l’un d’entre eux. C’était fou ».

Il y avait une dissonance : d’un côté, les gens ici étaient frustrés que nous n’attaquions pas assez“, a poursuivi B.. « D’un autre côté, on constate en fin de compte qu’un millier de Gazaouis sont morts, pour la plupart des civils. »

Il y avait de l’hystérie dans les rangs professionnels“, a déclaré D., qui a également été recruté immédiatement après le 7 octobre. “Ils ne savaient absolument pas comment réagir. La seule chose qu’ils savaient faire était de commencer à bombarder comme des fous pour tenter de démanteler les capacités du Hamas. »

D. a souligné qu’on ne leur avait pas explicitement dit que l’objectif de l’armée était la « vengeance », mais a déclaré que « dès que chaque cible liée au Hamas deviendra légitime, et que presque tous les dommages collatéraux seront approuvés, il sera clair pour vous que des milliers de des gens vont être tués. Même si officiellement toutes les cibles sont liées au Hamas, lorsque la politique est si permissive, elle perd tout son sens. »

E. a également utilisé le mot « vengeance » pour décrire l’atmosphère qui régnait au sein de l’armée après le 7 octobre. « Personne n’a pensé à quoi faire après, quand la guerre sera finie, ni comment il sera possible de vivre à Gaza et ce qu’ils feront après ça », a déclaré A.. « On nous a dit : maintenant nous devons foutre en l’air le Hamas, quel qu’en soit le prix. Tout ce que vous pouvez, vous bombardez».

B., la source principale des renseignements, a déclaré que rétrospectivement, il pensait que cette politique « disproportionnée » consistant à tuer des Palestiniens à Gaza mettait également en danger les Israéliens, et que c’était l’une des raisons pour lesquelles il avait décidé d’être interviewé.

« À court terme, nous sommes plus en sécurité, car nous nuisons au Hamas. Mais je pense que nous sommes moins en sécurité à long terme. Je vois comment toutes les familles endeuillées à Gaza – c’est-à-dire presque tout le monde – vont accroître la motivation [des gens à rejoindre] le Hamas dans 10 ans. Et il sera beaucoup plus facile pour [le Hamas] de les recruter. »

Dans une déclaration à +972 et Local Call, l’armée israélienne a nié une grande partie de ce que nous ont dit les sources, affirmant que « chaque cible est examinée individuellement, tandis qu’une évaluation individuelle est faite de l’avantage militaire et des dommages collatéraux attendus de l’attaqueTsahal ne mène pas d’attaques lorsque les dommages collatéraux attendus de l’attaque sont excessifs par rapport à l’avantage militaire. »

« Le modèle n’était pas connecté à la réalité »

Selon les sources du renseignement, le calcul par l’armée israélienne du nombre de civils susceptibles d’être tués dans chaque maison à côté d’une cible – une procédure examinée lors d’une précédente enquête par +972 et Local Call – a été effectué à l’aide d’outils automatiques et imprécis. Dans les guerres précédentes, les services de renseignement passaient beaucoup de temps à vérifier combien de personnes se trouvaient dans une maison qui allait être bombardée, le nombre de civils susceptibles d’être tués étant répertorié dans un « fichier de cibles ». Mais après le 7 octobre, cette vérification approfondie a été largement abandonnée au profit de l’automatisation.

En octobre, le New York Times a fait état d’un système exploité depuis une base spéciale dans le sud d’Israël, qui collecte des informations à partir de téléphones portables dans la bande de Gaza et fournit à l’armée une estimation en direct du nombre de Palestiniens ayant fui le nord de la bande de Gaza vers le sud. Le général Udi Ben Muha a déclaré au Times que « ce n’est pas un système parfait à 100 %, mais il vous donne les informations dont vous avez besoin pour prendre une décision ». Le système fonctionne selon des couleurs : le rouge marque les zones où il y a beaucoup de monde, et le vert et le jaune marquent les zones relativement débarrassées des habitants.

Les sources qui ont parlé à +972 et Local Call ont décrit un système similaire pour calculer les dommages collatéraux, qui a été utilisé pour décider de bombarder ou non un bâtiment à Gaza. Ils ont déclaré que le logiciel calculait le nombre de civils résidant dans chaque maison avant la guerre – en évaluant la taille du bâtiment et en examinant la liste de ses résidents – et réduisait ensuite ces chiffres de la proportion de résidents qui étaient censés avoir évacué le quartier.

Par exemple, si l’armée estimait que la moitié des habitants d’un quartier avaient quitté le quartier, le programme compterait une maison qui comptait habituellement 10 habitants comme une maison contenant cinq personnes. Pour gagner du temps, ont indiqué les sources, l’armée n’a pas inspecté les maisons pour vérifier combien de personnes y vivaient réellement, comme elle l’avait fait lors d’opérations précédentes, afin de savoir si l’estimation du programme était effectivement exacte.

Ce modèle n’était pas connecté à la réalité“, a affirmé une source. « Il n’y avait aucun lien entre ceux qui vivaient dans la maison maintenant, pendant la guerre, et ceux qui y vivaient avant la guerre. [À une occasion], nous avons bombardé une maison sans savoir qu’il y avait plusieurs familles à l’intérieur, cachées ensemble. »

La source a indiqué que même si l’armée savait que de telles erreurs pouvaient se produire, ce modèle imprécis a néanmoins été adopté, car il était plus rapide. En tant que tel, a déclaré la source, « le calcul des dommages collatéraux était complètement automatique et statistique » – produisant même des chiffres qui n’étaient pas des nombres entiers.

« Vous avez tué une famille sans raison »

Les sources qui ont parlé à +972 et Local Call ont expliqué qu’il y avait parfois un écart important entre le moment où des systèmes de suivi comme Where is Daddy ? alertait un officier qu’une cible était entrée dans leur maison et le bombardement lui-même, ce qui a entraîné la mort de familles entières, même sans atteindre la cible de l’armée. “Il m’est arrivé plusieurs fois d’attaquer une maison, mais la personne n’était même pas chez elle“, a déclaré une source. “Le résultat est que vous avez tué une famille sans raison.”

Trois sources de renseignement ont déclaré à +972 et Local Call qu’elles avaient été témoins d’un incident au cours duquel l’armée israélienne a bombardé la maison privée d’une famille, et il s’est avéré plus tard que la cible de l’assassinat n’était même pas à l’intérieur de la maison, puisqu’aucune autre vérification n’avait été effectuée en temps réel.

« Parfois, [la cible] était chez elle plus tôt, puis la nuit, il allait dormir ailleurs, par exemple sous terre, et vous n’en étiez pas au courant », a déclaré l’une des sources. « Il y a des moments où vous revérifiez l’emplacement, et il y a des moments où vous dites simplement : « D’accord, il était dans la maison ces dernières heures, vous pouvez donc simplement bombarder. »

Une autre source a décrit un incident similaire qui l’a affecté et lui a donné envie de témoigner pour cette enquête. « Nous avons compris que la cible était chez lui à 20 heures. Finalement, l’armée de l’air a bombardé la maison à 3 heures du matin. Ensuite, nous avons découvert [pendant ce laps de temps] qu’il avait réussi à déménager dans une autre maison avec sa famille. Il y avait deux autres familles avec enfants dans le bâtiment que nous avons bombardé ».

Lors des guerres précédentes à Gaza, après l’assassinat de cibles humaines, les renseignements israéliens effectuaient des procédures d’évaluation des dégâts causés par les bombes (BDA) – un contrôle de routine après la frappe pour voir si le commandant supérieur avait été tué et combien de civils avaient été tués avec lui. Comme l’a révélé une précédente enquête +972 et Local Call, cela impliquait d’écouter les appels téléphoniques de proches qui avaient perdu un être cher. Cependant, dans la guerre actuelle, au moins en ce qui concerne les jeunes militants marqués à l’aide de l’IA, cette procédure a été supprimée pour gagner du temps. Les sources ont déclaré qu’elles ne savaient pas combien de civils avaient été réellement tués lors de chaque frappe, et pour les membres présumés du Hamas et du JIP identifiés par AI, elles ne savaient même pas si la cible elle-même avait été tuée.

« Vous ne savez pas exactement combien de personnes vous avez tuées et qui vous avez tué », a déclaré une source du renseignement à Local Call pour une précédente enquête publiée en janvier. « Ce n’est que lorsqu’il s’agit de hauts responsables du Hamas que vous suivez la procédure BDA. Dans le reste des cas, vous ne vous en souciez pas. Vous recevez un rapport de l’armée de l’air indiquant si le bâtiment a explosé, et c’est tout. Vous n’avez aucune idée de l’ampleur des dommages collatéraux ; vous passez immédiatement à la cible suivante. L’accent était mis sur la création d’autant de cibles que possible, le plus rapidement possible ».

Mais même si l’armée israélienne peut passer à autre chose après chaque frappe sans s’attarder sur le nombre de victimes, Amjad Al-Sheikh, un habitant de Shuja’iya qui a perdu 11 membres de sa famille lors du bombardement du 2 décembre, a déclaré que lui et ses voisins étaient toujours à la recherche de cadavres.

Jusqu’à présent, il y a encore des corps sous les décombres“, a-t-il déclaré. « Quatorze immeubles résidentiels ont été bombardés avec leurs habitants à l’intérieur. Certains de mes proches et voisins sont encore enterrés ».

Yuval Abraham

Traduit par Wayan, relu par Hervé, pour le Saker Francophone.

Adblock test (Why?)

Source: Lire l'article complet de Le Saker Francophone

À propos de l'auteur Le Saker Francophone

« Le chaos du monde ne naît pas de l'âme des peuples, des races ou des religions, mais de l'insatiable appétit des puissants. Les humbles veillent. »Un groupe de citoyens francophones qui désire faire partager au public francophone des analyses venues du monde entier et exprimées dans d'autres langues. Rendre accessible la pensée dissidente où qu'elle se trouve.Ce site est une émanation du Saker US mais avec notre propre sensibilité francophone.Nous n'avons pas besoin de vos dons, nous sommes tous bénévoles, mais vos talents sont bienvenus si vous avez des dispositions pour la traduction (anglais, allemand, russe, etc.) et aussi pour la relecture en Français

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Recommended For You