L’IA au cœur du conflit israélo-palestinien

Abonnez-vous à la newsletter

Un nouvel « art de la guerre » est à l’œuvre. Mais les algorithmes imposent de déterminer la valeur de la vie humaine. Un débat ultrasensible.

 » Lavande « , « Évangile », « Où est Papa ? », « Profondeur de la sagesse ». Derrière ces noms énigmatiques se cachent des armes redoutables qui sont en train de dessiner le nouvel « art de la guerre ». Ces noms de code désignent quelques-uns des logiciels d’Intelligence artificielle (IA) qu’utilise l’armée israélienne. Dans la guerre contre le Hamas à Gaza, depuis le 7 octobre 2023, ces outils ont pris une importance considérable.

Lavande aurait permis à Tsahal de « marquer » environ 37 000 Palestiniens soupçonnés d’être liés au Hamas et d’en faire des cibles potentielles. Avec Évangile (Habsora, en hébreu), l’objectif est de déterminer des probabilités pour les bâtiments et les structures à frapper afin d’éliminer ces cibles. Grâce à Où est Papa ?, on repère leurs foyers, pour les assaillir en pleine nuit. D’autres applications de l’IA servent à cartographier les tunnels creusés par le Hamas sous le territoire de Gaza, ou à prévoir des plans de riposte en cas d’attaque de roquettes… Chaque fois, l’idée est de traiter vite et mieux des quantités de données de renseignement, collectées grâce à des capteurs de plus en plus nombreux et divers, afin d’automatiser la constitution de dossiers préalables à une action militaire.

« Unité des cibles »

Au lendemain de l’attaque du Hamas du 7 Octobre, les stratèges israéliens voulaient à tout prix éviter une « pénurie de cibles », comme ce fut le cas lors de l’opération « Bordure protectrice », en 2014, et, dans une moindre mesure, lors de « Gardien des murs », en 2021. À l’époque, les militaires, pressés par le pouvoir politique de durcir la riposte, s’étaient trouvés à court d’objectifs. Pour y remédier, en 2019, l’armée israélienne a créé une « unité des cibles », qui comprend plusieurs centaines de soldats et d’officiers et qui s’appuie sur l’IA, comme l’a précisé l’ancien chef d’état-major, Aviv Kochavi, dans un entretien paru avant le déclenchement du conflit en cours.

Alors que Tsahal pouvait autrefois identifier environ 50 cibles en un an, elle est parvenue à en produire 100 chaque jour au cours de l’opération de 2021, souligne cet ancien dirigeant militaire israélien. La méthode a été encore perfectionnée dans la guerre actuelle : après plus de huit mois de bombardements intenses, les artilleurs et l’aviation reçoivent encore des listes de points à frapper. La machine à générer des cibles tourne à plein régime.

Formulée dès 2019 et lancée par Aviv Kochavi, la stratégie numérique de l’armée israélienne a pris corps avec la création d’un département IA interarmes et multicommandements. L’opération de 2021 a ensuite été considérée comme la première guerre de l’IA. Début 2022, à l’occasion d’un colloque à Tel-Aviv, le responsable de cette branche de Tsahal a dévoilé une partie de ses ambitions et publié un document déclassifié où il esquisse sa stratégie. L’IA en réalité augmentée sur le terrain, l’IA dans les armes, l’IA pour détecter des menaces… « L’objectif de Tsahal n’est pas seulement d’avoir des systèmes qui utilisent l’intelligence artificielle, mais plutôt d’intégrer systématiquement celle-ci dans l’ensemble de l’armée », rapporte alors Seth Frantzman, directeur du Middle East Center for Reporting and Analysis. Et, en juin 2022, la chercheuse Liran Antebi dévoilait déjà quelques-uns des algorithmes développés par Tsahal : Habsora, Fire Factory, Alchemist…

Accélération vertigineuse

L’IA permet d’être « plus rapide et plus efficace », souligne l’officier israélien dans son briefing, en 2022. Mais il précise aussi qu’elle doit permettre de réduire les dommages pour les civils. « Nous visons toujours de faibles dommages collatéraux. C’est une ligne directrice majeure. » Pour cela, reconnaissait l’officier, il faut « garder l’humain dans la boucle », laisser à l’homme « la prise de décision ».

L’IA est pourtant au cœur des critiques depuis les révélations du journaliste israélien Yuval Abraham, auteur d’une série d’enquêtes publiées ces derniers mois, dans le magazine +972, sur l’utilisation des technologies de pointe dans les opérations à Gaza. Leur emploi par l’armée israélienne expliquerait, selon lui, le lourd bilan de la guerre pour les populations civiles. L’une de ses sources au sein de l’armée qualifie le logiciel Lavande de « fabrique d’assassinats de masse ». Tsahal rétorque qu’il s’agit d’une simple base de données. Mais l’accélération vertigineuse du traitement des données par l’IA ravive la crainte d’une déshumanisation de la guerre. Quel temps de décision reste-t-il à l’humain pour évaluer une situation avant d’ordonner une frappe ? Au plus fort des bombardements sur Gaza, à peine vingt secondes, estiment d’anciens officiers de Tsahal interrogés par le journaliste israélien. « Le recours à des techniques d’intelligence artificielle autorise Tsahal à intensifier ses frappes, mais ne permet pas pour autant de limiter les dommages collatéraux, ce qui peut sembler paradoxal », observe Laure de Roucy-Rochegonde, chercheuse au Centre des études de sécurité de l’Institut français des relations internationales (Ifri).

Problème de paramétrage

Avec 15 000 frappes en trente-cinq jours, la première phase de la campagne militaire a été particulièrement destructrice. « L’accent est mis sur la quantité et non sur la qualité des cibles », précise l’un des militaires cités dans l’article publié par +972 en novembre. À Gaza, 60 % des bâtiments de la zone assiégée ont été endommagés ou détruits dans les trois premiers mois de la guerre, ont établi deux chercheurs américains, grâce à des images satellites. Sur le plan humain, le bureau de la Santé du Hamas chiffre aujourd’hui à plus de 38 000 personnes le nombre de tués, sans distinguer entre combattants et civils. Israël affirme pour sa part avoir éliminé 14 000 combattants islamistes. Le reste des morts seraient des civils, les « dommages collatéraux ». « Si l’on se réfère aux éléments de langage israéliens pour justifier les opérations, le ratio entre le nombre de terroristes éliminés et le nombre de civils tués serait presque d’un pour deux, ou un pour trois, ce qui en ferait l’une des guerres les plus “propres”, souligne Amélie Ferey, responsable du Laboratoire de recherche sur la défense à l’Ifri. La comparaison est souvent faite avec le bombardement de Raqqa, en Syrie, par la coalition internationale contre Daech pour dire qu’Israël fait mieux que les Occidentaux ».

Face aux accusations, Israël se dit soucieux de respecter le principe de proportionnalité, principe cardinal du droit de la guerre. Ce dernier n’interdit pas les pertes civiles, « à condition que ces dommages ne soient pas excessifs par rapport à l’avantage militaire concret et direct attendu ». L’appréciation reste subjective. Toute la question réside dans la manière dont est paramétrée l’IA par les décideurs. « Il y a un gros problème de paramétrage de l’IA, juge Amélie Ferey. Quelle distinction fait-on entre combattant et non-combattant ? Comment classe-t-on les proches, la famille, les voisins ? Avec quelle marge d’erreur ? L’armée israélienne, selon les témoignages recueillis par Yuval Abraham, autoriserait un nombre particulièrement élevé de civils tués. Une centaine pour un haut commandant du Hamas. Et même 15 ou 20 pour un militant moins chevronné. Lavande aurait un taux d’erreur accepté de 10 %… Sans parler de la marge d’erreur inhérente à chaque arme utilisée… Tsahal dément de tels chiffres et ne précise pas les critères qui justifient une frappe. »

Depuis environ vingt-cinq ans, les armées modernes sont à la recherche de la proportion acceptable, d’un algorithme permettant de déterminer le nombre de civils qui pourraient être sacrifiés pour atteindre un objectif militaire. La « valeur seuil de victimes non combattantes » (en anglais « non-combatant casualty value », ou NCV) est apparue à la fin des années 1990 pour définir ce ratio. Au cours de la guerre « chirurgicale » en Irak, en 2002-2003, les responsables américains admettaient une NCV de 30 civils pour des cibles majeures. Idem pour éliminer Oussama Ben Laden. En revanche, pour des cas moins sensibles, le taux se rapprochait de zéro.

Autonomie accrue

Après le fiasco de la guerre aérienne en Afghanistan, qui a provoqué des milliers de civils tués par erreur, la doctrine a changé. Le général américain McChrystal a plaidé pour une réduction drastique des dommages collatéraux, car ils éloigneraient les militaires de leurs objectifs de guerre. Mais en Irak, après la prise de Mossoul par Daech en 2014, la coalition conduite par les États-Unis a relevé la NCV à 50 pour les cibles clés. Cet outil de calcul a finalement été abandonné en 2019 par Washington, mais le principe de proportionnalité reste. « Ces seuils sont toujours fluctuants, mais, aujourd’hui, il y a une sensibilité plus forte pour le prix de la vie humaine, ce n’est plus le bombardement de Dresde ou la guerre de Corée », note Ariel Colonomos, directeur de recherche au CNRS et auteur d’Un prix à la vie (PUF).

L’intégration de l’IA à l’activité militaire n’est pas synonyme d’invulnérabilité. Le 7 octobre 2023, les technologies israéliennes de surveillance, les tours automatisées avec radars et caméras thermiques ont été rendues inopérantes par de petits drones bricolés par les terroristes. La « nation high-tech » est apparue vulnérable face aux commandos du Hamas, mettant en évidence une forme de surconfiance technologique. « Dès lors qu’un calcul a été fait, on a tendance à estimer que c’est proportionnel. La sophistication technique donne l’impression d’un jugement parfait et d’un respect du droit de la guerre, mais ce sont des systèmes inaboutis », conclut Laure de Roucy-Rochegonde.

D’ailleurs, les autres démocraties qui développent des IA militaires ont beau dénoncer les dérives d’Israël, elles prévoient toutes des modes d’autonomie accrue, voire totale, pour leurs algorithmes, au détriment de l’éthique, en cas de menace sur leurs intérêts vitaux. Une sorte de réaction ultraviolente sous adrénaline : programmée par l’homme, l’IA est finalement très humaine.

Par Guillaume Perrier (avec Guerric Poncet)

Source lepoint