Boaz Ganor, expert en contre-terrorisme israélien, estime, dans un entretien au « Monde », que l’Intelligence artificielle peut aider à détecter les « loups solitaires » et « terroristes spontanés ». A condition d’en faire un usage encadré et raisonné.
Alors que le projet de loi sur la prévention des actes de terrorisme et le renseignement est en cours d’examen au Sénat, Boaz Ganor, fondateur et directeur exécutif de l’Institut international pour le contre-terrorisme (ICT) à Herzliya, au nord de Tel-Aviv, détaille l’usage fait par Israël des algorithmes et de l’intelligence artificielle (IA) en matière de lutte contre le terrorisme. La principale nouveauté du texte de loi en discussion en France tient en effet à la pérennisation de l’usage des algorithmes, surnommés « boîtes noires », et à leur extension aux URL, c’est-à-dire aux noms de domaines consultés sur Internet.
Depuis quand Israël utilise-t-elle l’IA et les algorithmes en matière de contre-terrorisme ?
En 2015, Israël a été confronté à une vague massive d’attaques au couteau, menées par des « loups solitaires » palestiniens, qui a duré deux ans et demi. Les « loups solitaires » ne sont pas un phénomène nouveau en Israël ; il a débuté en 1987 lors de la première Intifada. Mais, en 2015, les services de sécurité et de renseignement ont été pris de court par l’ampleur du phénomène. C’est là qu’ils ont eu recours à l’IA, qui s’est révélée plutôt efficace.
Quel est l’intérêt de l’IA contre ce type d’attaques ?
Parmi les différents types de terroristes, les « loups solitaires » sont des assaillants individuels, qui n’ont pas de lien opérationnel avec un groupe. Cela ne veut pas dire qu’ils ne sont pas inspirés par telle ou telle organisation, mais ils n’ont pas été recrutés et n’ont pas reçu d’aide pour mener à bien leur projet.
Or, les « loups solitaires » ne discutent pas de leurs plans au téléphone ou avec leur famille, ils ne reçoivent pas d’ordre. Ils passent à l’acte, c’est tout. Et, parmi eux, il y a des « assaillants spontanés » qui ne savent même pas qu’ils vont mener une attaque le matin de leur passage à l’acte. C’est le fruit d’une opportunité, d’un état d’esprit ou d’une contrariété. La radicalisation était déjà là, mais pas le projet. Ce sont les plus difficiles à appréhender, car ils échappent à toute surveillance classique, et même leur famille ne se doute souvent pas de leur radicalisation.
On s’est aperçu que la plupart des « loups solitaires » palestiniens donnaient des signaux précoces de cette radicalisation dans le cadre de leurs interactions sur les réseaux sociaux. Contrairement aux criminels de droit commun, les terroristes agissent par « altruisme » : ils défendent leurs valeurs, leur religion ou leur patrie et le font savoir. L’IA est capable de brasser une quantité phénoménale de données et d’isoler des signaux extrêmement faibles, une activité ou un état inhabituel, que l’intelligence humaine n’aurait pas repérés. Par ailleurs, une étude que nous avons menée sur des « loups solitaires » condamnés à des peines de prison en Israël montre un niveau élevé d’instabilité mentale. Il est possible de chercher à détecter ce genre de comportement en ligne.
Comment mesurer l’efficacité du recours aux algorithmes et à l’IA ?
En 2015, on a recensé 163 attaques de « loups solitaires » en Israël. En 2016, il y en a eu cent huit et, en 2017, cinquante-quatre. D’après les données publiées par l’Israel Security Agency [ISA, le service de sécurité intérieure israélien], plus de deux mille attaques ont été empêchées en 2015-2016, et mille cent en 2017. L’ISA parle d’« attaques potentielles ».
Que recouvre ce concept d’« attaque potentielle » ?
Quand on parle d’attaque potentielle, on prend en compte deux critères : le niveau de préparation et le niveau de motivation. Or, la plupart des attaques de « loups solitaires » sont menées à l’arme blanche ou à la voiture-bélier et ne réclament donc aucune préparation. Le seul moyen de juger de la potentialité d’une attaque revient donc à analyser la motivation. Mais c’est un critère très complexe à évaluer : je ne voudrais pas être mal compris, mais chaque Palestinien des territoires occupés pourrait avoir des raisons de commettre un attentat, et pourtant ils ne le font pas. Le concept de « terroriste potentiel » est très problématique.
Je n’ai aucun doute quant au fait que l’IA est devenue une nécessité en matière de contre-terrorisme et a fait la preuve de son efficacité. Mais j’ai des inquiétudes, car c’est une technologie en cours de développement, dont nous ne maîtrisons pas toutes les conséquences.
Quelles sont vos inquiétudes ?
Je partage les réserves d’Henry Kissinger dans son célèbre article sur l’IA dans The Atlantic. D’abord, les algorithmes peuvent donner des résultats non désirés : vous fixez les règles, mais la machine apprend et change les règles pour les rendre plus efficaces. Deuxièmement, on donne à la machine le pouvoir de tirer des conclusions sur les comportements et valeurs humaines. Comment voulez-vous qu’une machine cherche des terroristes alors qu’on n’est pas d’accord sur la définition du terrorisme ? Dernier problème majeur : la machine donne des résultats que le scientifique qui l’a conçue ne peut parfois pas expliquer. Par exemple, il y a des algorithmes qui surveillent les mouvements de foule enregistrés par les caméras de surveillance et sont capables de désigner la personne sur le point de commettre un attentat. Ces algorithmes fonctionnent à partir d’exemples passés, mais les programmateurs sont bien incapables de dire exactement quels critères la machine a sélectionnés. Ce n’est pas de la science-fiction, cela se passe en ce moment.
Pour revenir à Israël, quelle population a été soumise à l’algorithme : seuls les Palestiniens des territoires occupés, ceux d’Israël également ou tout le monde ?
Je ne sais pas, en ce qui concerne l’époque de la vague d’attaques au couteau. Mais ce dont je suis sûr, c’est que cette technologie a été utilisée dans le cadre de la lutte contre le Covid-19 sur l’ensemble de la population en Israël, Juifs comme Arabes. Et, alors qu’il n’y avait eu aucun débat sur la protection de la vie privée lorsque les algorithmes ont été utilisés contre les attaques terroristes, ces questions ont été soulevées lors de la pandémie.
Qu’a fait le gouvernement avec les personnes identifiées par l’algorithme entre 2015 et 2017 ? Ont-elles été arrêtées préventivement alors qu’elles n’avaient rien fait ?
D’après ce que je sais, les conclusions de l’algorithme n’ont pas servi à arrêter un individu, mais à le mettre en garde dans la plupart des cas, lui ou sa famille. Il a souvent suffi de passer un coup de fil aux parents en leur disant : « Votre fils ou votre fille file un mauvais coton et se radicalise à votre insu, faites attention ! »
Un chercheur danois a évoqué, dans un article sur les algorithmes prédictifs, le chiffre de 100 000 « faux positifs » potentiels pour chaque vrai terroriste…
Je ne sais pas si cette étude est encore valable, mais ce qui est en jeu ici, ce sont des vies innocentes. Pour moi, la vraie question est la suivante : quelle est la conséquence d’un « faux positif » ? Si c’est un léger embarras, cela en vaut la peine. Si c’est ôter la vie ou la liberté d’un innocent, ce n’est pas acceptable. Mais ce n’est pas la machine qui décide de ça.
N’y a-t-il pas un risque accru de profilage de certaines catégories de la population ?
Cela peut paraître surprenant, mais cette technologie élimine justement le risque de profilage parce que l’utilisation des datas n’est pertinente que si on prend en compte toute la société. Si vous appliquez la même technologie à tout le monde, seuls les comportements dangereux et extrémistes seront pointés et non pas ceux d’une partie de la population seulement. La machine est aveugle. Au contraire, lorsque Facebook a concentré ses moyens pour lutter contre la propagande djihadiste, la menace des suprémacistes blancs a été négligée.
Quels autres pays utilisent cette technologie ?
Le Royaume-Uni et les Etats-Unis le font déjà. Dans un futur proche, tous les pays occidentaux vont s’y mettre. La Chine, bien sûr, utilise massivement ces techniques et, dans une moindre mesure, la Russie. La Chine est le pire des cas. Cela doit être un repoussoir pour les démocraties occidentales. Les algorithmes sont très efficaces et peuvent sauver des vies. Tout le problème est de trouver le bon équilibre entre les potentialités qu’ils ouvrent et le respect des libertés individuelles.