Yuval Noah Harari : «L’intelligence artificielle est fascinante et dangereuse»

Abonnez-vous à la newsletter

Si elle n’est pas régulée, l’IA mettra en péril l’humanité. C’est l’alerte lancée par l’historien dans son nouveau livre, « Nexus ».

Professeur d’histoire à l’université hébraïque de Jérusalem, Yuval Noah Harari s’est fait connaître par ses ouvrages de vulgarisation scientifique qui retracent de manière originale l’histoire de l’humanité. Ses livres ont été traduits dans 65 langues, et le seul Sapiens. Une brève histoire de l’humanité – qui met notamment en évidence sa faculté à croire à des fictions collectives, une tendance qui lui a permis de s’imposer sur la Terre de l’ère du Pléistocène supérieur à nos jours – s’est écoulé à 25 millions d’exemplaires.

En se projetant dans l’avenir, ses deux écrits suivants, Homo Deus. Une brève histoire de l’avenir et 21 Leçons pour le XXIe siècle, ont enflammé les conversations des dîners de Bill Gates, de Natalie Portman ou du créateur de Netflix, Reed Hastings.

Avec Nexus (Albin Michel), son dernier opus, dont Le Point publie de larges extraits cette semaine, Yuval Noah Harari examine les rapports de l’homme avec l’intelligence artificielle. Une IA qu’il décrit comme l’invention la plus significative de l’histoire de l’humanité, plus encore que la machine à vapeur ou la bombe atomique.

Pour la première fois, estime-t-il, l’homme confère un pouvoir de décision à sa création. Certes, cette IA fait preuve d’une efficacité confondante dans la détection de certaines maladies et peut se révéler très utile dans la conception de nouveaux matériaux et médicaments, comme dans l’anticipation d’ouragans ou d’incendies de forêt. Pourtant, en s’appropriant la capacité de parler, ces modèles de langage, ont, estime l’universitaire, le pouvoir de détruire la démocratie.

Mais comment un professeur d’histoire médiévale en vient-il à s’intéresser à l’intelligence artificielle ? Ses travaux se distinguent par leur caractère pluridisciplinaire, touchant aussi bien à l’anthropologie, à l’histoire ou à la philosophie. Il n’empêche. Ses prises de position agacent parfois, comme lorsqu’Elon Musk lui a publiquement reproché de faire confiance aux journaux pour débusquer les fausses informations.

Pourtant, Yuval Noah Harari, qui vit sans téléphone portable, garde un pied avec la réalité et a multiplié les échanges ces dernières années : avec le créateur de Facebook, Mark Zuckerberg, avec Tristan Harris, un des « repentis » de la Silicon Valley, ou encore avec Sam Altman, cocréateur d’Open AI, la maison mère de ChatGPT.

Et petit à petit, ses positions s’affinent. Alors qu’il préconisait il y a encore un an, dans une lettre ouverte publiée par le think tank The Future of Life Institute, une pause de six mois dans le développement de l’IA, il appelle aujourd’hui à une meilleure coopération entre les hommes pour apprendre à dompter sa bluffante, mais terrifiante, créature.

Le Point : En quoi l’intelligence artificielle constitue-t-elle l’outil le plus puissant jamais conçu par l’humanité ?

Yuval Noah Harari : L’IA est effectivement l’outil le plus puissant que l’humanité ait jamais inventé, car c’est la première technologie capable de prendre des décisions par elle-même. Contrairement à d’autres inventions puissantes, comme la bombe atomique, qui reste un outil entre nos mains, l’IA est un agent indépendant. Elle peut échapper à notre contrôle et commencer à faire des choses que nous n’avions pas prévues. C’est ce qui la rend à la fois fascinante et dangereuse.

Vous expliquez que l’intelligence artificielle peut être aussi dangereuse qu’un virus biologique…

Une partie du problème avec l’IA est que les gens ne la perçoivent pas encore comme dangereuse. Tout le monde redoute les agents pathogènes, c’est-à-dire les virus capables de provoquer une maladie infectieuse. Mais nous n’avons pas cette même horreur biologique de la technologie numérique. Par conséquent, nous nous montrons très permissifs à l’égard des logiciels. Il existe de nombreuses réglementations sur ce que les entreprises peuvent vendre en matière d’alimentation ou de voitures, mais, avec les logiciels, vous pouvez inventer ce que vous voulez et le distribuer – y compris des technologies extrêmement puissantes et dangereuses.

Vous semblez particulièrement préoccupé par l’impact de l’IA sur la démocratie. Pourquoi ?

La démocratie ne peut pas exister sans conversation. Si les gens ne peuvent pas s’écouter les uns les autres, s’ils ne peuvent pas se mettre d’accord sur les faits, la démocratie est impossible. C’est aussi simple que cela. Nous disposons de la technologie de l’information la plus sophistiquée de l’Histoire, et pourtant les gens ne peuvent pas se parler. Si vous ne pouvez pas distinguer les robots des humains, la conversation s’effondre.

Or, de plus en plus souvent, nous parlons probablement à des robots sans le savoir. Par ailleurs, que se passe-t-il lorsque des décisions cruciales, comme le taux directeur de la Banque centrale, sont prises par des algorithmes incontrôlables ? Et si les électeurs humains peuvent toujours choisir un président humain, cela ressemble de plus en plus à une mascarade.

Vous vous inquiétez de la montée en puissance des deepfakes, ces vidéos hyperréalistes qui s’invitent dans la campagne électorale américaine, par exemple…

La loi devrait interdire non seulement les deepfakes ciblant une personne réelle – en créant une fausse vidéo du président américain, par exemple – mais, plus largement, toute tentative d’un agent non humain de se faire passer pour un humain. Les algorithmes peuvent aider à modérer les plateformes de réseaux sociaux. Mais les principes sur lesquels les algorithmes s’appuient pour décider quelle voix doit être réduite au silence ou laquelle doit être amplifiée doivent être validés par une institution humaine.

Faut-il alors enseigner au grand public comment fonctionne l’IA ?

Je ne suis pas sûr qu’il soit nécessaire ni même possible d’apprendre à tout le monde comment coder ou comment fonctionne exactement l’IA. Prenez les armes nucléaires : la plupart des hommes politiques ne connaissent pas la science physique utilisée pour mettre au point une bombe. Ce qu’ils doivent connaître, c’est l’effet potentiel de la bombe sur la société humaine.

Il devrait en être de même avec l’IA. Il n’est pas nécessaire à tout un chacun d’avoir un doctorat d’intelligence artificielle. Ce dont les gens doivent être conscients, c’est l’effet potentiel de l’IA sur la société humaine. Aujourd’hui, la plupart d’entre nous avons une attitude particulièrement décontractée à propos d’une technologie qui peut faire beaucoup de dégâts.

L’intelligence artificielle a quand même des aspects positifs…

Absolument. Il ne s’agit pas d’arrêter le développement de l’IA, car son potentiel positif est énorme. Elle est déjà très utile pour diagnostiquer de nouvelles maladies. Elle peut aussi nous aider à développer de meilleurs médicaments, à créer des matériaux qui répondent à nos besoins, à détecter des catastrophes naturelles, comme les ouragans ou les incendies de forêt.

Certes, elle consomme beaucoup d’énergie aujourd’hui, mais c’est probablement cette même intelligence artificielle qui nous permettra de concevoir des technologies et des sources d’énergie beaucoup plus écologiques. Pensez aussi aux véhicules autonomes. Chaque année, plus de 1 million de personnes meurent dans des accidents de voiture. La plupart de ces accidents sont le résultat d’erreurs humaines. L’IA pourrait sauver ces vies rien qu’en rendant la conduite plus sûre.

La France, qui compte de grands talents, peut-elle jouer un rôle dans cet eldorado ?

La France est ouverte aux cultures, aux philosophies, aux points de vue, plus que la plupart des autres pays du monde. La seule façon pour elle de jouer un rôle au niveau mondial est de jouer la carte de l’Union européenne, car celle-ci est la seule capable, au niveau économique, scientifique et technique, de rivaliser avec les États-Unis et la Chine.

Vous mettez néanmoins en garde contre le « colonialisme des données »…

Le colonialisme des données est déjà une réalité. Quelques gouvernements et entreprises, principalement basés aux États-Unis et en Chine, contrôlent la plupart des informations du monde. Ces informations leur donnent un immense pouvoir. C’est un peu comme la révolution industrielle, grâce à laquelle les quelques pays qui s’étaient industrialisés en premier ont dominé le reste du monde. Les empires industriels des XIXe et XXe siècles ont exploité et réprimé leurs colonies, et il serait imprudent d’attendre des nouveaux empires numériques qu’ils se comportent beaucoup mieux.

Mais tout dépend de ce que les entreprises feront de ce pouvoir…

Le problème avec les ordinateurs n’est pas qu’ils sont particulièrement mauvais mais qu’ils sont particulièrement puissants. Et, plus un ordinateur est puissant, plus nous devons faire attention à définir le but que nous lui fixons. Les algorithmes de Facebook et de YouTube se sont comportés exactement comme l’algorithme imaginaire théorisé par le philosophe suédois Nick Bostrom.

Quand on lui a demandé de maximiser la production de trombones, cet algorithme s’est efforcé de transformer tout l’univers matériel en trombones, quand bien même cela impliquait de détruire la civilisation humaine. Lorsque les algorithmes des réseaux sociaux ont pour seul objectif l’engagement des utilisateurs, ils sont capables de détruire la démocratie, des Philippines aux États-Unis.

Les champs de bataille seront-ils eux aussi profondément transformés ?

Dans cinq ans, peut-être même deux ans, nous pourrions avoir des drones totalement autonomes. À ce moment-là, toutes les armées du monde pourraient devenir obsolètes. Une telle incertitude sape la doctrine de la destruction mutuelle. Un camp peut se convaincre – à tort ou à raison – qu’il peut lancer une première frappe réussie et éviter des représailles massives.

Et, si le monde est divisé en empires rivaux, il est peu probable que l’humanité coopère efficacement pour surmonter la crise écologique ou pour réguler d’autres technologies perturbatrices, telle la bio-ingénierie, permise à la fois par le génie génétique et les interfaces cerveau-ordinateur comme celles conçues par Neuralink.

Certains chercheurs proposent l’open source comme solution pour rendre l’IA moins opaque, tandis que d’autres, comme Yoshua Bengio, craignent que cela mette à la portée de tous la possibilité de créer des bombes destructrices…

Le rythme du changement est si rapide qu’aucune réglementation rigide ne peut anticiper tout ce qui peut mal tourner. Ce dont nous avons besoin, c’est de construire des institutions vivantes, dotées des meilleurs talents et de financements adéquats, capables de comprendre ce qui se passe et de réagir très rapidement. Quant à savoir si l’open source est une bonne voie à suivre, cela suscite un débat passionné entre les experts qui rappelle le conflit idéologique entre catholiques et protestants. Les catholiques pensaient que le code maître (la Bible) ne devait être accessible qu’à quelques experts (les prêtres)…

« Nexus. Une brève histoire des réseaux d’information, de l’âge de pierre à l’IA », de Yuval Noah Harari, traduit de l’anglais par David Fauquemberg (Albin Michel, 576 p., 24,90 €). Parution le 26 septembre.

Propos recueillis par Guillaume Grallet