Des chercheurs de l’université Ben Gourion poussent l’Autopilote des Tesla à freiner avec une image diffusée pendant moins d’une demi-seconde sur un écran publicitaire. De quoi causer des accidents, avec une attaque exécutable à distance.
8 caméras panoramiques, un radar, douze capteurs à ultrasons… L’Autopilote des voitures électriques de Tesla peut s’appuyer sur de nombreuses sources d’informations pour prendre ses décisions. Il offre ainsi une assistance à la conduite d’une rare précision, parfois confondue avec la véritable conduite autonome. Mais l’entreprise américaine rappelle sans cesse que l’Autopilote ne se substitue pas à la prise de décision du conducteur : il doit pouvoir réagir à tout moment.
De nouvelles recherches menées par une équipe de l’université israélienne Ben Gourion du Néguev, repérées par Wired le 11 octobre 2020, viennent appuyer cette mise en garde. Depuis deux ans, ces chercheurs en cybersécurité travaillent sur des moyens de tromper la compréhension de la route des Tesla, et des voitures dites autonomes plus généralement. Leurs travaux seront présentés officiellement lors d’une conférence virtuelle qui se tiendra le 9 novembre.
Dans leur dernière expérience, ils utilisent un téléviseur placé sur le côté de la route pour diffuser une publicité McDonald modifiée par leurs soins : ils y ont inséré une « image fantôme » d’un panneau de signalisation STOP. Elle apparaît moins d’une demi-seconde, de sorte qu’un humain pourrait ne pas la voir s’il ne se concentre pas sur publicité, mais que les caméras de l’Autopilote la prendront forcément en compte. Résultat : la Tesla freine brutalement, quand bien même elle se trouverait sur une autoroute. De quoi provoquer au mieux des bouchons, au pire des accidents.
Les chercheurs s’inquiètent de la possibilité de détourner les panneaux publicitaires numériques connectés qui jonchent les bordures de certaines routes pour reproduire leur scénario d’attaque. Ces appareils n’ont le plus souvent que peu de protections contre le piratage. En conséquence, un hacker un peu expérimenté pourrait prendre à distance le contrôle de plusieurs panneaux, puis diffuser son propre contenu pour perturber la conduite des voitures autonomes ou semi-autonomes. Et ce n’est pas tout : la nature de l’attaque la rend compliquée à tracer, puisqu’il faut prouver que le panneau a été piraté, puis trouver la vidéo diffusée, et enfin l’élément qui aurait provoqué l’incident…
L’Autopilote n’est pas seul à se faire berner par le subterfuge. Les caméras de MobileEye — une entreprise de pointe sur l’anticollision, propriété d’Intel — sont aussi concernées.
L’attaque à distance pose de nouveaux problèmes
Les chercheurs israéliens n’en sont pas à leur premier coup d’essai. Plus tôt dans l’année, ils parvenaient à déjà tromper l’Autopilote avec de brèves images de piétons et de panneaux de signalisation, diffusées par un projecteur à 300 euros. Mais ces attaques sont relativement difficiles, et surtout risquées à mettre en place, puisqu’il faut que le malfaiteur soit sur place pour contrôler le projecteur. Il est plus susceptible d’être repéré, et éventuellement arrêté. D’ailleurs, l’écrasante majorité des moyens de détourner le fonctionnement de l’Autopilote découverts à ce jour impliquent d’installer du matériel à proximité du passage du véhicule.
C’est pourquoi la nouvelle attaque, potentiellement exécutable à distance, représenterait un danger d’un tout autre ordre. Sa facilité de mise en place et sa discrétion pourraient la rendre utile pour des attaques ciblées ou des actes de terrorisme. Pour camoufler au maximum le méfait, les chercheurs placent l’image fantôme là où l’oeil humain est le moins susceptible de regarder, grâce à un algorithme dédié.
Comme à chaque accident, Tesla pourrait se dédouaner du problème en rappelant que son Autopilote ne remplace pas la conduite humaine, et que l’utilisateur doit pouvoir réagir à une erreur à n’importe quel moment. Mais les chercheurs israéliens soulignent qu’en pratique, les conducteurs ne sont pas entièrement consacrés, et qu’il faut donc déjà répondre à ses risques de détournements. Et puisque l’entreprise veut déployer la conduite autonome à court terme, ce genre de scénario d’attaque pourrait devenir un risque important.
Le choix de Tesla d’utiliser des caméras impose-t-il une limite ?
Tous les systèmes d’assistance à la conduite s’appuient sur un mélange de capteurs. Du côté de Tesla, les ingénieurs ont privilégié l’usage de caméras, qui permet au véhicule de « voir » à 360° autour de lui. Un radar frontal et des capteurs à ultrasons, principalement destinés à la détection d’obstacle, permettent à l’ordinateur de recouper certaines informations visuelles et d’en ajouter.
Mais les autres constructeurs de véhicules autonomes (Waymo, Uber, ou même récemment Volvo) ont pris une autre voie. Ils s’appuient principalement sur des LiDAR — des lasers invisibles à l’œil nus — pour orienter le véhicule. Puisque leurs voitures n’ont pas de caméras, ou que celles-ci sont secondaires dans la prise de décision, elles ne seraient pas sensibles aux images fantômes.
L’adoption de cette technologie pourrait constituer une échappatoire pour Tesla, mais Elon Musk a déjà indiqué clairement qu’il y était opposé. Heureusement, il existe une autre piste. Les chercheurs qui ont découvert l’attaque travaillent déjà à la limiter : ils ont développé Ghostbuster, un outil logiciel capable de repérer et écarter les « images fantômes ». Mais de leur propre aveu, il est encore loin d’être abouti.