À l’intérieur du projet « Rodeo » : Tesla révolutionne la conduite autonome
Les coulisses du quotidien d’un conducteur du projet Rodeo
Tesla a lancé une vague de recrutement cette année, embauchant des conducteurs de test dans au moins une demi-douzaine de villes américaines, selon un examen des profils LinkedIn.
Une annonce d’emploi datant de 2023 a déclaré que les conducteurs de test devaient avoir un « casier judiciaire vierge, des habitudes de conduite sûres et un minimum de 4 ans d’expérience de conduite sous licence. » Huit conducteurs ont déclaré à BI que le processus d’intégration comprenait deux à trois semaines de formation pratique, y compris des essais sur route avec un formateur en place passager.
À en croire les employés et les documents internes, une spécialité du projet Rodeo consiste à reproduire le travail d’un chauffeur de VTC en choisissant des points au hasard sur une carte et en conduisant entre eux. Ceux qui travaillent dans une autre équipe, connue sous le nom d’équipe « manuel d’or », conduisent manuellement, sans aucune assistance, pour former le logiciel FSD sur ce à quoi ressemble une conduite parfaite, sans erreur.
Les conducteurs d’intervention critique, parmi les plus expérimentés du projet Rodeo, laissent le logiciel continuer à conduire même après avoir commis une erreur. Ils sont formés à « intervenir » — prendre le contrôle manuel de la voiture — uniquement pour éviter un accident, ont déclaré les trois conducteurs d’intervention critique et cinq autres conducteurs familiarisés avec la mission de l’équipe. Les conducteurs et les documents internes ont déclaré que les voitures traversaient des feux rouges, dévieraient dans d’autres voies ou ne respectaient pas les limites de vitesse affichées tout en activant FSD. Les conducteurs ont déclaré qu’ils permettaient à FSD de rester sous contrôle au cours de ces incidents car les superviseurs les ont encouragés à essayer d’éviter de reprendre le contrôle.
Les conducteurs d’intervention critique ont mentionné plusieurs situations où ils se sont sentis en danger mais ont estimé qu’intervenir pourrait mettre leur emploi en péril. L’ancien conducteur au Texas a raconté qu’il n’intervenait que lorsque FSD faillait presque à entraîner leur voiture à percuter le côté d’un véhicule arrêté à un carrefour.
Les conducteurs non-impliqués dans des interventions critiques ont également déclaré ressentir une pression pour pousser le système aussi loin que possible. Cinq employés actuels et anciens ont déclaré qu’ils avaient pour consigne d’intervenir s’ils se sentaient mal à l’aise avec le comportement du logiciel, mais qu’ils recevaient parfois des retours de leurs superviseurs s’ils étaient considérés comme ayant désactivé trop tôt.
John Bernal, ancien conducteur de test et analyste de données chez Tesla, a déclaré que les conducteurs de test avaient affronté des situations risquées dès 2022. (Bernal a été licencié cette année-là ; il a déclaré avoir été renvoyé pour avoir partagé des vidéos sur sa chaîne YouTube montrant son Tesla personnel dysfonctionner lors de l’utilisation de FSD.) Il a décrit des cas où il enfreignait le code de la route afin de recueillir des données. Bernal a déclaré que ses superviseurs ne lui avaient jamais donné d’instructions pour enfreindre la loi, mais qu’il avait parfois estimé que c’était le seul moyen d’obtenir les données voulues par l’entreprise.
Il a rappelé un test en 2022 qui visait à évaluer la capacité du système à reconnaître un feu rouge.
« Ma formation consistait à attendre que les roues touchent la ligne blanche avant de pouvoir freiner brusquement », a déclaré Bernal. Il a dit qu’il se retrouvait parfois au milieu de l’intersection si le système ne fonctionnait pas correctement.
Il a également travaillé à former le logiciel autonome sur les « usagers de la route vulnérables » — définis par le Département des Transports comme des piétons, des cyclistes, des personnes en trottinette ou en fauteuil roulant, ou des travailleurs d’autoroute à pied — lorsqu’il conduisait manuellement la « Machine de Vérité au Sol », une Tesla équipée de lidar et de capteurs radar pour aider le système à cartographier et à identifier les objets.
« Je franchirais les lignes doubles pour m’approcher d’un vélo », a déclaré Bernal. « Je ralentirais de manière exagérée dans une ruelle où des personnes ivres se trouvaient, j’agirais de manière extrêmement impolie et je me rapprocherais vraiment des gens. »
Un ‘Far West’ avec peu de réglementation
Tesla est l’un des nombreux constructeurs automobiles qui tentent de rendre les véhicules autonomes une réalité. Waymo, soutenue par Alphabet, a lancé le premier service de taxi sans conducteur à Phoenix en 2020.
« À bien des égards, c’est comme le Far West là-bas », a déclaré Cummings, l’ancien conseiller en sécurité du NHTSA. « Il y a très peu de réglementation en matière de formation ou d’information du public sur les tests. »
Les enjeux de la collecte de données sur la voie publique sont élevés. En 2018, un Uber autonome avec une personne derrière le volant a percuté et tué un piéton en Arizona. Cruise a interrompu les tests après qu’un de ses véhicules sans conducteur a heurté un piéton en octobre 2023. Un autre véhicule avait déjà heurté le piéton lorsque la voiture de Cruise l’a percutée, la traînant sur 20 pieds avant de s’arrêter. Elle a repris les tests avec des conducteurs de sécurité dans certaines villes en mai.
Tous nos articles sur Tesla sont sponsorisés par Roadstr, le leader de la location de Tesla.