Le système Autopilot de Tesla, conçu pour la conduite sans les mains, est sous le feu des critiques suite à des révélations sur ses pratiques d'annotation des données. Des employés de l'équipe d'annotation des données de Tesla ont rapporté que l'entreprise ignorait parfois les règles de circulation lors de la formation du système, visant un style de conduite plus 'humain'.
Selon un rapport de Business Insider, les travailleurs ont été instruits de ne pas enseigner à Autopilot à reconnaître certains panneaux de circulation, tels que 'Pas de virage à droite' ou 'Pas de demi-tour'. Un ancien employé a décrit cette approche comme une 'mentalité centrée sur le conducteur', privilégiant un comportement humain plutôt que le respect strict des lois de la circulation.
De plus, les employés ont dû faire face à des conditions de travail difficiles, y compris le visionnage de séquences troublantes d'accidents et la surveillance par caméra. Malgré les efforts pour former le système, des lacunes importantes subsistent dans sa capacité à reconnaître divers dangers routiers, comme l'a souligné une récente enquête du Wall Street Journal sur plus de 200 accidents impliquant des véhicules Tesla.
Des experts suggèrent que la dépendance aux caméras et à l'apprentissage automatique contribue à ces défauts, de nombreux scénarios n'étant pas pris en compte dans les données de formation. Le PDG de Tesla, Elon Musk, a rejeté la nécessité de technologies radar ou LiDAR supplémentaires, qui pourraient améliorer la sécurité. Cette controverse en cours soulève des inquiétudes quant à la sécurité et à l'efficacité de la technologie de conduite autonome de Tesla.