El sistema Autopilot de Tesla, diseñado para la conducción sin manos, está bajo escrutinio tras revelaciones sobre sus prácticas de anotación de datos. Empleados del equipo de anotación de datos de Tesla informaron que la compañía a veces ignoraba las reglas de tráfico en la capacitación del sistema, buscando un estilo de conducción más 'humano'.
Según un informe de Business Insider, se instruyó a los trabajadores a no enseñar a Autopilot a reconocer ciertas señales de tráfico, como 'No girar a la derecha' o 'No dar vuelta en U'. Un ex-empleado describió el enfoque como una 'mentalidad centrada en el conductor', priorizando el comportamiento humano sobre la estricta adherencia a las leyes de tráfico.
Además, los empleados enfrentaron condiciones laborales difíciles, incluyendo ver imágenes perturbadoras de accidentes y ser monitoreados a través de cámaras. A pesar de los esfuerzos por entrenar el sistema, permanecen importantes lagunas en su capacidad para reconocer diversos peligros en la carretera, como destacó una reciente investigación del Wall Street Journal sobre más de 200 accidentes que involucraron vehículos Tesla.
Los expertos sugieren que la dependencia de cámaras y aprendizaje automático contribuye a estas fallas, ya que muchos escenarios no están contemplados en los datos de entrenamiento. El CEO de Tesla, Elon Musk, ha desestimado la necesidad de tecnología adicional de radar o LiDAR, que podría mejorar la seguridad. Esta controversia en curso plantea preocupaciones sobre la seguridad y eficacia de la tecnología de conducción autónoma de Tesla.