Le pilote automatique pourrait être à blâmer pour le crash de Tesla Model 3 pris en vidéo

tesla-semi-crash-5728836

Un Telsa Model 3 s'est écrasé dans un semi-camion immobile et renversé, ravivant les débats sur la question de savoir si nous sommes prêts pour la conduite assistée par l'IA.

La fonction de pilote automatique de Tesla est au centre d'un débat sur l'avenir de la conduite depuis des années. Bien qu'il y ait plusieurs étapes entre où nous en sommes et les voitures vraiment autonomes, le pilote automatique cherche à combler ces lacunes en offrant aux propriétaires de Tesla de nombreuses options pour piloter un véhicule à l'aide d'un ordinateur. La préoccupation évidente ici est qu'une défaillance ou un problème dans la technologie pourrait s'avérer mortel pour le conducteur. En conséquence, il y a un débat en cours ici parce que, lorsque toutes ces choses fonctionnent comme elles le devraient, les voitures autonomes sont beaucoup plus sûres que celles conduites par des humains. Dans un monde parfait, ces types de véhicules empêcheraient en fait les blessures automobiles.

Connexes: Google espère que les prochaines puces AI seront conçues par AI

Le problème est que ce n'est pas un monde parfait et que les accidents de voiture se produisent encore. Une vidéo fait la tournée en ligne représentant une Tesla Model 3 qui s'écrase directement dans une semi-remorque renversée sur une autoroute. Étant donné le temps que le conducteur aurait dû remarquer le camion, le fait que tous les autres véhicules sur la route ont pu reconnaître et s’ajuster bien à l’avance, et la vitesse à laquelle la voiture roulait avant de freiner inutilement les freins au Au dernier moment, les gens croient que la Tesla utilisait le pilote automatique et que le conducteur n'y prêtait pas attention. L'utilisateur de Twitter qui a publié les images n'est pas un fan de Tesla, et ils ont fourni plusieurs autres exemples de la technologie qui ne protège pas les conducteurs.

herbie-original-self-driving-car-2372915

C'est tragique chaque fois que quelque chose comme ça se produit (même si, heureusement, ce pilote allait bien), mais c'est pire qu'il n'y ait aucune raison de supposer que cela ne se reproduira plus. Dans ce cas, il y aurait eu des systèmes pour déterminer la présence du véhicule arrêté, des alertes pour informer le conducteur et des freins automatiques. Juste avant le point d'impact, il semble que le frein de la voiture se soit déclenché, mais il est difficile de supposer que ces autres choses se sont produites.

La technologie derrière ces véhicules est incroyable. Les réseaux de capteurs, l'IA et l'ingénierie pure et magistrale exposés dans les véhicules Tesla sont étonnants. Mais tant que nous ne parviendrons pas à une norme sur la façon dont les conducteurs interagissent avec ces véhicules, nous ne verrons pas de voitures vraiment autonomes. Les automobiles de Tesla utilisent différentes couches d'IA pour de nombreuses fonctionnalités différentes et d'autres constructeurs automobiles ont des fonctionnalités similaires. Ces aides, comme celles qui aident subtilement un conducteur à changer de voie, s'améliorent chaque année. Cependant, il n'y a pas de règles sur la façon dont ces choses doivent être mises en œuvre, ni de systèmes clairs pour signaler ce qui fonctionne et ce qui ne fonctionne pas.

Plus: Les voitures autonomes doivent être réglementées: voici ce qui doit changer

La source: Twitter

Publications similaires