EN BREF |
|
La conduite autonome est à la pointe de la technologie automobile actuelle, mais elle n’est pas exempte de défis. Tesla, pionnier dans ce domaine, se trouve au cœur d’une controverse croissante concernant la sécurité de son logiciel de conduite autonome, le Full Self-Driving (FSD). Un test récent, mettant en évidence des défaillances préoccupantes, soulève des questions sur la fiabilité de cette technologie. Alors que l’entreprise envisage de déployer une flotte de robotaxis à Austin, les critiques fusent et la tension monte.
Les défaillances du système FSD de Tesla
Dans une vidéo qui a récemment fait le tour des réseaux, une Tesla Model Y équipée du logiciel FSD version 13.2.9 est filmée en train de percuter un mannequin de taille enfant. Bien que le système ait identifié le mannequin comme un piéton, la voiture n’a pas ralenti, même lorsque le panneau stop du bus scolaire était déployé et que les feux rouges clignotaient. Ce comportement soulève de sérieuses inquiétudes quant à la capacité du logiciel à prendre les bonnes décisions face aux obstacles réels.
Le test a été mené par Dan O’Dowd, fondateur du Dawn Project, qui critique depuis longtemps le logiciel de Tesla. Il avait déjà mis en garde contre ce type de scénario il y a deux ans et demi, lors d’une publicité diffusée pendant le Super Bowl de 2023. Malheureusement, un incident tragique s’est produit peu après, lorsqu’une Tesla Model Y a percuté un lycéen en Caroline du Nord, causant des blessures graves.
« Tesla ment sur sa conduite autonome » : des documents internes dévoilent une tricherie organisée
Reconnaissance sans réaction : un dilemme
Un des aspects les plus préoccupants de ce test est que le logiciel FSD a bel et bien identifié le mannequin comme un obstacle. Pourtant, la voiture a continué sa route sans s’arrêter. Cette situation révèle un possible défaut de prise de décision du logiciel, même lorsque les obstacles sont correctement détectés.
Malgré la démonstration accablante, Tesla n’a pas poursuivi en justice ni Dan O’Dowd ni le Dawn Project. D’autres critiques, comme le YouTuber Mark Rober, ont réalisé des tests similaires, sans que Tesla ne réagisse légalement. Cela pose la question de la confiance de Tesla en son produit malgré les critiques.
« Tesla au bord du redressement judiciaire » : l’aveu glaçant d’un analyste de Wall Street
Déploiement limité des robotaxis à Austin
Malgré les préoccupations croissantes, Elon Musk, PDG de Tesla, reste confiant. Il a annoncé que le déploiement des robotaxis à Austin sera étroitement surveillé et limité à des zones géographiques spécifiques, jugées plus faciles à naviguer pour le FSD. Musk affirme que le déploiement sera fait avec une prudence extrême, soulignant l’importance de la sécurité.
Néanmoins, les critiques soulignent le contraste entre les promesses antérieures de Musk et la réalité actuelle. En 2019, il avait promis un million de robotaxis d’ici 2020, une promesse encore loin d’être tenue. Les essais menés à Austin démontrent, selon Musk, une nécessité d’interventions humaine minimale, mais les questions de sécurité restent au cœur des débats.
Le débat autour de la sécurité des logiciels de conduite autonome
Tesla continue de maintenir que la sécurité est une priorité. Cependant, les bugs dans les logiciels de conduite autonome ont des conséquences bien plus graves que ceux des applications courantes. La technologie de conduite autonome est encore en phase de développement, et chaque incident remet en question sa fiabilité.
Alors que Tesla s’apprête à lancer son programme pilote à Austin, les yeux du monde entier sont rivés sur les résultats. La promesse d’une révolution dans le transport pourrait se heurter à des obstacles imprévus. Les critiques avertissent que l’industrie doit faire preuve de la plus grande vigilance pour éviter des incidents tragiques.
La technologie de conduite autonome de Tesla est-elle prête pour une adoption massive, ou les récents incidents révèlent-ils des défis insurmontables ? Les progrès technologiques peuvent-ils enfin surmonter les obstacles actuels pour garantir une sécurité totale aux usagers des routes ?
Ça vous a plu ? 4.4/5 (28)
Est-ce que quelqu’un a testé ça avec un adulte plutôt qu’un mannequin enfant ? 🤔
Merci pour cet article, c’est vraiment inquiétant de voir que la technologie n’est pas encore au point.
On dirait que les films de science-fiction avaient raison sur les robots qui prennent le contrôle ! 😅
Si Elon Musk croit encore en son FSD, peut-être qu’il devrait le tester lui-même sur la route. 😉
J’espère qu’ils trouveront une solution avant qu’il n’y ait des accidents réels. 🙏
Je pense que c’est une question de temps avant que la technologie ne s’améliore.
Pourquoi est-ce que Tesla ne réagit pas légalement face à ces critiques ? 🤨
Encore une fois, Tesla promet beaucoup mais livre peu. Ça devient une habitude.
J’ai toujours été sceptique quant à la conduite autonome, et cet article ne fait que renforcer mon opinion.
Merci à l’auteur pour ces informations, c’est bon à savoir pour ceux qui envisagent d’acheter une Tesla.