Des passionnés ont montré que Tesla pouvait même laisser un ours en peluche « conduire » la voiture, et que celle-ci pouvait alors écraser un enfant sur la route
Des enthousiastes ont montré que Tesla laissera un ours en peluche « conduire » une voiture et écrasera un enfant sur la route.
/
Tesla se vante de ce qu’elle fait pour s’assurer que ses systèmes comme Autopilot et FSD ne peuvent pas être utilisés de manière abusive, mais le fait est que toutes les fonctions de surveillance confondront même un ours en peluche sur le siège. Et c’est alors que les choses se passent.
Que serait Tesla aujourd’hui sans son avance supposée dans le domaine des systèmes de conduite autonome ? Il est difficile de répondre à cette question, mais Elon Musk lui-même est convaincu que la valeur de l’entreprise dépend de lui. Et comme beaucoup pensent encore que les voitures électriques américaines n’ont pas besoin de conducteurs en chair et en os – ou du moins qu’elles sont très proches d’en avoir un – Tesla continue d’être perçue avec beaucoup d’optimisme.
D’innombrables démonstrations pratiques ont montré que la réalité est tout autre. Tesla a été poussée à ne pas laisser les conducteurs succomber à l’impression que la voiture se rendra à destination toute seule. Et, bien plus encore, à contrôler s’ils sont assis derrière le volant et s’ils sont attentifs à la conduite. Aujourd’hui, Tesla se targue de ne pas permettre l’utilisation abusive des systèmes de surveillance du conducteur, mais il est clair qu’elle n’a pas fait preuve de la moindre cohérence par rapport aux constructeurs en place.
La désinvolture avec laquelle Tesla a traité ce problème est parfaitement illustrée par les passionnés qui animent la chaîne YouTube AI Addict. Ils ont activé la conduite autonome de Tesla (c’est-à-dire le système FSD, appelé Full Self-Driving), en mettant d’abord un ours en peluche au volant. Ils l’ont ensuite remplacé par une licorne et un ballon en forme de bouteille. Et ils ont testé si la voiture les laissait « conduire ».
Il s’est avéré que la voiture se laissait berner par pratiquement n’importe quel substitut, de sorte que le contrôle de la présence – et a fortiori de l’attention – du conducteur n’a pas du tout fonctionné dans ce cas. Les auteurs de la vidéo ont clairement montré ce qui peut se passer. Ils ont laissé un enfant mannequin traverser la route sur la trajectoire du véhicule incontrôlé. La Model 3, elle, n’a pratiquement pas réagi, et les freins n’ont même pas été activés avant l’impact. Au lieu de cela, la voiture n’a commencé à ralentir qu’après l’accident.
Cette nouvelle vidéo est un nouvel exemple alarmant de ce que Tesla laisse circuler sur les routes – et de ce qu’il tolère. Quoi qu’en dise le constructeur automobile, il est toujours possible de mettre, par exemple, un ours dans la voiture, d’entrer dans une destination, de s’endormir sur la banquette arrière et de se demander ensuite pourquoi l’ours a écrasé un enfant. Les propriétaires de Tesla ne voient aucun inconvénient à ce que leurs voitures soient traitées de la sorte et le constructeur automobile le tolère.
Nous serions ravis que ces conclusions incitent les autorités à agir. Mais cela n’arrivera pas, ce n’est pas adapté. Pourriez-vous imaginer que le système Volkswagen ait été présenté de cette manière et que rien ne se soit passé ?
Les Teslas ne se conduisent pas toutes seules, mais elles font semblant de le faire. Lorsque quelqu’un succombe à cette impression, Tesla prétend empêcher l’utilisation abusive de ses systèmes. Mais ce n’est pas vrai non plus, comme le montre la vidéo ci-dessous, la surveillance du conducteur n’est même pas capable de distinguer un humain d’un ours en peluche. Photo : Tesla
Source : AI Addict@YouTube
Tous les articles sur Autoforum.cz sont des commentaires exprimant l’opinion de la rédaction ou de l’auteur. À l’exception des articles marqués comme étant de la publicité, le contenu n’est pas sponsorisé ou influencé de quelque manière que ce soit par des tiers.