Tesla : cette vidéo montre comment la voiture électrique analyse la route en plein chaos parisien

Les voitures Tesla analysent la route en permanence, une vidéo tournée à Paris montre comment fonctionne le système de conduite autonome. L'Autopilot se repère avec une technologie radar et ultrasons. Des caméras sont également embarquées et alimentent un système de réseau neuronal. Le résultat est assez impressionnant comme en témoignent les images enregistrées.

tesla video analyse route

Le hacker «verygreen» s'est associé avec un autre conducteur “DamianXV” pour produire une vidéo publiée sur YouTube sur la chaîne Greentheonly. Nous pouvons avoir un aperçu du fonctionnement du système Autopilot embarqué dans une voiture électrique Tesla. Le constructeur met beaucoup en avant son système de conduite autonome qui n'a de cesse de s'améliorer au fil des mises à jour. Et cette vidéo nous permet de comprendre comment cela fonctionne.

Tesla : la voiture électrique analyse la route, cette vidéo tournée à Paris montre comment cela fonctionne

Le duo de bidouilleur a investi dans un ordinateur de bord Autopilot 2.5 acheté sur Ebay. C'est une version réservée aux développeurs totalement débloquée. Cela leur a ainsi permis d'en savoir beaucoup sur le fonctionnement du dispositif de conduite autonome de Tesla. Cependant, toutes les valeurs ne sont pas encore connues. Sur Reddit, verygreen explique : “gardez à l'esprit que notre aperçu ne représente pas ce que les développeurs de Tesla voient dans leur outil et que nous ne comprenons pas complètement toutes les valeurs (même si nous avons maintenant une visibilité décente sur le système). Comme nous ne connaissons personne dans le développement chez Tesla, nous ne savons même pas quel type de sortie est utilisée“.

Le hacker explique également ce que nous apercevons dans la vidéo : “le fond vert en bas représente« l'espace de conduite où il est possible d'aller», les lignes indiquent les différentes limites de voie et de route détectées (les couleurs représentent différents types d'objets, la signification réelle est inconnue pour le moment). Divers objets détectés sont énumérés par type et ont des coordonnées dans des informations d'espace et de profondeur 3D (également un cadre de sélection 2D, mais nous n'avons pas identifié suffisamment de données), des données radar corrélées (si présentes) et diverses autres propriétés“.

La vidéo dure une vingtaine de minutes et nous constatons que les éléments analysés en temps réels sont vraiment nombreux. La puissance de calcul nécessaire est élevée, le constructeur automobile compte d'ailleurs sur un partenariat avec Nvidia pour disposer des ressources nécessaires à cette tâche. À travers la plateforme Drive PX2 permettant de mesurer jusqu'à 200 images par seconde, elle développe une puissance de 8 TFLOPS FP32, pour une consommation maximale de 250W, 4 coeurs NVIDIA Denver + 8 coeurs ARM Cortex-A57 pour le CPU et 2x Tegra “Parker” + 2 coeurs Pascal pour le GPU.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !