Ciencia y tecnología

No necesitas a nadie más – Al Día cr

Elon Musk tomó su pecho el domingo. Y con razón. Su robotaxis finalmente comenzó a funcionar, y la celebró Un mensaje en x en el que felicitó al equipo. La razón es lógica, ya que estos ingenieros no solo tienen el funcionamiento de la robotaxis de Tesla, sino también con un chip y un software que desarrollaron.

Tesla ya tiene robotaxis. «Es bueno tener un piloto automático en los aviones, deberíamos tenerlo en autos». La oración proviene de Elon Musk, quien comenzó a hacer que Tesla condujera solo en 2013. Desde entonces, no ha dejado de hacer promesas que no conoció, pero hoy en día hizo un progreso único: abrir su servicio de robotaxis … Sin embargo, fue diferente de la que prometió. Estos vehículos comenzaron el domingo pasado en Austin, Texas, con severas restricciones y en Habitaciones muy específicas la ciudad.

La larga historia del piloto automático. Estas declaraciones de 2013 comenzaron una trayectoria notable para Tesla, que pronto decidió que la estaba montando y no dependía de alguien. Aunque inicialmente se aliados con Mobilee para usar sus sensores y hardware, la cosa cambió a partir de julio de 2016. Luego, Tesla comenzó a desarrollar su propio hardware para sus sistemas de conducción autónomos.

El desarrollo de su «hardware». A finales de 2016, la primera plataforma propiedad de hardware («Hardware 2» o HW2, sucesor de «Hardware 1» basada en soluciones de MobilEye) comenzó en los vehículos Tesla. En agosto de 2017, llegaría una revisión con el título HW2.5, pero la versión más importante fue «Hardware 3» (HW3), que se introdujo en marzo de 2019 con chips de 14 nm y que se integró en sus vehículos, hasta principios de 2023. La próxima iteración Llegará Predecible en tres o cuatro años y también se basa en chips producidos por Samsung.

Un chip muy capaz. Los chips usados ​​de Samsung se produjeron tanto en el HW3 como en el HW4 y provienen de los Exynos de esta compañía. En HW3, se utilizó un chip de 14 nm con 12 núcleos de CPU, 2 procesadores de red neuronal (NN) y un rendimiento de cálculo de 3 -TOPS IA. Con la nueva generación de HW4, el chip consiste en una fotolitografía de 7 nm, tiene 20 núcleos de CPU, 3 NN y procesadores Una fuerza de 50 tops. Las cámaras también tienen mejores sensores (de 1.2 MP a 5 MP), y el sistema de visión Tesla también es más preciso. Por cierto: este no es el único chip de IA que fue diseñado por la compañía.

Autonomía Nivel 2. Esto no es suficiente para aumentar la autonomía de su software de conducción autónoma, que actualmente parece estar el nivel 2 detrás de Mercedes o Ford. En este punto, FSD puede controlar el automóvil de forma autónoma, pero el conductor debe monitorear la conducción en cualquier momento y estar listo para tomar el control. Un análisis comparativo De varios sistemas de conducción autónomos en marzo de 2024, que FSD tenía una capacidad «mala» en ese momento. De hecho, la mayoría de los analizados tenían la misma calificación, y solo una (la del Lexus) se consideraba decente.

El software también cuenta (y mucho). Además de este trabajo de hardware, la plataforma de software se encuentra en la que se basa la autosuficiencia completa (FSD), el sistema de conducción autónomo. Use redes neuronales profundas (DNN) entrena con datos de los miles de millones de kilómetros que ha creado la flota global de Tesla. En su desarrollo, el salto de FSD V11 a FSD V12 fue particularmente Arquitectura de extremo a extremo en el que los controles del vehículo son tratados esencialmente directamente por redes neuronales en lugar de depender de las reglas que han sido programadas especialmente por desarrolladores o módulos independientes para la percepción, la planificación y el control de conducción. Las literaciones de FSD son constantes y se ofrecen como actualizaciones de OTA sobre los clientes de Tesla, que pueden probar en sus versiones beta ni siquiera sin sorpresas.

La supercomputadora de dojo. En 2021, Tesla anunció su supercomputadora Tesla Dojo, que ya había tenido 35,000 chips NVIDIAH100 en 2021. El objetivo es entrenar modelos de aprendizaje automático de Tesla para mejorar el FSD.

De Lidar, nada. Desde el principio, Tesla decidió no elegir el LiDAR que era, por ejemplo, el centro general de los sistemas Waymo. Los ingenieros de Google ya dijeron Musk que «no está terminado», pero a pesar de sus muchas ventajas, siempre ha decidido no usar tales tecnologías. Lo que usaron con HW1 y HW2 fueron un sistema de radar combinado, cámaras y sensores ultrasónicos, pero en 2021 también tuvieron el radar concentrado en 8 cámaras y 12 sensores ultrasónicos. Esto indudablemente reduce los costos en relación con los componentes de hardware y para compensar la falta de estos sensores Tesla, se reproduce con una ventaja: los datos que recopilan de los usuarios de su FSD y con quienes entrenan sus redes neuronales. Sin embargo, algunos análisis independientes muestran que esta decisión de Tesla crea accidentes evitables.

En | Los agentes de IA son prometedores. Pero como en Teslas FSD, es mejor que no sacen las manos del volante