Pinta mal la cosa con el Autopilot de Tesla. La NHTSA (Administración Nacional de Seguridad del Tráfico en las Carreteras) de Estados Unidos ha publicado un nuevo análisis sobre el software de conducción autónoma de Tesla. Se argumenta que está habiendo una "acumulación de choques en los que los vehículos de Tesla que operaban con el Autopilot activado". El Autopilot se desactivó un segundo antes del impacto. Elon Musk apuntaba que Autopilot no estaba activo en el momento de la colisión...
|
etiquetas: tesla , autopilot , ia , motor , coche , coche eléctrico
Ahora sin bromas. Lo han hecho así a conciencia. Una artimaña legal para evitar responsabilidades.
Ahora sin bromas. Lo han hecho así a conciencia. Una artimaña legal para evitar responsabilidades.
Un plan sin fisuras
Aunque por ahora siempre es responsable el conductor —con o sin autopilot, como dice el artículo.
www.youtube.com/watch?v=q7kclIWQGtU (vídeo de Los Simpsons)
Decía la verdad. Aunque os duela.
Tesla lleva desde siempre? se lava las manos diciendo que el conductor no estaba atento, aunque la recuperación sea imposible,
Conclusión, mejor Autopilot e ir atento, que sin Autopilot.
Tú mismo escribes en un sitio que no pone ni beta, sino “peta”
La solución de tesla me parece buena, te dejan bien claro que el autopilot no es mágico y que debes estar atento a la carretera y listo para tomar el control en cualquier momento, y en el caso de que detecte una situación que con toda probabilidad acabará en colisión o atropello, el autopilot se desactive y deje el control al humano para que decida si dar un volantazo o no. Así no queda duda de quien es el responsable y en caso de hacerte daño, es culpa tuya, no se puede responsabilizar a la IA ni a Tesla.
Ah, la ironía, esa desconocida.
La noticia mezcla autopilot y FSD, que son cosas diferentes. El autopilot es solamente seguir en el carril y trazar curvas (y cambio de carril si has pagado por ello), como mucho se pone a la par del coche delante nuestro, pero en ningún caso sustituye al conductor.
El sistema se desactiva si tocas freno o mueves el volante. Por lo que cabe que se desactivara cuando el conductor se da cuenta de la posible colisión (tarde) e intenta tomar el control.
No entiendo que alarmas tienen que saltar en esta noticia...
Además dado que conduce una IA que se supone que respeta las normas de tráfico en todo momento, se presupone que los accidentes sufridos son fortuítos e inevitables, no accidentes por imprudencia o despiste propios de los humanos. Entonces, dada la inevitabilidad del accidente creo que lo más correcto es darle al humano la capacidad de elegir. Si, parece que es una cobardía, un abandono, pero yo me sentiría más seguro sabiendo que está en mis manos la decisión de atropellar a alguien o salirme de la carretera, que si lo tiene que decidir una IA.
La gran diferencia es que si simplemente te pilla despistado o eres tú quien psicológicamente se bloquea te dejan a tu suerte simplemente porque según la ley yanki eso le quita un marrón al hijodeputa que te ha vendido eso.
Y sin duda el CEO y la junta de la empresa, lo habrán aprobado
El que pica el código solo hace lo que le han mandado
youtu.be/7I_I9IkwghU?t=19
El autopilot es de nivel 2. El conductor DEBE ir atento. Existen 3 posibilidades para desactivar el autopilot:
1) Que el conductor lo desactive rectificando porque el autopilot no está haciendo lo correcto.
2) Que el autopilot se desactive dando pitidos, porque se ve incapaz.
3) Que el conductor quite las manos del volante y el autopilot avise de que debe tenerlas, y se desactive si no lo hace.
Es falso que se desactivase sin aviso un segundo antes. Eso se lo ha inventado el de Xataka.
Texto del estudio:
NHTSA undertook a detailed review of the crash pattern that formed the principal basis for opening PE21-020:
the eleven collisions of subject Tesla vehicles with other vehicles stopped at first responder scenes reported
between January 2018 and July 2021. During this investigation, six additional such incidents were
subsequently identified and added to the crash analysis: Three crashes (Orlando, Petaluma, Desert Center)
involved first responder or crash attenuator trucks in the roadway and occurred after PE21-020 opened. A
2020 additional crash (El Paso) in which a police vehicle was struck was reported via the SGO in March 2022.
Two additional 2021 crashes (Belmont and Mount Pleasant) involving a first responder and a crash attenuator
truck, respectively, were reported to NHTSA in response to NHTSA’s April 19, 2021, IR letter to Tesla. Further
review of the Laguna Beach crash listed on the PE21-020 opening resume has led to its removal from this
consideration because the struck vehicle was parked out of traffic with no lights illuminated. The Laguna
Beach incident remains within NHTSA’s broader crash analysis within this investigation.
The agency’s analysis of these sixteen subject first responder and road maintenance vehicle crashes
indicated that Forward Collision Warnings (FCW) activated in the majority of incidents immediately prior to
impact and that subsequent Automatic Emergency Braking (AEB) intervened in approximately half of the
collisions. On average in these crashes, Autopilot aborted vehicle control less than one second prior to the
first impact.
All subject crashes occurred on controlled-access highways. Where incident video was available, the
approach to the first responder scene would have been visible to the driver an average of 8 seconds leading
up to impact. Additional forensic data available for eleven of the collisions indicated that no drivers took
evasive action between
… » ver todo el comentario
Yo no sé si hace falta haber trabajado en multinacionales para saber esto. Para mi es evidente.
www.epe.es/es/economia/20220608/mecanico-juicio-tesla-elon-musk-137921
* Por ejemplo cuando las bolsas caen en picado
first impact."
No se desactiva por tonterías, si una curva no le gusta y está sufriendo para mantener la velocidad, te va soltando mensajes de que la situación no es óptima y baja la velocidad. Generalmente aguanta, a veces se desconecta tras 2-3 advertencias de "no puedo no puedo".
Dicho esto, no es un sistema nivel 5 o nivel 6, no está diseñado para que pases de él olímpicamente, pero si vas por autopista o carretera y se te mete algo enmedio o frenan de golpe los de delante, el coche se para solito, bien por autopilot (caso normal) bien por frenada automática de emergencia (que funciona esté activado el autopilot o no).
En ciudad te "obliga" a bajar velocidad antes de los semáforos, y se para ante ellos si se está poniendo ámbar. Aquí un humano lo que haría es pisarle. Si lo haces, te suelta un moco por saltar el semáforo.
Cabe decir que el sistema es bastante más prudente que un humano al volante, mi señora está más tranquila con el autopilot encendido, y los sustos que se lleva cuando se echa la siesta en el coche son debidos a que alguien invade tu carril o que el del carril a tu derecha va almenos 40KM/h más despacio que tú y baja la velocidad por si las moscas.
Así pues, lo dicho, no es aún un sistema totalmente autónomo, pero doy fe que va muy bien y nunca ha hecho cosas como sacarte de la carretera.
Situaciones complicadas que me encuentro de vez en cuando:
- Obras con varias líneas pintadas unas sobre otras. Generalmente las interpreta bien, pero si hay 2 trazos de líneas amarillas diferentes, a veces no sabe para dónde tirar.
- Zonas con líneas mal pintadas (peaje AP-7 Martorell entrando desde Martorell, las líneas te mandan al muro de hormigón y el coche flipa y salta alarma)
- Baja visibilidad (niebra dura de Lleida) o sol de frente en el horizonte: salta alarma y desactiva autopilot
- Se te mete un fitipaldi entre tu coche y el de delante sin respetar distancias de seguridad -> frena bastante más de lo que haría un humano
- Mapeo de velocidad de la zona incorrecto -> puede ir más rápido de lo que debería, aunque ahora lee las señales de velocidad y suele adaptarse. Es especialmente sangrante en los túneles de vallvidrera, dónde detecta la velocidad de la carretera sobre los túneles y te baja a 50
- Señales de STOP mal ubicadas que se piensa que son para él en vez de una carretera que se incorpora a la tuya en un ángulo bastante paralelo
Lo dicho, en general conduce como una persona prudente, manteniendo la velocidad que le marcas o la que marca la vía, y sumado al conductor, es un goce, que te permite despistarte un momento para cambiar una canción o mirar si el niño está ahogándose sin que te salgas del carril o te comas al de delante si frena.
En los 16 casos seleccionados para investigación entre 2018 y 2021, quitando los casos claros como un coche sin luces, el sistema de frenado automático de emergencia saltó en 8, también en 8 abortó 1 segundo antes del impacto el autopilot (no sin avisar, eso no es posible).
El comportamiento es, por tanto, esperable del autopilot. Si va a existir una colisión, la intenta evitar y si está sobre sus posibilidades, avisa y se desconecta.
( Básicamente dice que funciona bien )
Eh! pero mola mas lo contrario!
ACCIDENTE
Días mas tarde, preguntando a la I.A
-Primera noticia que tengo. Todo marchaba bien cuando estaba. Yo le pase a mi humano el control. Yo no se nada...
Otra cosa es el artículo de Xataka, que engaña (miente) porque o no se ha leído el documento en inglés original, o bien ha cogido lo que le ha dado la gana.
De los millones y millones de km en los cientos de miles de FSD activos durante años, los investigados han sido 16 accidentes , en los cuales TODOS se ha demostrado por vídeo que se podrían haber evitado con la atención humana, la cual es OBLIGATORIA, pues es un nivel 2 y el responsable de la trayectoria y guía del coche siempre es el conductor. Y de estos 16, en solo CUATRO el sistema se desconectó un segundo antes. Con estos datos, cualquier no hater verá que aquí el tema no cuadra.
TRADUCCIÓN: Tesla está cada vez mas cerca de empezar a implementar un sistema que no necesita mapeados, que podrá conducir de forma autónoma por cualquier carretera o camino incluso fuera de GPS, de noche, de día, con lluvia o con niebla... Y ahora está apunto de liberar una nueva actualización, que como cada actualización, abre mas distancia con la "competencia" y lo que está haciendo dicha "competencia" es simplemente intentar frenarlos, por que ya ni la huelen.
Como ya he dicho en otras noticias de este estilo, lo importante es encender el ventilador de la mierda contra Tesla.... Tesla KK.
El informe tiene acceso a los logs.
El autopilot solo ayudó, frenó en "la mayoría de los 16 accidentes a revisar" y si se desconecta es o bien porque lo desconecta el conductor o bien avisando.
¿Seguro que dice eso? Porque he consultado otras fuentes en inglés y no parece decir eso. Lo que dice es que están profundizando en la investigación a la luz de lo que se está encontrando la NHTSA.
www.nytimes.com/2022/06/09/business/tesla-autopilot-nhtsa-investigatio
En los casos que se desconectó, o bien fue desconectado por el usuario o bien avisó de que no podía resolver la situación.
De esos 16 accidentes graves en autopista a revisar, entre 2028 y 2021, hubo 1 fallecido.
No se en la otra.
static.nhtsa.gov/odi/inv/2022/INOA-EA22002-3184.PDF
Investigación no es que funcione mal. Investigación es que investigan, y si está ok, es que funciona dentro de lo esperado.
/ironia
Exactamente es eso. DEBES estar atento.
Si pudieras dejar de atender 2-3 segundos sería nivel 3.
Es como el que tiene frenada de emergencia automática y dice ¿como? ¿que debo ir atento? ¿no frena el coche solo? no lo quiero, eso de la frenada automática es un timo.
Ni los humanos, por no hablar de las señales de velocidad de obras y que se les olvida el fin de obras o lo ponen y sigue habiendo obra.
El software detecta un accidente inminete, por lo que se apaga lo antes posible para que no sume como culpable en las estadísticas.
No digo que sea así, digo que es posible y no sería extraño. Así como muchos dispositivos electrónicos se ponen en modo "boost" al detectar que se están haciendo benchmarks o similares.
me acuerdo como hace años en menéame Tesla era todo optimismo y fanatismo endiosando a la marca, ahora lo contrario
Edito: no soporto el acento en esta serie por estar acostumbrado al castellano, no tengo nada en contra del latino
"...nine of eleven vehicles exhibiting no driver engagement visual or chime alerts until the last minute preceding the collision (four of these exhibited no visual or chime alerts at all during the final Autopilot use cycle)"
De 11, hubo 4 que no avisaron de nada.
Siendo autopista, prácticamente solo recibes pitidos cuando dejas de hacer presión con la mano en el volante.