edición general
238 meneos
2592 clics
El funcionamiento del Autopilot de Tesla hace saltar las alarmas: se desactiva instantes antes de los accidentes

El funcionamiento del Autopilot de Tesla hace saltar las alarmas: se desactiva instantes antes de los accidentes

Pinta mal la cosa con el Autopilot de Tesla. La NHTSA (Administración Nacional de Seguridad del Tráfico en las Carreteras) de Estados Unidos ha publicado un nuevo análisis sobre el software de conducción autónoma de Tesla. Se argumenta que está habiendo una "acumulación de choques en los que los vehículos de Tesla que operaban con el Autopilot activado". El Autopilot se desactivó un segundo antes del impacto. Elon Musk apuntaba que Autopilot no estaba activo en el momento de la colisión...

| etiquetas: tesla , autopilot , ia , motor , coche , coche eléctrico
Comentarios destacados:                        
#2 #1 Como quien cierra los ojos antes de recibir el golpe. Se han pasado de realismo con la ia.

Ahora sin bromas. Lo han hecho así a conciencia. Una artimaña legal para evitar responsabilidades.
«12
  1. ¿Y se dan cuenta ahora?
  2. #1 Como quien cierra los ojos antes de recibir el golpe. Se han pasado de realismo con la ia.

    Ahora sin bromas. Lo han hecho así a conciencia. Una artimaña legal para evitar responsabilidades.
  3. #2 asi pueden decir que no fue culpa del autopilot, pues estaba apagado.

    Un plan sin fisuras
  4. #3 Defectivamente. xD

    Aunque por ahora siempre es responsable el conductor —con o sin autopilot, como dice el artículo.
  5. #2: Sí, y cuando va a saltarse un semáforo desactiva las cámaras, así, si no detecta los semáforos, no es ilegal. :-P
    www.youtube.com/watch?v=q7kclIWQGtU (vídeo de Los Simpsons)
  6. Vamos, que en contra de lo que sostienen algunos, Tesla es tan fullera como el resto de fabricantes.
  7. #5 Es que Elon Musk es rico desde pequeño. :-D Se las sabe todas. Una versión espaecial del no me acuerdo, no sepo, no me consta.
  8. Elon Musk apuntaba que Autopilot no estaba activo en el momento de la colisión

    Decía la verdad. Aunque os duela.
  9. Es decir, el sistema almacena los datos en un caché RAM de , digamos, un segundo, y así siempre tiene un segundo de retraso entre lo real, y lo que almacena. Si en ese segundo hay colisión, el sistema graba un segundo de datos standard para falsificar la información. Muy listo el kbron.
  10. En xataka se enteran ahora :wall:, llevan desde SIEMPRE? haciendo eso, algunos remedian el accidente por un pelo otros se comen buenas hostias. Hay pila videos.

    Tesla lleva desde siempre? se lava las manos diciendo que el conductor no estaba atento, aunque la recuperación sea imposible,
  11. ¡Uy, uy, uy, uy,...clic!
  12. No entiendo como puedes darte una leche con el Autopilot. Básicamente es un radar y un sensor que si detecta otro vehiculo frena. Solo entiendo que falla cuando el vehículo está estacionado en el arcén y el coche no lo detecta. Pero no me explico como puede no detectarlo.

    Conclusión, mejor Autopilot e ir atento, que sin Autopilot.
  13. #6 Es mucho mejor, Tesla ha conseguido lo que anunció el otro día el ingeniero de Google, darle emociones, sentimientos a las IA, además estos han conseguido darle dolor.
  14. Eso me suena...  media
  15. #12 Sí lo detecta, pero el algoritmo lo ignora porque el hardware no tiene capacidad suficiente para tener en cuenta los obstáculos estacionarios.
  16. #1 Está en beta, lo dice el envío
    Tú mismo escribes en un sitio que no pone ni beta, sino “peta” :troll:
  17. JAJAJA ay que me LOL!!!
  18. La explicación es sencilla. No se puede programar una situación irresoluble. El sistema analiza los datos y al ver que no tiene nada que hacer al respecto se desconecta para economizar recurosos.
  19. #1 No se dan cuenta ahora, lo han diseñado así, nosotros nos enteramos ahora. Si el coche va a chocar apagas el piloto automático y así en un juicio puedes decir que el piloto automático no estaba activado en el momento del accidente.
  20. #4 si, pero cuando Tesla haga sus estadísticas podrá decir que ha habido 0 accidentes con el piloto automático encendido
  21. el niño símbolo del capitalismo.
  22. #8 Que sea técnicamente correcto no significa que sea la verdad. Es una falsedad programada para inducir a error, para llevar a la conclusión errónea premeditadamente, es deshonesto y mentiroso, aunque en un juicio sea técnicamente cierto, es tan falso y falaz como decir que un accidente no ha sido culpa de los frenos porque no estaban funcionando en ese momento. Aunque te duela Musk es gentuza, es un psicópata que está jugando con la vida de mucha gente y que se cree que el mundo es un videojuego (y además juega con los trucos activados y se cree que eso le hace buen jugador porque va ganando)
  23. Parece que los nuevos inventos del capitalismo, " el capitalismo guay" que idearon para los jovenes como Tesla, cryptos, hacerse rico sin trabajar etc... se desmoronan.
  24. Lo hacen para evitar el problema ético de si en caso de encontrarse en una situación potencial de atropello, la IA debe decidir entre priorizar la vida de los ocupantes o la de los peatones. ¿Te montarías en un coche autónomo que ante la posibilidad de un atropello decida salirse de la carretera para evitar al peaton a costa de causarte daños graves o matarte en el proceso? ¿Te montarías si pudieses elegir que ante esa eventualidad priorizase tu vida en lugar de la del peatón? y llegados al caso de que el coche atropelle a alguien ¿deberías correr con la responsabilidad del atropello por el mero hecho de haber elegido que le de prioridad a la vida de los ocupantes del coche?
    La solución de tesla me parece buena, te dejan bien claro que el autopilot no es mágico y que debes estar atento a la carretera y listo para tomar el control en cualquier momento, y en el caso de que detecte una situación que con toda probabilidad acabará en colisión o atropello, el autopilot se desactive y deje el control al humano para que decida si dar un volantazo o no. Así no queda duda de quien es el responsable y en caso de hacerte daño, es culpa tuya, no se puede responsabilizar a la IA ni a Tesla.
  25. #19 ya, era una ironía. Ya me imagino que está diseñado así.
  26. #22 Aunque te duela Musk es gentuza

    Ah, la ironía, esa desconocida.
  27. 'It's Not a Bug, It's a Feature.'

    :troll: :troll: :troll:
  28. #22 Segurísimo que Elon Musk esta ahí picando código de Autopìlot a diario 8h. Es el culpable de todos los males. Seguro que tiene la culpa de que ayer se me quemase la cena o que haya meneantes que no han acabado los estudios básicos. :roll:
  29. #24 Maravilloso. Te dejo tirado en el peor momento para escurrir el bulto. Y a sabiendas de que te vas a matar me largo para no hacerme responsable de nada. Un plan sin fisuras para psicópatas.
  30. #28 Es el que toma las decisiones finales. Es el máximo responsable. Es el que se lleva la pasta.
  31. #12 No es tan sencillo. Se basa en visión. Y no lo detecta todo.
  32. Vamos a ver...

    La noticia mezcla autopilot y FSD, que son cosas diferentes. El autopilot es solamente seguir en el carril y trazar curvas (y cambio de carril si has pagado por ello), como mucho se pone a la par del coche delante nuestro, pero en ningún caso sustituye al conductor.

    El sistema se desactiva si tocas freno o mueves el volante. Por lo que cabe que se desactivara cuando el conductor se da cuenta de la posible colisión (tarde) e intenta tomar el control.

    No entiendo que alarmas tienen que saltar en esta noticia...
  33. And I think to myself... What a wonderful world...
  34. La inteligencia artificial se parece cada vez más a las personas: cierra los ojos antes de la galleta.
  35. #29 No, no es un "a sabiendas de que te vas a matar me largo" en realidad es un "si te saco de la carretera te puedo matar y si te mantengo en ella puedo matar al peatón y como soy una IA a la que no me han dado capacidad para decidir quien vive y quien muere, no me queda más remedio que dejar la decisión en tus manos".
    Además dado que conduce una IA que se supone que respeta las normas de tráfico en todo momento, se presupone que los accidentes sufridos son fortuítos e inevitables, no accidentes por imprudencia o despiste propios de los humanos. Entonces, dada la inevitabilidad del accidente creo que lo más correcto es darle al humano la capacidad de elegir. Si, parece que es una cobardía, un abandono, pero yo me sentiría más seguro sabiendo que está en mis manos la decisión de atropellar a alguien o salirme de la carretera, que si lo tiene que decidir una IA.
  36. Justo lo contrario de lo que hacen, y deben hacer, los sistemas de seguridad que es activarse antes del accidente
  37. #35 Es escurrir el bulto ya que aunque la IA no estuviera programada para abandonarte en el peor momento como lo está, puedes mover el volante según tus propias decisiones aún estando el piloto automático activo.
    La gran diferencia es que si simplemente te pilla despistado o eres tú quien psicológicamente se bloquea te dejan a tu suerte simplemente porque según la ley yanki eso le quita un marrón al hijodeputa que te ha vendido eso.
  38. ¿Y no será que los accidentes se producen porque se desconecta el autopilot?
  39. A ver... que Tesla no es una marca premium xD
  40. #28 crees que algo así es una decisión del picacodigos? Una barbaridad así es una decision ejecutiva, de los señores con corbata que se pegan todo el día rodeados de powerpoints.

    Y sin duda el CEO y la junta de la empresa, lo habrán aprobado

    El que pica el código solo hace lo que le han mandado
  41. #28 Esto es del calibre del Dieselgate y el CEO de VW tuvo que dimitir y se enfrenta a cargos. Y no, no "picó código"
  42. #20 Ya te digo, un chico listo de familia bien. La impostura en todas sus formas.
  43. segundos antes de los accidentes también debería desactivar los frenos, y los airbags, pera asegurar que los ocupantes mueren y nadie puede denunciarles, pero es que hacen las cosas a medias, que inútiles que son...
  44. Aquí había mucho fan del autopilot en otra noticia reciente. Yo lo llamaría humopilot.
  45. #6 es norteamericano, por tanto muchísimo más ñapas.
  46. #31 En visión se basa desde hace poco, que han eliminado el radar. Pero en las unidades fabricadas hasta 2022 si lo lleva.
  47. #26 claro... es que vais por ahí a calzón quitado sin poner caritas de emoji/trollface y pasa lo que pasa... así pasan las desgracias! :troll: por si las moscas...
  48. #14 venía a poner esto, menos mal que los simpsoneros siempre estamos de guardia
  49. #12 Será que no hay ejemplos de fallos del Autopilot de Tesla, desde camiones, movimientos bruscos, no seguir bien el carril y estamparse, meterse en dirección contraria, no detectar incluso un tren pasando por paso a nivel,...
  50. #47 Es cierto. Yo también caigo. Pero por favoooooooooooooooor
  51. #46 Pues no les funcionaba. Recuerda los accidentes en que se comían de frente una medianera si el conductor no paraba el autopilot o forzaba el volante para evitar el choque. Sea como sea, no es tan sencillo como "radar detecta algo frente al coche -> frenar".
  52. #1 No. El funcionamiento es correcto.

    El autopilot es de nivel 2. El conductor DEBE ir atento. Existen 3 posibilidades para desactivar el autopilot:
    1) Que el conductor lo desactive rectificando porque el autopilot no está haciendo lo correcto.
    2) Que el autopilot se desactive dando pitidos, porque se ve incapaz.
    3) Que el conductor quite las manos del volante y el autopilot avise de que debe tenerlas, y se desactive si no lo hace.

    Es falso que se desactivase sin aviso un segundo antes. Eso se lo ha inventado el de Xataka.

    Texto del estudio:
    NHTSA undertook a detailed review of the crash pattern that formed the principal basis for opening PE21-020:
    the eleven collisions of subject Tesla vehicles with other vehicles stopped at first responder scenes reported
    between January 2018 and July 2021. During this investigation, six additional such incidents were
    subsequently identified and added to the crash analysis: Three crashes (Orlando, Petaluma, Desert Center)
    involved first responder or crash attenuator trucks in the roadway and occurred after PE21-020 opened. A
    2020 additional crash (El Paso) in which a police vehicle was struck was reported via the SGO in March 2022.
    Two additional 2021 crashes (Belmont and Mount Pleasant) involving a first responder and a crash attenuator
    truck, respectively, were reported to NHTSA in response to NHTSA’s April 19, 2021, IR letter to Tesla. Further
    review of the Laguna Beach crash listed on the PE21-020 opening resume has led to its removal from this
    consideration because the struck vehicle was parked out of traffic with no lights illuminated. The Laguna
    Beach incident remains within NHTSA’s broader crash analysis within this investigation.
    The agency’s analysis of these sixteen subject first responder and road maintenance vehicle crashes
    indicated that Forward Collision Warnings (FCW) activated in the majority of incidents immediately prior to
    impact and that subsequent Automatic Emergency Braking (AEB) intervened in approximately half of the
    collisions. On average in these crashes, Autopilot aborted vehicle control less than one second prior to the
    first impact.
    All subject crashes occurred on controlled-access highways. Where incident video was available, the
    approach to the first responder scene would have been visible to the driver an average of 8 seconds leading
    up to impact. Additional forensic data available for eleven of the collisions indicated that no drivers took
    evasive action between

    …   » ver todo el comentario
  53. #28 Una cosa así solo se implementa con el beneplácito del gran jefe. Nadie más se mojaría el culo habiendo alguien por encima.

    Yo no sé si hace falta haber trabajado en multinacionales para saber esto. Para mi es evidente.
  54. #42 ¿A qué me suena? Ah, sí, a las estadísticas de las denuncias falsas.
  55. #47 se llama ley de Poe, y la gente a veces hace como el autopilot. No ponen los iconos porque es lo que piensa pero luego van y dicen que si la ironía :troll:
  56. #37 Es que si yo soy el fabricante tampoco querría hacerme responsable de las muertes de personas en situaciones totalmente impredecibles y que no tienen nada que ver con el funcionamiento normal del coche. Aquí lo que habría que determinar es si de verdad esos accidentes eran evitables ocho segundos antes de que se produjeran y si el coche es "consciente" de que se está produciendo una situación de riesgo, porque en caso de que sí sea capaz de determinar ese riesgo (que me juego lo que quieras a que sí) me parece una cagada que no ponga al conductor en sobre aviso
  57. #6 probablemente más, pero vestida con un halo de falsedad. Es el Apple de los coches.
    www.epe.es/es/economia/20220608/mecanico-juicio-tesla-elon-musk-137921
  58. #28 míralo qué bonico. Tienes un Tesla o mejor aún, fantaseas con tenerlo, verdad?
  59. Debería llamarse autoPilatos, se lava las manos y se desconecta.
  60. #55 dame de lo que fumas
  61. #61 Demasiada calidad para alguien como tú.
  62. #3 cuando el viento sopla* el humo desaparece

    * Por ejemplo cuando las bolsas caen en picado
  63. #3 Lo del autopilot de Tesla y, me atrevería a decir, buena parte de lo que hace el psicópata de Elon Musk es la gran estafa de nuestra época.
  64. #53 "On average in these crashes, Autopilot aborted vehicle control less than one second prior to the
    first impact."
  65. #3 #4 Cuando Autopilot va a desactivarse, suelta una alarma sonora + en pantalla de la que te enteras sí o sí.
    No se desactiva por tonterías
    , si una curva no le gusta y está sufriendo para mantener la velocidad, te va soltando mensajes de que la situación no es óptima y baja la velocidad. Generalmente aguanta, a veces se desconecta tras 2-3 advertencias de "no puedo no puedo".

    Dicho esto, no es un sistema nivel 5 o nivel 6, no está diseñado para que pases de él olímpicamente, pero si vas por autopista o carretera y se te mete algo enmedio o frenan de golpe los de delante, el coche se para solito, bien por autopilot (caso normal) bien por frenada automática de emergencia (que funciona esté activado el autopilot o no).

    En ciudad te "obliga" a bajar velocidad antes de los semáforos, y se para ante ellos si se está poniendo ámbar. Aquí un humano lo que haría es pisarle. Si lo haces, te suelta un moco por saltar el semáforo.

    Cabe decir que el sistema es bastante más prudente que un humano al volante, mi señora está más tranquila con el autopilot encendido, y los sustos que se lleva cuando se echa la siesta en el coche son debidos a que alguien invade tu carril o que el del carril a tu derecha va almenos 40KM/h más despacio que tú y baja la velocidad por si las moscas.

    Así pues, lo dicho, no es aún un sistema totalmente autónomo, pero doy fe que va muy bien y nunca ha hecho cosas como sacarte de la carretera.

    Situaciones complicadas que me encuentro de vez en cuando:

    - Obras con varias líneas pintadas unas sobre otras. Generalmente las interpreta bien, pero si hay 2 trazos de líneas amarillas diferentes, a veces no sabe para dónde tirar.
    - Zonas con líneas mal pintadas (peaje AP-7 Martorell entrando desde Martorell, las líneas te mandan al muro de hormigón y el coche flipa y salta alarma)
    - Baja visibilidad (niebra dura de Lleida) o sol de frente en el horizonte: salta alarma y desactiva autopilot
    - Se te mete un fitipaldi entre tu coche y el de delante sin respetar distancias de seguridad -> frena bastante más de lo que haría un humano
    - Mapeo de velocidad de la zona incorrecto -> puede ir más rápido de lo que debería, aunque ahora lee las señales de velocidad y suele adaptarse. Es especialmente sangrante en los túneles de vallvidrera, dónde detecta la velocidad de la carretera sobre los túneles y te baja a 50
    - Señales de STOP mal ubicadas que se piensa que son para él en vez de una carretera que se incorpora a la tuya en un ángulo bastante paralelo


    Lo dicho, en general conduce como una persona prudente, manteniendo la velocidad que le marcas o la que marca la vía, y sumado al conductor, es un goce, que te permite despistarte un momento para cambiar una canción o mirar si el niño está ahogándose sin que te salgas del carril o te comas al de delante si frena.
  66. #20 Cuando le demanden judicialmente.
  67. #57 Nos ha jodío mayo con las flores. Si yo fuese fabricante a lo mejor tampoco querría responsabilizarme de que se averíe el motor o de que esté mal soldado el chasis, pero es que si me hago fabricante tengo que asumir responsabilidades sobre lo que fabrico y si ya hablamos de la seguridad con resultado de muerte, el despiporre es máximo.
  68. #65 No sesges: "The agency’s analysis of these sixteen subject first responder and road maintenance vehicle crashes indicated that Forward Collision Warnings (FCW) activated in the majority of incidents immediately prior to impact and that subsequent Automatic Emergency Braking (AEB) intervened in approximately half of the collisions. On average in these crashes, Autopilot aborted vehicle control less than one second prior to the first impact. All subject crashes occurred on controlled-access highways. Where incident video was available, the approach to the first responder scene would have been visible to the driver an average of 8 seconds leading up to impact. "

    En los 16 casos seleccionados para investigación entre 2018 y 2021, quitando los casos claros como un coche sin luces, el sistema de frenado automático de emergencia saltó en 8, también en 8 abortó 1 segundo antes del impacto el autopilot (no sin avisar, eso no es posible).

    El comportamiento es, por tanto, esperable del autopilot. Si va a existir una colisión, la intenta evitar y si está sobre sus posibilidades, avisa y se desconecta.
  69. #6 No. Simplemente un artículo engañoso y contrario a Tesla, como este de Xataka, tiene una legión de gente dispuesta a creerselo sin leer el informe en inglés, que dice otra cosa muy distinta.
    ( Básicamente dice que funciona bien )

    Eh! pero mola mas lo contrario!
  70. -Eeeeeuuuuuhhhh... Mira humano, que me marcho un momento por tabaco y te dejo aqui con esto ¿Eh? ya si eso,me cuentas luego.
    ACCIDENTE
    Días mas tarde, preguntando a la I.A
    -Primera noticia que tengo. Todo marchaba bien cuando estaba. Yo le pase a mi humano el control. Yo no se nada...
  71. #10 El conductor DEBE estar atento y el autopilot ADEMÁS avisa.

    Otra cosa es el artículo de Xataka, que engaña (miente) porque o no se ha leído el documento en inglés original, o bien ha cogido lo que le ha dado la gana.
  72. La NHTSA habla de desconectar mas de 800mil sistemas, habla de una acumulación de choques con el sistema activado que se desconectan en el último segundo. Ahora veamos los datos:
    De los millones y millones de km en los cientos de miles de FSD activos durante años, los investigados han sido 16 accidentes , en los cuales TODOS se ha demostrado por vídeo que se podrían haber evitado con la atención humana, la cual es OBLIGATORIA, pues es un nivel 2 y el responsable de la trayectoria y guía del coche siempre es el conductor. Y de estos 16, en solo CUATRO el sistema se desconectó un segundo antes. Con estos datos, cualquier no hater verá que aquí el tema no cuadra.
    TRADUCCIÓN: Tesla está cada vez mas cerca de empezar a implementar un sistema que no necesita mapeados, que podrá conducir de forma autónoma por cualquier carretera o camino incluso fuera de GPS, de noche, de día, con lluvia o con niebla... Y ahora está apunto de liberar una nueva actualización, que como cada actualización, abre mas distancia con la "competencia" y lo que está haciendo dicha "competencia" es simplemente intentar frenarlos, por que ya ni la huelen.
    Como ya he dicho en otras noticias de este estilo, lo importante es encender el ventilador de la mierda contra Tesla.... Tesla KK.
  73. #38 No.
    El informe tiene acceso a los logs.
    El autopilot solo ayudó, frenó en "la mayoría de los 16 accidentes a revisar" y si se desconecta es o bien porque lo desconecta el conductor o bien avisando.
  74. #70 Básicamente dice que funciona bien
    ¿Seguro que dice eso? Porque he consultado otras fuentes en inglés y no parece decir eso. Lo que dice es que están profundizando en la investigación a la luz de lo que se está encontrando la NHTSA.
    www.nytimes.com/2022/06/09/business/tesla-autopilot-nhtsa-investigatio
  75. #43 En la mayoría de los casos frenó automáticamente.
    En los casos que se desconectó, o bien fue desconectado por el usuario o bien avisó de que no podía resolver la situación.
    De esos 16 accidentes graves en autopista a revisar, entre 2028 y 2021, hubo 1 fallecido.
  76. #44 En esta miente.
    No se en la otra.
  77. #75 La fuente en inglés es esta:

    static.nhtsa.gov/odi/inv/2022/INOA-EA22002-3184.PDF

    Investigación no es que funcione mal. Investigación es que investigan, y si está ok, es que funciona dentro de lo esperado.
  78. Este articulo está muy poco investigado por el autor y mucho menos por todos los meneantes aqui. Tesla cuenta choques como con Autopilot activo si estuve activo en los ultimos 5 segundos. Cuando el coche no sabe ya que hacer desactiva Autopilot, así que ese choque en el que se desactivó el Autopilot fue efectivamente contabilizado por Tesla como si tuviese el Autopilot activo. www.tesla.com/VehicleSafetyReport (mira Methodology: "To ensure our statistics are conservative, we count any crash in which Autopilot was deactivated within 5 seconds before impact")
  79. #53 ah genial, te avisa 1 segundo antes si se ve incapaz, tiempo mas que suficiente para que el conductor se haga cargo y solucione la papeleta... Ya me quedo mas tranquilo.

    /ironia
  80. #80 Es nivel 2.
    Exactamente es eso. DEBES estar atento.
    Si pudieras dejar de atender 2-3 segundos sería nivel 3.

    Es como el que tiene frenada de emergencia automática y dice ¿como? ¿que debo ir atento? ¿no frena el coche solo? no lo quiero, eso de la frenada automática es un timo.
  81. #28 Eh! Eh! No te metas con subvencioncitas Musk! Que es una persona muy válida y competente, además de un millonario hecho a sí mismo!
  82. #80 A mi me parece un fallo del "sistema", si el dispositivo conduce, pues tu no estás tan atento. También dice que en muchos casos el otro vehículo debería ser visible 8 segundos antes del accidente, pero si confías en el piloto o te distraes no lo vas a ver, excepto si conducías tu.
  83. no lo estoy defendiendo ni nada pero.. no os huele un poco a chamusquina que últimamente se oyen noticias negativas sobre Tesla como un bombardeo? huele a interés externo, como si quisieran que bajaran mucho las acciones para comprarlas o "lucha de ricos". sé q suena un poco a embudo en la cabeza pero bueno me ha llamado la atención
  84. #59 Podría tenerlo, si :-) Algún problema?
  85. #35 En un segundo no eliges una mierda, reaccionas como buenamente puedas y listo. Que deje al conductor manejar el vehículo, pero que no se desactive, esto es sólo para escurrir el bulto.
  86. #66 - Obras con varias líneas pintadas unas sobre otras. Generalmente las interpreta bien, pero si hay 2 trazos de líneas amarillas diferentes, a veces no sabe para dónde tirar.
    Ni los humanos, por no hablar de las señales de velocidad de obras y que se les olvida el fin de obras o lo ponen y sigue habiendo obra.
  87. #53 Hay otro posible escenario en que se desactiva el autopilot nivel 2.

    El software detecta un accidente inminete, por lo que se apaga lo antes posible para que no sume como culpable en las estadísticas.

    No digo que sea así, digo que es posible y no sería extraño. Así como muchos dispositivos electrónicos se ponen en modo "boost" al detectar que se están haciendo benchmarks o similares.
  88. #52 AAAaaahhhhh que feo escuchar los simpsons con un doblaje a la que uno no está acostumbrado.
  89. #6 #45 #58

    me acuerdo como hace años en menéame Tesla era todo optimismo y fanatismo endiosando a la marca, ahora lo contrario
  90. #89 normal, a mi me ha costado encontrarlo en castellano porque casi todo lo que hay en youtube está en latino y no soporto el acento y escuchar Homero {0x1f602} . Es lo que tiene acostumbrarse después de tantos años :-)

    Edito: no soporto el acento en esta serie por estar acostumbrado al castellano, no tengo nada en contra del latino :-)
  91. El Autopilot se desactivó un segundo antes del impacto >> evidentemente el Autopilot no quiere ver el "estropicio" {0x1f638} {0x1f639} {0x1f608} {0x1f607}
  92. #69 Ni tanto, ni tan calvo:

    "...nine of eleven vehicles exhibiting no driver engagement visual or chime alerts until the last minute preceding the collision (four of these exhibited no visual or chime alerts at all during the final Autopilot use cycle)"

    De 11, hubo 4 que no avisaron de nada.
  93. #93 No, ahí dice que de 11 coches, 9 conductores no recibieron alertas de "ojo, estás despistado" ni de "ojo, no puedo con esta carretera" en el último minuto, y 4 no las recibieron en todo el recorrido, lo que indica que no mostraron signos de no ir atentos.

    Siendo autopista, prácticamente solo recibes pitidos cuando dejas de hacer presión con la mano en el volante.
  94. #94 No conocía la existencia siquiera de alertas de desatención. Se ve que nuestro coche es del paleolítico :shit:
  95. #85 problema? Ninguno, que lo disfrutes. Es lógico que defiendas lo indefendible si tienes uno. Por cierto, te devuelvo el negativo.
  96. #68 ¿Te das cuenta de que estás pidiendo un mundo perfecto sin accidentes de tráfico?
  97. #67 como si un tribunal estadounidense fuese a condenar a algo a su billonario estrella xD
  98. #28 aprende a leer antes de hacer el ridículo, anda
  99. #25 perdona entonces
«12
comentarios cerrados

menéame