Tecnología, Internet y juegos
17 meneos
63 clics

Naciones Unidas crea un reglamento para regular la conducción autónoma de nivel 3

Un total de 60 países han adoptado el nuevo Reglamento de Naciones Unidas para la introducción segura de vehículos autónomos en determinadas situaciones de tráfico, el cual establece una serie de estrictos requisitos para los asistentes automatizados de mantenimiento de carril, los cuales una vez activados tomarán el control básico del vehículo.

| etiquetas: naciones unidas , coches autónomos nivel 3
  1. ¿Cual es el nivel para empotrarse contra camiones blancos?
  2. Con la de bugs que tienen los programas de software como para ir tranquilo en un coche autónomo o_o
  3. #2 Como si las estadísticas de accidentes no te dieran la pauta de que la conducción humana tiene grandes "bugs" también.
  4. #2 a ver quién es la marca que se hace responsable ante un accidente por ir en "piloto automático".

    Si en el software las garantías están cuidadas con lupa para quitarse cualquier responsabilidad, está por ver que Tesla, por ejemplo, te indemnice si te has piñado por un hipotético fallo de sensores.
  5. #2 El software puede tener bugs y los humanos cometer errores, el tema no es ese, sino quien la caga menos.

    Seria como defender que los aviones comerciales tienen que quitar todos los sistemas de software que llevan por el pufo del 737 Max, no tiene ningún sentido.

    Lo que hay que hacer es asegurar que el software que gestiona elementos clave es seguro y compre unas normas como ya se hace en montones de industrias como la mencionada de la aviación.
  6. #3 Los humanos tenemos errores que causan accidentes.

    Eso no quiere decir que puedas poner en servicio una máquina que sabes que tiene errores y que puede causar accidentes.
  7. #2 Los humanos cometemos más fallos. Los errores de software se corrigen, los humanos no.
  8. #2 El caso es que los que llevan un Tesla con el autopilot activado tienen muchos menos accidentes que la media.
  9. #6 Sí lo quiere decir si las muertes causadas por errores humanos son superiores a las muertes causadas por errores de la conducción autónoma.

    En un vídeo que analizaba el reciente accidente de Tesla hacía una interesante reflexión y es sobre el error que cometemos al analizar los accidentes de coches autónomos desde el punto de vista humano, en el sentido de pensar que el coche no debería chocar por que un humano vería a mil leguas que hay un camión blanco tumbado en la carretera y por lo tanto el ordenador también tiene que verlo.

    Ese análisis peca de presuponer erróneamente que el ordenador debe cometer el mismo tipo de errores que el humano pero en menor cuantía. Y no es así.

    Por ejemplo un ordenador no "comprendería" como un humano puede apartar la vista de la carretera durante tres mil millones de nanosegundos, ese error no lo cometería un ordenador y para el humano es habitual.
  10. #9 "Sí lo quiere decir si las muertes causadas por errores humanos son superiores a las muertes causadas por errores de la conducción autónoma."

    No, no he querido decir eso, hoy en día ese escenario es imposible de comparar porque no existen coches con verdadera conducción autónoma.

    Es evidente que por un tema de responsabilidad (penal y económica), una empresa no puede poner en servicio una máquina que sabe a ciencia cierta que tiene errores, así que tu conjetura anterior es implanteable, y es una de las razones por las que no veremos en el medio plazo verdaderos vehículos autónomos circulando por carreteras en tráfico abierto, y seguiremos hablando de prototipos durante años.
  11. #10 Es evidente que por un tema de responsabilidad (penal y económica), una empresa no puede poner en servicio una máquina que sabe a ciencia cierta que tiene errores

    Con esa formulación basta con no conocer el error en el momento de ponerlo en servicio.

    Sería un problema si exigieras que supiera a ciencia cierta que no contiene errores, entonces estarías ilegalizando de facto los vehículos autónomos.

    y es una de las razones por las que no veremos en el medio plazo verdaderos vehículos autónomos circulando por carreteras en tráfico abierto

    El requisito que pedías ya se cumple ahora, basta con que no les conste ningún error que afecte a la seguridad. Que hayan corregido los errores que les conste.

    En el caso de vehículos con IA bastaría con que en cada accidente reentrenasen la IA para que ese accidente en concreto no se produjera, si fuera uno distinto ya sería un error distinto (aunque solo cambiase el color del camión tumbado).

    Tu propuesta está a un paso de prohibir los vehículos autónomos de facto para siempre. Y eso sería un error por que impediría salvar vidas.

    De hecho cuanto antes los pongan en la carretera mejor para todos, a poco que sean un porcentaje ínfimamente mejor que los humanos ya bastaría para ponerlos en carretera.
  12. Yo creo que realmente es todo falso. La tecnología no está tan avanzada.
    Realmente cuando pones tu tesla en modo automático, lo conducen desde India o China personas en simuladores.
  13. #8 Eso no es facil de analizar, y menos con los datos que aporta una empresa sobre un producto.
  14. #12 Si son simuladores es que no conducen ningún coche real ;)
  15. #11 Las empresas que están intentando poner esto en marcha son muy conscientes de los errores que tienen.

    El problema es que eliminar esos errores supone hacer inutilizable el producto, y ese es el gran problema que hace que todo esto se retrase tanto.

    Hoy por hoy la conducción autónoma es un balance entre anular los falsos positivos que harían el producto inutil, o asumir errores que hacen el producto ilegal.
  16. #15 No, Tesla no sabía que un vehículo suyo impactaría contra un camión blanco tumbado.

    Son casos nuevos que les constan cuando se produce un accidente.

    En cualquier caso sería un error grave desde el punto de vista de la sociedad el impedir que vehículos autónomos ayuden a salvar vidas solo por que sus errores sean distintos a los que cometería un humano. Con que haya alguna evidencia que estadísticamente muere menos gente con coche autónomo deberían empezar a circular y a sustituir a los conducidos por humanos.

    Lo contrario sería terriblemente irresponsable, criminal.
  17. #2 dejo que un coche autonomo haga dradting alrededor de mi antes que confiar en que un humano va a conducir 100 metros sin pisar a la raya.
  18. #13 De analizar es muy fácil, accidentes por millón de km. Otra cosa es que no nos creamos los datos, pero entiendo que hay un registro de accidentes no solo por Tesla, también por el gobierno y por las aseguradoras.
  19. #6 El nivel 3 exige un conductor humano atento al volante. Por lo que no, no es la idea poner una máquina que puede cometer errores al mando.

    Para eso justamente están los diferentes niveles de conducción autónoma.
  20. #19 He respondido otro tema.
  21. #18 Las comparativas hay que hacerlas con tipos de coches similares, escenarios similares, y usuarios similares.

    Y luego efectivamente fiarse de los datos que da la empresa.
  22. #6 Por esa regla de 3 tampoco darle el carnet a un humano que sabes que tiene errores y puede causar accidentes.

    Que pasen el mismo examen que los humanos y se saquen el carnet
  23. #22 No te me empeñes que un humano no es una máquina y no hay comparación posible.

    Cuando una empresa tiene una máquina en servicio de la que sabe que hay errores (747Max), la tiene que retirar de la circulación, por mucho que los pilotos sigan cometiendo errores.
  24. 60km/h? velocidad máxima en autopistas? Algo no cuadra
  25. #21 ¿Te parece poco similar la comparativa entre llevar un Tesla con el autopilot activado a llevar el mismo Tesla con el autopilot desactivado?
  26. #25 Si, no me parece pocos datos (insisto, comunicados por una empresa) como para extrapolar que los asistentes a la circulación rebajan los accidentes.

    Con respecto a la verdadera conducción autónoma podremos comparar cuando llegue, y eso está lejos.
  27. #23 Cuando se detecta un fallo en un coche se les llama a revisión y se sustituye la pieza defectuosa.
  28. #27 Es que en esto hay un problema de fondo.
    Tu puedes hacer un sistema perfectamente seguro y sin errores que pongan en riesgo a nadie, pero entonces el propio sistema hará inútil el vehículo, que continuamente se detendrá y se moverá a baja velocidad para prevenir accidentes.

    Esto es un juego entre la seguridad y la usabilidad, y eso es un gran problema que está frenando todo esto.
  29. #20 No veo por qué lo que digo no viene al tema.
  30. #29 El hilo venía del comentario de #2 donde hablaba de coches autónomos.

    Los vehículos nivel 3 en realidad no son autónomos, son vehículos con asistente a la conducción.
  31. #30 La normativa a la que hace referencia la noticia habla de "Niveles de conducción autónoma". Por lo que estamos hablando de lo mismo.
  32. #28 No existe lo perfectamente seguro
  33. #32 Un coche parado.
  34. #33 Incluso así es peligroso
  35. #34 Si, claro, todo es peligroso.
  36. #30 Insisto, la conducción autónoma como tal tiene diferentes niveles. Así está definido desde el primer día en que un organismo como la NHTSA (la agencia de EEUU), reguló al respecto, a la que le siguió la UE haciendo lo propio, siguiendo parámetros parecidos.

    Por eso, que para vos semánticamente hablar de "conducción autónoma" solo se refiera a un vehículo 100% automatizado, no quiere decir que los diferentes niveles no existan bajo la misma nomenclatura y de manera oficial.
comentarios cerrados

menéame