TECNOLOGíA, INTERNET, JUEGOS
17 meneos
63 clics

Naciones Unidas crea un reglamento para regular la conducción autónoma de nivel 3

Un total de 60 países han adoptado el nuevo Reglamento de Naciones Unidas para la introducción segura de vehículos autónomos en determinadas situaciones de tráfico, el cual establece una serie de estrictos requisitos para los asistentes automatizados de mantenimiento de carril, los cuales una vez activados tomarán el control básico del vehículo.

| etiquetas: naciones unidas , coches autónomos nivel 3
#8 Eso no es facil de analizar, y menos con los datos que aporta una empresa sobre un producto.
#13 De analizar es muy fácil, accidentes por millón de km. Otra cosa es que no nos creamos los datos, pero entiendo que hay un registro de accidentes no solo por Tesla, también por el gobierno y por las aseguradoras.
#18 Las comparativas hay que hacerlas con tipos de coches similares, escenarios similares, y usuarios similares.

Y luego efectivamente fiarse de los datos que da la empresa.
#21 ¿Te parece poco similar la comparativa entre llevar un Tesla con el autopilot activado a llevar el mismo Tesla con el autopilot desactivado?
#25 Si, no me parece pocos datos (insisto, comunicados por una empresa) como para extrapolar que los asistentes a la circulación rebajan los accidentes.

Con respecto a la verdadera conducción autónoma podremos comparar cuando llegue, y eso está lejos.
¿Cual es el nivel para empotrarse contra camiones blancos?
Con la de bugs que tienen los programas de software como para ir tranquilo en un coche autónomo o_o
#2 Como si las estadísticas de accidentes no te dieran la pauta de que la conducción humana tiene grandes "bugs" también.
#3 Los humanos tenemos errores que causan accidentes.

Eso no quiere decir que puedas poner en servicio una máquina que sabes que tiene errores y que puede causar accidentes.
#6 Sí lo quiere decir si las muertes causadas por errores humanos son superiores a las muertes causadas por errores de la conducción autónoma.

En un vídeo que analizaba el reciente accidente de Tesla hacía una interesante reflexión y es sobre el error que cometemos al analizar los accidentes de coches autónomos desde el punto de vista humano, en el sentido de pensar que el coche no debería chocar por que un humano vería a mil leguas que hay un camión blanco tumbado en la carretera y por lo…   » ver todo el comentario
#9 "Sí lo quiere decir si las muertes causadas por errores humanos son superiores a las muertes causadas por errores de la conducción autónoma."

No, no he querido decir eso, hoy en día ese escenario es imposible de comparar porque no existen coches con verdadera conducción autónoma.

Es evidente que por un tema de responsabilidad (penal y económica), una empresa no puede poner en servicio una máquina que sabe a ciencia cierta que tiene errores, así que tu conjetura anterior es implanteable, y es una de las razones por las que no veremos en el medio plazo verdaderos vehículos autónomos circulando por carreteras en tráfico abierto, y seguiremos hablando de prototipos durante años.
#10 Es evidente que por un tema de responsabilidad (penal y económica), una empresa no puede poner en servicio una máquina que sabe a ciencia cierta que tiene errores

Con esa formulación basta con no conocer el error en el momento de ponerlo en servicio.

Sería un problema si exigieras que supiera a ciencia cierta que no contiene errores, entonces estarías ilegalizando de facto los vehículos autónomos.

y es una de las razones por las que no veremos en el medio plazo verdaderos

…   » ver todo el comentario
#11 Las empresas que están intentando poner esto en marcha son muy conscientes de los errores que tienen.

El problema es que eliminar esos errores supone hacer inutilizable el producto, y ese es el gran problema que hace que todo esto se retrase tanto.

Hoy por hoy la conducción autónoma es un balance entre anular los falsos positivos que harían el producto inutil, o asumir errores que hacen el producto ilegal.
#15 No, Tesla no sabía que un vehículo suyo impactaría contra un camión blanco tumbado.

Son casos nuevos que les constan cuando se produce un accidente.

En cualquier caso sería un error grave desde el punto de vista de la sociedad el impedir que vehículos autónomos ayuden a salvar vidas solo por que sus errores sean distintos a los que cometería un humano. Con que haya alguna evidencia que estadísticamente muere menos gente con coche autónomo deberían empezar a circular y a sustituir a los conducidos por humanos.

Lo contrario sería terriblemente irresponsable, criminal.
#6 El nivel 3 exige un conductor humano atento al volante. Por lo que no, no es la idea poner una máquina que puede cometer errores al mando.

Para eso justamente están los diferentes niveles de conducción autónoma.
#19 He respondido otro tema.
#20 No veo por qué lo que digo no viene al tema.
#29 El hilo venía del comentario de #2 donde hablaba de coches autónomos.

Los vehículos nivel 3 en realidad no son autónomos, son vehículos con asistente a la conducción.
#30 La normativa a la que hace referencia la noticia habla de "Niveles de conducción autónoma". Por lo que estamos hablando de lo mismo.
#30 Insisto, la conducción autónoma como tal tiene diferentes niveles. Así está definido desde el primer día en que un organismo como la NHTSA (la agencia de EEUU), reguló al respecto, a la que le siguió la UE haciendo lo propio, siguiendo parámetros parecidos.

Por eso, que para vos semánticamente hablar de "conducción autónoma" solo se refiera a un vehículo 100% automatizado, no quiere decir que los diferentes niveles no existan bajo la misma nomenclatura y de manera oficial.
#6 Por esa regla de 3 tampoco darle el carnet a un humano que sabes que tiene errores y puede causar accidentes.

Que pasen el mismo examen que los humanos y se saquen el carnet
#22 No te me empeñes que un humano no es una máquina y no hay comparación posible.

Cuando una empresa tiene una máquina en servicio de la que sabe que hay errores (747Max), la tiene que retirar de la circulación, por mucho que los pilotos sigan cometiendo errores.
#23 Cuando se detecta un fallo en un coche se les llama a revisión y se sustituye la pieza defectuosa.
#27 Es que en esto hay un problema de fondo.
Tu puedes hacer un sistema perfectamente seguro y sin errores que pongan en riesgo a nadie, pero entonces el propio sistema hará inútil el vehículo, que continuamente se detendrá y se moverá a baja velocidad para prevenir accidentes.

Esto es un juego entre la seguridad y la usabilidad, y eso es un gran problema que está frenando todo esto.
#28 No existe lo perfectamente seguro
#32 Un coche parado.
#33 Incluso así es peligroso
#34 Si, claro, todo es peligroso.
#2 a ver quién es la marca que se hace responsable ante un accidente por ir en "piloto automático".

Si en el software las garantías están cuidadas con lupa para quitarse cualquier responsabilidad, está por ver que Tesla, por ejemplo, te indemnice si te has piñado por un hipotético fallo de sensores.
#2 El software puede tener bugs y los humanos cometer errores, el tema no es ese, sino quien la caga menos.

Seria como defender que los aviones comerciales tienen que quitar todos los sistemas de software que llevan por el pufo del 737 Max, no tiene ningún sentido.

Lo que hay que hacer es asegurar que el software que gestiona elementos clave es seguro y compre unas normas como ya se hace en montones de industrias como la mencionada de la aviación.
#2 Los humanos cometemos más fallos. Los errores de software se corrigen, los humanos no.
#2 El caso es que los que llevan un Tesla con el autopilot activado tienen muchos menos accidentes que la media.
#2 dejo que un coche autonomo haga dradting alrededor de mi antes que confiar en que un humano va a conducir 100 metros sin pisar a la raya.
Yo creo que realmente es todo falso. La tecnología no está tan avanzada.
Realmente cuando pones tu tesla en modo automático, lo conducen desde India o China personas en simuladores.
#12 Si son simuladores es que no conducen ningún coche real ;)
60km/h? velocidad máxima en autopistas? Algo no cuadra
comentarios cerrados

menéame