Un total de 60 países han adoptado el nuevo Reglamento de Naciones Unidas para la introducción segura de vehículos autónomos en determinadas situaciones de tráfico, el cual establece una serie de estrictos requisitos para los asistentes automatizados de mantenimiento de carril, los cuales una vez activados tomarán el control básico del vehículo.
|
etiquetas: naciones unidas , coches autónomos nivel 3
Si en el software las garantías están cuidadas con lupa para quitarse cualquier responsabilidad, está por ver que Tesla, por ejemplo, te indemnice si te has piñado por un hipotético fallo de sensores.
Seria como defender que los aviones comerciales tienen que quitar todos los sistemas de software que llevan por el pufo del 737 Max, no tiene ningún sentido.
Lo que hay que hacer es asegurar que el software que gestiona elementos clave es seguro y compre unas normas como ya se hace en montones de industrias como la mencionada de la aviación.
Eso no quiere decir que puedas poner en servicio una máquina que sabes que tiene errores y que puede causar accidentes.
En un vídeo que analizaba el reciente accidente de Tesla hacía una interesante reflexión y es sobre el error que cometemos al analizar los accidentes de coches autónomos desde el punto de vista humano, en el sentido de pensar que el coche no debería chocar por que un humano vería a mil leguas que hay un camión blanco tumbado en la carretera y por lo tanto el ordenador también tiene que verlo.
Ese análisis peca de presuponer erróneamente que el ordenador debe cometer el mismo tipo de errores que el humano pero en menor cuantía. Y no es así.
Por ejemplo un ordenador no "comprendería" como un humano puede apartar la vista de la carretera durante tres mil millones de nanosegundos, ese error no lo cometería un ordenador y para el humano es habitual.
No, no he querido decir eso, hoy en día ese escenario es imposible de comparar porque no existen coches con verdadera conducción autónoma.
Es evidente que por un tema de responsabilidad (penal y económica), una empresa no puede poner en servicio una máquina que sabe a ciencia cierta que tiene errores, así que tu conjetura anterior es implanteable, y es una de las razones por las que no veremos en el medio plazo verdaderos vehículos autónomos circulando por carreteras en tráfico abierto, y seguiremos hablando de prototipos durante años.
Con esa formulación basta con no conocer el error en el momento de ponerlo en servicio.
Sería un problema si exigieras que supiera a ciencia cierta que no contiene errores, entonces estarías ilegalizando de facto los vehículos autónomos.
y es una de las razones por las que no veremos en el medio plazo verdaderos vehículos autónomos circulando por carreteras en tráfico abierto
El requisito que pedías ya se cumple ahora, basta con que no les conste ningún error que afecte a la seguridad. Que hayan corregido los errores que les conste.
En el caso de vehículos con IA bastaría con que en cada accidente reentrenasen la IA para que ese accidente en concreto no se produjera, si fuera uno distinto ya sería un error distinto (aunque solo cambiase el color del camión tumbado).
Tu propuesta está a un paso de prohibir los vehículos autónomos de facto para siempre. Y eso sería un error por que impediría salvar vidas.
De hecho cuanto antes los pongan en la carretera mejor para todos, a poco que sean un porcentaje ínfimamente mejor que los humanos ya bastaría para ponerlos en carretera.
Realmente cuando pones tu tesla en modo automático, lo conducen desde India o China personas en simuladores.
El problema es que eliminar esos errores supone hacer inutilizable el producto, y ese es el gran problema que hace que todo esto se retrase tanto.
Hoy por hoy la conducción autónoma es un balance entre anular los falsos positivos que harían el producto inutil, o asumir errores que hacen el producto ilegal.
Son casos nuevos que les constan cuando se produce un accidente.
En cualquier caso sería un error grave desde el punto de vista de la sociedad el impedir que vehículos autónomos ayuden a salvar vidas solo por que sus errores sean distintos a los que cometería un humano. Con que haya alguna evidencia que estadísticamente muere menos gente con coche autónomo deberían empezar a circular y a sustituir a los conducidos por humanos.
Lo contrario sería terriblemente irresponsable, criminal.
Para eso justamente están los diferentes niveles de conducción autónoma.
Y luego efectivamente fiarse de los datos que da la empresa.
Que pasen el mismo examen que los humanos y se saquen el carnet
Cuando una empresa tiene una máquina en servicio de la que sabe que hay errores (747Max), la tiene que retirar de la circulación, por mucho que los pilotos sigan cometiendo errores.
Con respecto a la verdadera conducción autónoma podremos comparar cuando llegue, y eso está lejos.
Tu puedes hacer un sistema perfectamente seguro y sin errores que pongan en riesgo a nadie, pero entonces el propio sistema hará inútil el vehículo, que continuamente se detendrá y se moverá a baja velocidad para prevenir accidentes.
Esto es un juego entre la seguridad y la usabilidad, y eso es un gran problema que está frenando todo esto.
Los vehículos nivel 3 en realidad no son autónomos, son vehículos con asistente a la conducción.
Por eso, que para vos semánticamente hablar de "conducción autónoma" solo se refiera a un vehículo 100% automatizado, no quiere decir que los diferentes niveles no existan bajo la misma nomenclatura y de manera oficial.