236 meneos
2029 clics
¿Comprarías un coche autónomo que escogiera matarte para salvar más vidas?
Los vehículos autónomos ya están aquí. Aunque sea en fase de pruebas, estos vehículos sin conductor inteligentes, prometen ser mayoría en las carreteras en un horizonte de tiempo que los expertos calculan entre 15 y 30 años. Su objetivo es claro: reducir la gran cantidad de accidentes que se producen por error o negligencia humana, la gran mayoría de ellos. Sin embargo, el coche autónomo también ha llegado con sus propios dilemas morales, y no son desde luego sencillos
|
comentarios cerrados
Los demás coches autónomos, no solo el tuyo, también estarían diseñados para salvar la vida de sus dueños y no la de los demás (incluyendo la de ustedes). Y en cualquier accidente habrá una carrera egoísta de cada coche autónomo para hacer menor daño a su dueño y causándole daño indiscriminadamente a los demás. Muerte segura para muchos. Se salva el que tenga el coche autónomo más grande y blindado, es decir, el que tenga más dinero, o el que tenga más suerte.
Por el contrario, coches autónomos que decidan el mal menor (de una manera altruista y no egoísta), generalmente salvarían la vida de todos, y muy de vez en cuando habría algún muerto (que en una muy mala circunstancia puedes ser tú). Yo prefiero lo último a una muerte muchísimo más probable de lo primero.
Lo mismo vale para todo en la vida y en nuestra civilización con las alternativas de egoísmo vs. altruismo.
De igual modo que tampoco compraría un coche que se va frenando cada vez que se me cruce por delante un ciclista que se ha saltado el semáforo en rojo.
Y tampoco me dejaría intervenir quirúrgicamente por una IA que pensase que muerto soy más útil donando mis órganos a 5 enfermos graves.
¿Estamos locos? Ya se que si.
¿O acaso eres egoísta? Yo si lo soy, por eso no lo hago.
1- El gobierno de cada pais decide las prioridades y punto.
2- Cada usuario puede decidir las prioridades mediante un menu configurable.
Ahora Imaginaos que el coche tiene que decidir entre tu y un crío, o entre tu y tu hijo y veinte personas. O entre tu mujer o tu... entre un inocente o un asesino hijo de puta. O peor, que sacrifique tu vida para salvar a un vegano o a un cebollista.
Entiendo que tú no frenas cuando se te cruza un ciclista, te lo llevas por delante.
¿Haces también eso cuando se te cruza un niño despistado?
Sí que estás para camisa de fuerza, sí.
Además soy neo ludita y estoy convencido de que internet es Satán.
Otro asunto es que en un futuro sea una IA global la que controle a la vez todos los coches que hay en las calles (una forma mucho más lógica y eficiente de controlar el tráfico). En ese momento la sociedad sí tendrá que tomar ese tipo de decisiones.
Exacto.
Puestos a rizar el rizo (para bien), se podría legislar para que todos los coches sean autónomos y que solo puedan circular a altas velocidades en vías que no admitan ninguna forma de peatón o similares (agentes caóticos). De esta forma nunca tendrían que enfrentarse a una situación en la que se deba hacer una frenada o cambio de dirección bruscos con riesgo para la integridad no ya de los pasajeros sino del propio coche. Las compañías de seguros de coche serían historia.
vegano...acelerar
Meneante: acelerar
Perrhijo y amante: acelerar
Fanático de linux: acelerar
Bella damisela con dos buenas te...parada suave
Tertuliano bis: acelerar
niño: frenar
Poeta: frenada lirica
sindicalista: activar metralleta
...
La pregunta será: te harías pareja de un tipo que le ha cambiado el firmware al coche para q te mate a tí en su lugar?
Si fuera tan obvio este dilema no existiría: es.wikipedia.org/wiki/Dilema_del_tranvía
¿No crees que sería igualmente válido proponer el mal menor como paradigma en el conjunto de la circulación viaria?
Ejemplos:
- se te cruza un jabalí por la autovía a 120 por hora (la IA no lo puede ver con tiempo suficiente, si se lo lleva por delante corre riesgo de dañar a su pasajero, si lo esquiva corre riesgo de chocar contra otro vehículo...) -> legislas para que las autovías se construyan de forma que no puedan entrar animales ni personas.
- se cae un puente sobre la autovía (aquí la igual porque si vas muy rápido te lo comes, y si no puedes frenar, tu coche y todos los demás, de forma coordinada porque para eso son todos autónomos y se comunican entre ellos) -> quizás puedas legislar para que las estructuras de esos puenten que podrían caerse sean más resistentes, mejor mantenidas, etc.
- un coche frente a ti pegue un volantazo o un frenazo injustificado -> que todos los coches sean autónomos, adiós movimientos injustificados.
- un coche sufre una avería catastrófica que de alguna manera le hace frenar muy rápidamente (p.ej. chocando contra la medianera de forma que los que venían detrás no pueden evitarlo frenando también) -> legislas para que los coches autónomos dejen siempre un espacio entre ellos que permita en caso de necesidad que varios coches de uno o varios carriles entren rápidamente en el los otros, coordinadamente.
- un atentado terrorista que hace que todos los carriles queden repentinamente bloqueados y no hay forma de que los vehículos que estaban llegando en ese momento a esa sección de la vía frenen a tiempo -> no hay solución, ni con coches autónomos ni sin ellos.
- se te cruza un peatón por vía urbana -> legislas para que la velocidad máxima por vía urbana permita el frenado repentino de forma que el peor de los casos sea golpes entre varios coches sin daños personales (y el peatón que pague los costes con su seguro).
Quizás halla algún ejemplo de caso en que ni legislación ni leches puedan evitar la situación de "o yo o ellos", pero no se me ocurre.
Te añado otra grande, blindado y NUEVO. Y eso también pasa hoy. Tienes mas protección del conductor pero no más daño al otro conductor si lo hay, que tambien hay accidentes sin terceros.
Como pasó con los limitadores de velocidad de algunas marcas.
Esto es otra cosa.
Tanto criticarles, y en el fondo estaban adelantándose al problema...
Esta es la enésima noticia tecnófoba planteando dilemas absurdos para crear polémica.
En todo caso, está claro que prefiero que si se diera tan improbable situación mi coche priorice mi pellejo.
Los robots no se emborrachan, no les dan alergias, no discuten y no se la sacan para ver quién la tiene más grande; por lo que podemos afirmar que en cuanto a seguridad el coche autónomo es un avance.
¿Qué se debe hacer? Priorizar al más débil, si es un niño que salta a la vía frenazo aunque te coma el culo el de atrás, que para eso vas resguardado por una carrocería.
Además ¿Sabemos lo que suele hacer un humano en estos casos? Protegernos de manera instintiva aunque luego no podamos vivir con la culpa. A priori mejor que se proteja a terceros.
Pongamos el caso de que hay dos peatones en la calzada y tiene la opción desviarse atropellando a un peatón que estaba en la acera. Las implicaciones legales y de cara a las compañías de seguros será inadmisible que atropelle quien está en la acera.
Seguramente se termine haciendo, pero el peligro que conlleva es más que evidente, y te aseguro que se produciran abusos.
Si el golpe no puede evitarse (que como no sea por un mal funcionamiento de uno de los dos coches o porque el otro está conducido por un tipo de carne y hueso, ya me dirás, ) es mejor que tu coche priorice tu vida siempre, porque esa prioridad es la que lo lleva a querer evitar todos los accidentes que pueda evitar.
Esas decisiones jamás se podrán poner en orden, ya que los valores y opiniones de la gente es imposible unificarlas.
Por lo tanto aunque la tecnología lo permita, el coche autónomo jamás será una alternativa real, a mi modo de ver.
La cuestión primera es si la gente compraría un coche que se puede informar en contra de lo que hace el conductor cuando lleva el volante si no es obligatorio, eso pregunta mató la comunicación entre vehículos y vehículo e infraestructura desde hace décadas.
No se, es que dar por sentado que un vehículo automático va a chocar, no ya que va a tener que elegir a quien mata, para mi, es como excusarse de los fallos que van a ocurrir porque no vais a programarlo bien.
Quizás te interese si no conoces la iniciativa.
La explicación es sencilla: si aumenta el riesgo de que mi coche me pueda matar pero disminuye el riesgo de que todos los demás me maten, estadísticamente salgo en positivo
Y no, no es una broma... de verdad estadísticamente nos vendría bien a todos. Eso sí, si TODOS los coches tuvieran el mismo algoritmo de riesgo. No voy a ser yo el único gilipollas que va mejorando la estadística.
En todo caso, si todos tienen conducción autónoma, es difícil que se de el caso.
Si se llega a una situación donde se puede producir un accidente es debido a que la AI ha fallado o que hay un problema mecánico.
El problema mecánico es fácilmente evitable a base de sensores y de revisiones obligatorias sin las cuales el vehículo no funciona.
El fallo en la AI es una opción, pero remota, muy inferior al de un fallo en una persona y lo que está claro es que la IA nunca deberá “juzgar” y jamás deberá lanzarse contra nadie, siempre hay otras opciones.
Estos escenarios son pajas mentales de filósofos con demasiado tiempo libre.
Un coche autónomo con sus sensores debería ser capaz de evitar cualquier accidente y predecir la ruta de cualquier peatón y vehículo y actuar mucho antes de que se llegue al punto en el que se podría plantear el realizar una decisión ética.
Los coches autónomos no decidirán, reaccionarán. En caso de fallo catastrófico donde no se pueda evitar un accidente se haga lo que se haga la única opción que deberían tener es la no intervención. ¿Fallan los frenos? Pues sigues en la misma trayectoria salvo que el cambio de trayectoria implique no impactar con nada. Esta es la única solución posible ya que si el coche prioriza un impacto sobre otro el fabricante sería el responsable subsidiario y se expondría a ser demandado.
No se trata de priorizar, se trata de reducir la intervención al mínimo posible. La única excepción a esta regla es si el obstáculo alternativo es un animal, en ese caso el vehículo deberá considerar que no hay obstáculo.
En cualquier caso como he dicho esto no debería ocurrir, el coche autónomo debería haber sido capaz de anticipar el peligro mucho antes, incluso en caso de un fallo en los frenos, el coche autónomo debería cortar la energía al motor en cuanto detectase el fallo por lo que jamás tendríamos vehículos autónomos conduciendo sin frenos.
Pongamos que vas conduciendo por un puerto de montaña. Un niño sale a tu paso. El coche frena. El coche, en ningún momento, va a hacer nada como tirarse por un acantilado para salvar a nadie ni a meterse en dirección contraria ni polladas de ese calibre.
Pongamos que vas conduciendo. El semáforo se pone en rojo pero el coche detecta que el vehículo que llevas detrás no va a poder detenerse a tiempo. El coche frena por que el semáforo está en rojo. No se va a poner a hacer cabriolas a ver si atropella o deja de atropellar.
No creo que sea tan difícil. El coche se va a comportar tal y como se espera que se comporte un humano. A nadie le dicen en el examen de conducir que si para evitar un atropello te tienes que tirar por barranco que te tires ni te dicen que te puedes saltar un semáforo para evitar que te den un golpe. Pues esto es lo mismo.
1) Evitar todo daño humano->animal->bienes materiales->...
2) En caso de no poder evitar daños la norma vial prevalece, es decir, atropellar a quien cruza en rojo antes que matar al conductor,etc... del mismo modo el ejemplo del tranvía , si ambos casos estan al mismo nivel de cumplimiento de normativa se aplica siguiente caso
3) Minimizar daños; humano->animal->bienes....
La valoración humana no discrimina por sexo/raza/religión/status socioeconomico/etc...
Con un planteamineto mejor elaborado todo podemos sentirnos 'seguros', como contraejemplo imaginar siguiente caso:
Grupo chavales jovencitos y jovencitas borrachos se ponen en medio autopista para hacer la 'broma' donde los coches empezarán a 'sacrificar' a conductores de mayor edad por su programación 'etica'!! hay mucho absurdo en esos sesgos morales...normativa y coherencia sin discriminación....
El problema es que, por mucho que se afine, va a haber situaciones en las que no se va a poder evitar causar daño a alguin. Y en estos casos el coche tiene que tener algunos parámetros con los que decidir. Evidentemente casi nunca va a ser cosa de matar a unos u a otros, eso son casos extremos, pero si de dañar a unos u a otros. Por poner un ejemplo: Alguien que estaba parado cruza cuando el semáforo estaba en rojo cruza repentinamete, y el coche no le da tiempo a frenar en parámetros de seguridad. Es decir, puede frenar más rápido, pero el frenazo será tan brusco que seguramente lesione al conductor, o puede frenar dentro de los parámetros de seguridad para el conductor, pero aprovechará al peaton a una velocidad quizás no para matarlo, pero sí para lesionarle. El coche, o mejor dicho, el programa de IA que lo aliementa, tiene que saber actuar en estos casos. Se tiene que programar para que decida frenar mas fuerte o no según las personas implicadas en el accidente o programarlo para que actue siempre igual, independientemente de las personas, pero se tiene que decidir un protocolo. Por mucho que digamos inteligencia artificial, todavía no son inteligencias artificiales reales, siguen siendo programas más o menos complejos, y para que funcionen hay que decidir cómo actual, ya sean directa o indirectamente. Y eso es algo que se tiene que hacer, aunque se mantenga la posibilidad de devolver la autonomía del coche al conductor.