edición general
409 meneos
4982 clics
El dilema de si tu coche autónomo debería ponerte en peligro en caso de accidente si así se salvan más vidas

El dilema de si tu coche autónomo debería ponerte en peligro en caso de accidente si así se salvan más vidas

Aunque estos vehículos están orientados a, entre otras cosas, reducir la tasa de accidentes, su programación podría tener un efecto singular: ante situaciones peligrosas en las que estén en juego muchas vidas, podrían decidir que nosotros nos llevemos la peor parte para salvar a los demás. El debate ético vuelve a acechar un terreno muy complejo.

| etiquetas: coche , autonomo , conduccion , vehiculo , automovil
12»
  1. ¿Sacrificarse por los demás? ¿Y eso no sería incluso ilegal en España?
  2. #100 Cuando eres tu el que se tiene que matar por los otros diez la perspectiva cambia. Existe una cosa que se llama "instinto de autoconservación"

    Y como han dicho antes, uno debe ser libre de poder hacer la elección y asumir sus consecuencias, y no dejar eso en manos de una máquina
  3. #102 Exacto, y es que en parte es ese insinto el que me empuja a matar elegir matar a 1 antes que mata a 10. Porque si lo miras bien es 10 veces mas probable que seas uno de los hipotéticos peatones, a que seas el desafortunado conductor.

    Estamos hablando de una elección a sangre fría. No de un arrebato instintivo.
  4. #40 Cierto, pero según la RAE es incorrecto poner "Ley" con mayúscula a menos que cites el nombre entero de la ley en cuestión, además que es incorrecto empezar con mayúscula tras los dos puntos, así que también te digo FTFY, ahí lo tienes:

    1.ª ley: un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
    2.ª ley: un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1.ª ley.
    3.ª ley: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1.ª o la 2.ª ley.

    Por si no me crees, lema.rae.es/dpd/srv/search?id=BapzSnotjD6n0vZiTp (punto 4.18)

    ¡De nada! xD
  5. Según la moral y las justificaciones (de alto nivel) del meneante medio, eso depende de si el que conduce el coche es pepero o no.
  6. Olvidaos de todo este rollo y las leyes de la robótica de Asimov. No se aplican ni nunca hubo intención de hacerlo, únicamente son fruto de la mente de un visionario y mil veces mejor persona que todos los que mandan
  7. Que le regalen un coche de estos a Farruquito y Ortega Cano. No duraba ni 100 metros.
  8. #103 Yo estoy hablando desde el punto de vista del conductor, que es lo que plantea el debate moral
  9. #108 Ya veo, ya. Yo hablo desde una perspectiva mas amplia. Y desde esta perspectiva el debate moral no existe. Se mata a los menos posible y punto.
  10. #108 En este caso, el ocupante del vehículo no es el conductor. El conductor es un software que representa que conduce "correctamente" y se encuentra una "anormalidad" que no ha podido provocar dicho ocupante.
  11. Que mi vida dependa del criterio de un ordenador no entra en mis planes. Quien esté dispuesto a poner su vida en manos de los ingenieros de -empresa IT puntera cualquiera- que vayan apuntándose a esta mierda...
  12. #111 Recuerda estas palabras el día que entres en un hospital.
  13. #17 "Un Opel Corsa GSI de los de verdad (1990 para atrás) parte SUVs por la mitad como pollos el machete de un carnicero."

    No te lo crees ni tú.
  14. Yo me pregunto algunas cosas:

    1. ¿Estarán estos coches 'intercomunicados'?. En mi opinión deberían. Un auto puede tomar una decisión en base a un instante de tiempo, pero hay muchas variables, imaginen un choque multiple, dos autos autónomos y un tipo a 140 km/h. ¿Existe la posibilidad de que la decisión de un auto autónomo interfiera en la trayectoria del otro?
    2. ¿Es posible que estos sistemas sean 'hackeables'? (Lo más seguro es que si, con tanto jailbreak)
    3. ¿Que pasará cuando los sicarios se den cuenta de que hay herramientas que permiten cambiar el comportamiento de un auto programado por computadora? ¿Los asesinatos consistirán en 'infectar' estos autos? (Sin culpable a la vista, menos riesgo)
  15. #27 Es que estaba programado para salvar al conductor. Pero en un par de episodios aparecía una versión anterior que habían programado para salvarse a sí mismo, y en determinado momento eyectaba al conductor para poder escapar más rápido :-D

    Por cierto, estos coches inteligentes, ¿serán tan inteligentes como los teléfonos, como un pc o como qué? Porque veo muchas posibilidades de ostión si vamos a confiar en ellos...
  16. Y si yo ahora...ABRO OTRO DEBATE! que pasará si circulamos por un barrio "poco recomendable" de la ciudad y quieren atracarnos? Solo tendran que ponerse uno delante y otro detras del vehiculo depié para inmovilizar mi coche? Habria que contemplar instalar un modo de arrollo y fuga!
  17. Como al PP se le ocurra incorporarlos a su flota, el primer día se produce una escabechina: Esperanza Aguirre, Carromero, Miguel Ángel Rodríguez, Ánsar... Todos atropellados por su propio coche.
  18. #19 Tu mente de colmena da escalofríos, ¿de verdad preferirías morir para salvar a 1, 10, 50 personas? ¿por el bien de la sociedad? ¿en serio?

    Vivir en sociedad no significa sacrificarse por el bien del sistema, cada uno busca lo mejor para sí, y por eso mismo se vive en sociedad, pero eso no significa que uno no pueda hacer lo que quiera y buscar su propia seguridad y bienestar por encima de los demás, aún pisando los derechos de los otros, como tu muy bien dices. ¿Que habrá consecuencias? pues claro, porque en una sociedad tiene que haber reglas para que no se desmadre, pero sacrificar la propia vida para salvar a x personas me parece totalmente fuera de lugar, la vida de uno mismo está por encima de todo lo demás, siempre y para siempre. Si uno es una buena persona y quiere sacrificarse pues allá él, pero sería su elección, suya y de nadie más.

    Y personalmente yo no lo haría ni para 20 millones de peatones.
  19. #110 Por eso opino que no se debe dejar que sea una máquina la que decida. A fin de cuentas, la máquina no asume ninguna consecuencia, solo hace aquello para lo que la han programado.

    Hay que andar con pies de plomo en esto de la inteligencia artificial, no sea que nos llegue a sustituir. Y entonces si que estaremos jodidos, porque quedaríamos reducidos a simples cifras.
  20. Prefiero conducir yo
  21. Cuando todos los coches sean automáticos, nos dará escalofríos la cantidad de muertes por accidentes que hay ahora.
  22. #51 les enseñaremos a diferenciar entre humanos más validos que otros, los pondremos en hibernación por un accidente, y durante una conversación de años llegarán a la conclusión de que ellos son los humanos más válidos que conocen.
  23. #16 ¿Y si entre esos escolares va tu hijo? ¿también los arrollarías?
    No me malinterpretes, entiendo tu postura y yo no sé qué haría si me viera en el caso de atropellar a alguien para salvarme a mi, pero claro, si luego resulta que ese alguien es tu hijo.... ufff, preferiría haberme tirado por el barranco, es más, quizá lo hiciera a posteriori.
  24. Sólo compraré coches que se puedan rootear.
  25. Entramos en terreno complicado...

    Creo que la gran mayoría de los conductores intenta esquivar y se da la torta. Normalmente es lo que pasa cuando te sale un perro (aquí un jabato es lo más normal, y te destroza el coche) a no ser que tengas experiencia y tengas claro que la opción inteligente es no girar y solo frenar si es seguro... imaginarse si sale un escolar corriendo tras un balón; lo más seguro es que te apartes en décimas sin pensar ni con qué te vas a dar.

    El problema de todo esto es que quien se aparta o no, quien conduce, decide. Y como decide es responsable de las consecuencias de su decisión. Cuando el coche lo conduce una CPU... ¿quién decide? Porque él es quien será responsable de las consecuencias. Cuando haya (que la habrá) una víctima mortal, ¿van a reclamar responsabilidades al programador, al fabricante, al vendedor..? Porque el conductor será el único inocente, una víctima más en su caso porque no hace nada salvo dejarse llevar. Si cuando haces un programa sencillo tienes que meter cuarenta clases de controles para acotar lo que puede hacer el usuario sin liarla, imaginar la que hay que liar en algo como esto, con vidas de por medio, no quiero ni pensarlo.
  26. Ponemos 10 chicos divertidos en un barranco, pasa un coche con 9 personas y se tira por el mismo
    (10>9), pasa otro coche con 5 personas y se tira por el barranco, pasa otro coche con...
    Creo indiscutible que el coche debe salvar la vida del dueño si o si, sino, "que parezca un accidente".
  27. Todo eso de los coches autonomos no es mas que un piloto automatico en coches. Te lleva de A a B por unas vias delimitadas sin infringir las normas de cada tramo y adecuando la conducción y velocidad a los parametros de cada situación. Q ue si, que habran miles de sensores atentos a la mas minima intromisión para reaccionar mucho mas rápido que Fernando Alonso y evitar el 99% de las colisiones, pero aunque el coche actue correctamente habra casos en los que el accidente sera inevitable y aqui es donde empiezan las pajas mentales de que si que decisión tomarà......eso esta muy bien para los libros de Asimov, pero nosotros no tenemos cerebros positrónicos (todavía) y por tanto los coches no pueden elegir el mal menor, responderan a una programación determinada y punto.
  28. Es un debate interesante, pero es una vuelta de tuerca innecesaria. Los fabricantes de conches autónomos pondrán como prioridad la propia preservación, que sería la respuesta instintiva que tendríamos en una situación en la que tienes que reaccionar en 500 milisegundos. De otra forma, noticias como "un coche autónomo se estrella contra una farola" dejarían en muy mal lugar la confianza de la sociedad en estos sistemas.
  29. Al hilo de este, hay otro debate parecido. ¿Qué pasa cuando un coche autónomo y otro conducido por un humano se encuentran de frente? No es una situación en la que vayan a chocar de forma inmediata, pero ¿quién dece el paso al otro? Así tenemos tres escenarios:

    El coche autónomo se aparta. Porque tiene una reacción mucho más rápida a los movimientos erráticos del humano. Es decir, la regla es que el humano tiene siempre prioridad y no necesita frenarse ni apartarse)

    El humano se aparta. La regla es que es el humano quien toma el control de la situación y el coche autónomo tiene un comportamiento predecible. (Si el humano no se aparta se para y espera a que se aparte)
  30. #19 Hola, me he registrado en menéame y he esperado un día sólo para decirte que tu comentario es de las cosas más repugnantes que he leído en mucho tiempo, que si tú tienes mentalidad de insecto (o de chino) y eres feliz allá tú, que espero que no tengas que verte en la situación de sacrificar tu vida por el bien de cuatro o de cien gilipollas, o del sacrosanto "pueblo", porque dudo que lo hagas ya que desde el teclado del ordenador todos somos filósofos de pacotilla. A mi por lo menos no se me llena la boca y lo digo: me llevo los que me haga falta, porque mi lealtad está primero hacia mi y mi familia, como es natural y como debe ser.

    Nadie me ha preguntado si quería vivir en sociedad y como tampoco quedan otras opciones sostenibles, comulgo con la rueda del molino y me limito a vivir sin molestar, ayudando en lo que pueda, pero, ¿sacrificarse por la mayoría? Anda y que os den.

    Por cierto, creo que eres una persona horrible ya que por esa mentalidad muchas vidas inocentes se han perdido y se ha hecho del mundo un lugar más miserable :-)
  31. #125 No lo se, no tengo hijos ni tengo ningún tipo de instinto paternal. En el hipotético caso de tener uno es posible que me tirase en vez de atropellarle, pero no puedo contestar con seguridad porque lo cierto es que no tengo ni idea.

    De ahí que diga que quiero ser capaz de tomar la decisión. Dejar que la tome una máquina sin ningún tipo de input es muy pero que muy complicado.
  32. #19 Por cierto, te voy a hacer un favor despertándote de tu abominación resumiéndote en otras conocidas palabras tu argumento:

    TODO POR LA PATRIA

    ale, ya sabes donde podéis meteros el "todo por la patria"

    y si, hijo si, bien de la patria = bien general, al menos en la demagogia común desde la Grecia clásica.
  33. #19 así que debe es mas importante el beneficio de la sociedad que el del individuo. entonce supongo que si un día estas en un edificio en llamas no pedirás a los bomberos que te saquen ¿verdad?. Estarías poniendo en peligro su vida. Primero que apaguen el fuego desde fuera y si estas vivo ya te sacarán.

    #100 ¿y si ese inocente que tu matarías acaba de descubrir la cura definitiva contra el cáncer y al morir esta se pierde?. Al matar a esos 10 inocentes puede salvar a miles.
    Además, ¿que significa eso de inocente?,¿como sabe el coche que son 10 inocentes? Lo estas simplificando demasiado.

    #130 precisamente se esta debatiendo esa programación. ¿Cómo programamos al coche?.

    #131 creo que sería peor "coche autónomo atropella a un niño que salio en busca de su pelota".
  34. #136 ¿y si ese inocente que tu matarías acaba de descubrir la cura definitiva contra el cáncer y al morir esta se pierde?
    Si tienes que irte hacia las preguntas chorras para argumentar algo, mejor lo dejamos ya. ¿ Vale ?
    Estoy partiendo de los datos que el coche puede "saber" en las fracciones de segundo que tiene para elegir.

    ¿que significa eso de inocente?,¿como sabe el coche que son 10 inocentes?
    ¿ En serio no sabes que significa inocente ?. Cuando daño ha hecho la logse. Inocente es eso -> buscon.rae.es/drae/srv/search?id=g6CyhRAkuDXX25DwKtem
    Para este caso uso la acepción 2, aunque la 1 también podría valer.
  35. #120 Tu mente de colmena da escalofríos, ¿de verdad preferirías morir para salvar a 1, 10, 50 personas? ¿por el bien de la sociedad? ¿en serio?

    Tampoco es tan raro. Tu eliges morir por delante del que ha pagado el coche. Dando a su vida mas valor que a la tuya junto la de otras personas, solo porque ella va dentro del vehículo.

    Yo elijo que mueran los menos posible. Me parece la elección mas "humana".
  36. #133 Además de ser un tremendamente maleducado no sabes mucho de estadística me parece a mí. Estamos hablando de la posibilidad de que un coche atropelle a 10 personas para salvar a una... A ver alma de cántaro ¿No te das cuenta que hay 10 veces más posibilidades que TU o alguien de tu familia (esa que quieres proteger a toda costa) sea el peatón de esta historia en vez del conductor?
    Yo soy "un insecto" que hace "un mundo horrible donde mueren inocentes" pero tu defiendes un mundo donde tienes 10 veces más posibilidades de morir bajo las ruedas de un imbécil porque crees que la vida del que tiene un coche vale más que la del resto :palm:
  37. #16 No me hagas caso, pero creo que en ese caso no tendrían nada contra ti; se trata de una situación límite en la que tienes que reaccionar en tiempo record. Otra cosa es que tengas tiempo para pensarlo y calmadamente decidas, pero si vas por una carretera se te atraviesa un peatón/coche/elefante, das un volantazo y matas a otras personas no creo que te puedan juzgar por ello.

    #120 #138 A mi simplemente me parece una elección personal, no me parece más humana una cosa que la otra, como mucho quizás la más considerada. Además no tenemos porque caer en el estúpido sesgo de que "humano" es sinónimo de bueno o de mejor.
  38. #100 #102 Además creo que le podemos dar la vuelta, y si esos 10 te tienen que matar a ti para sobrevivir? A mi no me parece más moral una cosa que la otra, eso podría servir para justificar oras cosas (tomándomelo con filosofía) como la esclavitud, el tráfico de órganos, etc.

    Aunque por supuesto que lo contrario también serviría para lo mismo. En el fondo en ambos casos se trata de decidir que vida vale más que las demás.
  39. #141 Para mi la vida humana no tiene ningún valor cuantitativo; discutir sobre que vida vale más en términos numéricos me parece absurdo y bastante peligroso.
  40. #139 Por cierto, un pequeño detalle que me recordó tu comentario, el conductor del coche al utilizarlo debe asumir toda la responsabilidad que conlleva el tener que pilotar una máquina que puede causar ese tipo de problemas. Siendo frívolos, el conductor del coche tiene mayor responsabilidad que cualquier peatón. (NO necesariamente culpablidad)
  41. #141 En el fondo en ambos casos se trata de decidir que vida vale más que las demás.

    Exacto, entrar en quien es mas buena persona y quien no, o quien merece morir y quien no, es un debate estéril. Al final todo se reduce a una simple pregunta de numeros. Matas a 1 o matas a 10.
    Y francamente sigo sorprendido, y un poro alarmado, de que bastantes elija matar a 10 sin ni siquiera titubear. Hasta intentando argumentar porque 10 < 1.

    #142 [...]discutir sobre que vida vale más en términos numéricos me parece absurdo y bastante peligroso.
    Puede parecerte todo lo absurdo que quieras, pero ignorar el problema no lo hace desaparecer.
    Si ante un problema inesperado, el coche tiene que elegir entre salvar al conductor o arrollar una parada de autobus con 10 personas, ¿ que elección deberían de programar al coche ?
  42. #144 Ninguna. Es algo que no debe hacerse.
  43. #145 Si, ya se que los accidentes son algo que no deben hacerse, pero ocurre. Así que elige.
  44. #146 No, me refiero a lo de programar al vehículo. La decisión no debe quedar en manos de una máquina, y punto. No voy a elegir si 1, 10 o 10 millones, porque es inmoral elija lo que elija. Se plantea un escenario de falso dilema, y no juego a eso
  45. #137 lo siento, no es una pregunta chorra desde el punto en que has añadido el adjetivo "inocente". ¿como sabe el coche que es inocente?. Lo sabe en la misma medida que yo llevo la cura contra el cáncer.
    Un grupo de niños que salen corriendo detrás de un balón ¿serían inocentes o culpables?. ¿debería el coche atropellarlos por saltarse una norma de seguridad vial?. En este caso si debería ya que son culpables.
  46. #125 Ni lo imagines ni lo digas, uffff, que de tan solo pensarlo se me ponen los pelos de punta.
  47. #140 precisamente la diferencia es que ahora al coche autónomo le da tiempo a pensar, es decir, nosotros pobres humanos vivimos en el tiempo de una decima de segundo o dos y reaccionamos por un impulso, pero el coche vive en nanosegundos y le da tiempo a tomarse un te antes de decidir "conscientemente" que hacer, a alguien le toca decidir previamente como serán esas decisiones y advertirlo en el libro de instrucciones en letra muy muy pequeña y en la página 187 como una parte del acuerdo de uso (que nadie lee)
  48. #136 de hecho los bomberos no ponen en riesgo claro sus vidas para sacarte, y un socorrista puede esperar a que literalmente te ahogues para meterse a sacarte (tenemos el caso de 4 policias en Coruña que se metieron a sacar a uno y sinceramente y con todo el dolor que tienen esas familias, para mi hicieron mal, sin la preparación adecuada ni las condiciones necesarias crearon mas problema que el que intentaban solucionar) y un policia se protege si va a capturar a un tipo armado...asumen riesgos razonables.
  49. #139 La cuestión es que nadie debería decidir ni legislar sobre el derecho a vivir de nadie, decidir ser un héroe o no recae sobre la conciencia de cada uno.

    Asumo ese peligro, inherente a la vida, con tal de que mi vida y la de los míos no dependa de un decreto del BOE.
  50. #147 Pero el coche algo tiene que hacer. Si por el otro carril le viene una moto y en el suyo se le atraviesan unos niños ¿no hace nada para esquivarlos y los atropella o intenta esquivarlos y embiste al de la moto? No da tiempo a frenar y no hay forma de desviarse para otro lado. Pasar el control al humano tampoco es posible porque ocurre muy rápido.

    Si en medio se atraviesan unos ciclistas y sólo tienes la opción de frenar sin éxito y por tanto arrollarlos, o pegar un volantazo para esquivarlos y empotrarte contra un camión ¿qué hace el coche?


    El coche algo tiene que hacer, aunque sea no hacer nada y seguir su marcha sin inmutarse pero eso es programarle que las vidas de los ciclistas o niños no tienen ningún valor porque no los estás teniendo en cuenta.

    Un humano actuaría por instinto y reaccionaría de forma aleatoria, cada uno a su manera y eso es lo que proponen, reaccionar de forma aleatoria.
  51. la gente no se da cuenta de que es más probable sobrevivir en un accidente si todos los coches funcionaran así?
  52. #150 Sí, tienes razón en ese matiz: el coche puede reaccionar mejor en ese instante de tiempo, pero por si acaso, definitivamente no "piensa". Hasta podríamos llegar al absurdo de que un coche autoconducido decida matar a varias personas porque crea que lleva más dentro de sí.

    En mi opinión no tiene mucho sentido programar a un coche para que evite un accidente creando otro. Y entrar en hablar de matar a 4, o matar a 5, ya me parece no solo peligroso, sino sensacionalista.
  53. #155 Yo no me quiero imaginar los diagramas d flujo y las situaciones en las que tiene que plantearse todo esto, supongo que habrá que legislar hacia un lado o hacia otro, pero sobre todo que cuando vayas a comprar el coche esté claro ese sentido. Supongo que llegado el día de la venta real de estos cacharros dirán que son mas tontos de lo que realmente son y que en todo caso el vehículo se dedicará a parar el coche en el menor espacio posible y punto.

    Lo que no nos damos cuenta es que ya ahora mismo los coches dependen en gran medida de los programadores, ya hay transmisiones inalambricas, frenos inalambricos, faros que se mueven e impiden deslumbrar, etc. quien es el responsable en caso de fallo "mecánico" que ya no lo es tanto...

    Es fascinante como en este caso si es posible que el debate ético pueda llegar antes de la implantación de la tecnología, hasta hace no mucho siempre hemos ido por detrás.
  54. #153 Sería bueno que al encender el coche te hagan una serie de preguntas de configuración ¿te caen bien los ciclistas? No, pues a por ellos. :troll:

    PS: También te pueden preguntar si tienes hijos, si no, entonces los chavales no pueden ser hijos tuyos. xD
12»
comentarios cerrados

menéame