Aunque estos vehículos están orientados a, entre otras cosas, reducir la tasa de accidentes, su programación podría tener un efecto singular: ante situaciones peligrosas en las que estén en juego muchas vidas, podrían decidir que nosotros nos llevemos la peor parte para salvar a los demás. El debate ético vuelve a acechar un terreno muy complejo.
|
etiquetas: coche , autonomo , conduccion , vehiculo , automovil
Y como han dicho antes, uno debe ser libre de poder hacer la elección y asumir sus consecuencias, y no dejar eso en manos de una máquina
Estamos hablando de una elección a sangre fría. No de un arrebato instintivo.
1.ª ley: un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2.ª ley: un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1.ª ley.
3.ª ley: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1.ª o la 2.ª ley.
Por si no me crees, lema.rae.es/dpd/srv/search?id=BapzSnotjD6n0vZiTp (punto 4.18)
¡De nada!
No te lo crees ni tú.
1. ¿Estarán estos coches 'intercomunicados'?. En mi opinión deberían. Un auto puede tomar una decisión en base a un instante de tiempo, pero hay muchas variables, imaginen un choque multiple, dos autos autónomos y un tipo a 140 km/h. ¿Existe la posibilidad de que la decisión de un auto autónomo interfiera en la trayectoria del otro?
2. ¿Es posible que estos sistemas sean 'hackeables'? (Lo más seguro es que si, con tanto jailbreak)
3. ¿Que pasará cuando los sicarios se den cuenta de que hay herramientas que permiten cambiar el comportamiento de un auto programado por computadora? ¿Los asesinatos consistirán en 'infectar' estos autos? (Sin culpable a la vista, menos riesgo)
www.milanuncios.com/opel-de-segunda-mano/opel-corsa-1-0-s-121233958.ht
Por cierto, estos coches inteligentes, ¿serán tan inteligentes como los teléfonos, como un pc o como qué? Porque veo muchas posibilidades de ostión si vamos a confiar en ellos...
Vivir en sociedad no significa sacrificarse por el bien del sistema, cada uno busca lo mejor para sí, y por eso mismo se vive en sociedad, pero eso no significa que uno no pueda hacer lo que quiera y buscar su propia seguridad y bienestar por encima de los demás, aún pisando los derechos de los otros, como tu muy bien dices. ¿Que habrá consecuencias? pues claro, porque en una sociedad tiene que haber reglas para que no se desmadre, pero sacrificar la propia vida para salvar a x personas me parece totalmente fuera de lugar, la vida de uno mismo está por encima de todo lo demás, siempre y para siempre. Si uno es una buena persona y quiere sacrificarse pues allá él, pero sería su elección, suya y de nadie más.
Y personalmente yo no lo haría ni para 20 millones de peatones.
Hay que andar con pies de plomo en esto de la inteligencia artificial, no sea que nos llegue a sustituir. Y entonces si que estaremos jodidos, porque quedaríamos reducidos a simples cifras.
No me malinterpretes, entiendo tu postura y yo no sé qué haría si me viera en el caso de atropellar a alguien para salvarme a mi, pero claro, si luego resulta que ese alguien es tu hijo.... ufff, preferiría haberme tirado por el barranco, es más, quizá lo hiciera a posteriori.
Creo que la gran mayoría de los conductores intenta esquivar y se da la torta. Normalmente es lo que pasa cuando te sale un perro (aquí un jabato es lo más normal, y te destroza el coche) a no ser que tengas experiencia y tengas claro que la opción inteligente es no girar y solo frenar si es seguro... imaginarse si sale un escolar corriendo tras un balón; lo más seguro es que te apartes en décimas sin pensar ni con qué te vas a dar.
El problema de todo esto es que quien se aparta o no, quien conduce, decide. Y como decide es responsable de las consecuencias de su decisión. Cuando el coche lo conduce una CPU... ¿quién decide? Porque él es quien será responsable de las consecuencias. Cuando haya (que la habrá) una víctima mortal, ¿van a reclamar responsabilidades al programador, al fabricante, al vendedor..? Porque el conductor será el único inocente, una víctima más en su caso porque no hace nada salvo dejarse llevar. Si cuando haces un programa sencillo tienes que meter cuarenta clases de controles para acotar lo que puede hacer el usuario sin liarla, imaginar la que hay que liar en algo como esto, con vidas de por medio, no quiero ni pensarlo.
(10>9), pasa otro coche con 5 personas y se tira por el barranco, pasa otro coche con...
Creo indiscutible que el coche debe salvar la vida del dueño si o si, sino, "que parezca un accidente".
El coche autónomo se aparta. Porque tiene una reacción mucho más rápida a los movimientos erráticos del humano. Es decir, la regla es que el humano tiene siempre prioridad y no necesita frenarse ni apartarse)
El humano se aparta. La regla es que es el humano quien toma el control de la situación y el coche autónomo tiene un comportamiento predecible. (Si el humano no se aparta se para y espera a que se aparte)
Nadie me ha preguntado si quería vivir en sociedad y como tampoco quedan otras opciones sostenibles, comulgo con la rueda del molino y me limito a vivir sin molestar, ayudando en lo que pueda, pero, ¿sacrificarse por la mayoría? Anda y que os den.
Por cierto, creo que eres una persona horrible ya que por esa mentalidad muchas vidas inocentes se han perdido y se ha hecho del mundo un lugar más miserable
De ahí que diga que quiero ser capaz de tomar la decisión. Dejar que la tome una máquina sin ningún tipo de input es muy pero que muy complicado.
TODO POR LA PATRIA
ale, ya sabes donde podéis meteros el "todo por la patria"
y si, hijo si, bien de la patria = bien general, al menos en la demagogia común desde la Grecia clásica.
#100 ¿y si ese inocente que tu matarías acaba de descubrir la cura definitiva contra el cáncer y al morir esta se pierde?. Al matar a esos 10 inocentes puede salvar a miles.
Además, ¿que significa eso de inocente?,¿como sabe el coche que son 10 inocentes? Lo estas simplificando demasiado.
#130 precisamente se esta debatiendo esa programación. ¿Cómo programamos al coche?.
#131 creo que sería peor "coche autónomo atropella a un niño que salio en busca de su pelota".
Si tienes que irte hacia las preguntas chorras para argumentar algo, mejor lo dejamos ya. ¿ Vale ?
Estoy partiendo de los datos que el coche puede "saber" en las fracciones de segundo que tiene para elegir.
¿que significa eso de inocente?,¿como sabe el coche que son 10 inocentes?
¿ En serio no sabes que significa inocente ?. Cuando daño ha hecho la logse. Inocente es eso -> buscon.rae.es/drae/srv/search?id=g6CyhRAkuDXX25DwKtem
Para este caso uso la acepción 2, aunque la 1 también podría valer.
Tampoco es tan raro. Tu eliges morir por delante del que ha pagado el coche. Dando a su vida mas valor que a la tuya junto la de otras personas, solo porque ella va dentro del vehículo.
Yo elijo que mueran los menos posible. Me parece la elección mas "humana".
Yo soy "un insecto" que hace "un mundo horrible donde mueren inocentes" pero tu defiendes un mundo donde tienes 10 veces más posibilidades de morir bajo las ruedas de un imbécil porque crees que la vida del que tiene un coche vale más que la del resto
#120 #138 A mi simplemente me parece una elección personal, no me parece más humana una cosa que la otra, como mucho quizás la más considerada. Además no tenemos porque caer en el estúpido sesgo de que "humano" es sinónimo de bueno o de mejor.
Aunque por supuesto que lo contrario también serviría para lo mismo. En el fondo en ambos casos se trata de decidir que vida vale más que las demás.
Exacto, entrar en quien es mas buena persona y quien no, o quien merece morir y quien no, es un debate estéril. Al final todo se reduce a una simple pregunta de numeros. Matas a 1 o matas a 10.
Y francamente sigo sorprendido, y un poro alarmado, de que bastantes elija matar a 10 sin ni siquiera titubear. Hasta intentando argumentar porque 10 < 1.
#142 [...]discutir sobre que vida vale más en términos numéricos me parece absurdo y bastante peligroso.
Puede parecerte todo lo absurdo que quieras, pero ignorar el problema no lo hace desaparecer.
Si ante un problema inesperado, el coche tiene que elegir entre salvar al conductor o arrollar una parada de autobus con 10 personas, ¿ que elección deberían de programar al coche ?
Un grupo de niños que salen corriendo detrás de un balón ¿serían inocentes o culpables?. ¿debería el coche atropellarlos por saltarse una norma de seguridad vial?. En este caso si debería ya que son culpables.
Asumo ese peligro, inherente a la vida, con tal de que mi vida y la de los míos no dependa de un decreto del BOE.
Si en medio se atraviesan unos ciclistas y sólo tienes la opción de frenar sin éxito y por tanto arrollarlos, o pegar un volantazo para esquivarlos y empotrarte contra un camión ¿qué hace el coche?
El coche algo tiene que hacer, aunque sea no hacer nada y seguir su marcha sin inmutarse pero eso es programarle que las vidas de los ciclistas o niños no tienen ningún valor porque no los estás teniendo en cuenta.
Un humano actuaría por instinto y reaccionaría de forma aleatoria, cada uno a su manera y eso es lo que proponen, reaccionar de forma aleatoria.
En mi opinión no tiene mucho sentido programar a un coche para que evite un accidente creando otro. Y entrar en hablar de matar a 4, o matar a 5, ya me parece no solo peligroso, sino sensacionalista.
Lo que no nos damos cuenta es que ya ahora mismo los coches dependen en gran medida de los programadores, ya hay transmisiones inalambricas, frenos inalambricos, faros que se mueven e impiden deslumbrar, etc. quien es el responsable en caso de fallo "mecánico" que ya no lo es tanto...
Es fascinante como en este caso si es posible que el debate ético pueda llegar antes de la implantación de la tecnología, hasta hace no mucho siempre hemos ido por detrás.
PS: También te pueden preguntar si tienes hijos, si no, entonces los chavales no pueden ser hijos tuyos.