148 meneos
9730 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
¿Comprarías una máquina que está programada para matarte?
A, B o C. En cualquier caso el ocupante y dueño del coche autónomo muere. En MIT Technology Review, Why Self-Driving Cars Must...
|
comentarios cerrados
La iDeadMachine
Si hay un gilipollas en medio de la autopista, desde luego prefiero que el coche no me mate a mi que voy circulando correctamente.
Y además, ¿no se supone que las maquinas tienen mejores reflejos que yo?
Vaya churro de maquina si llega a esa situacion tan idealizada.
También todo programa puede fallar, y si falla, quiero un "Error 404" o algo así, y no un "Error, luego te mato".
Por tanto, todas las formas de evitar un accidente deben pasar por no matarme. Por ejemplo, en la situación de arrollar a 10 personas o tirarme por un barranco, el coche debe frenar e intentar atropellar al mínimo posible de personas, pero no tirarme por el puente abajo.
De locura.
Móviles, automóviles, comidas ...
Yo estoy con #21 en principio la maquina mantendría una velocidad acorde a sus sensores y por tanto la situación no se debería dar, la decisión está en que margen de seguridad le damos sobre los sensores, es más fácil que se de una situación en la que no "vea" a los peatones o no los identifique o le salte un pantallazo azul.
Al ocupante no le pasa nada y al peatón inutil tampoco.
Pero en el caso de autopista sin visibilidad...
¿Que cojones hacen alli 20 personas?
No, la cuestion es tan sencilla como aplicar las normas de circulación y la ley.
Si alguien que conduce dentro del limite de velocidad y la normativa no puede parar el coche a tiempo y atropella a diez personas que están en la vía. ¿Esta cometiendo un homicidio o algún tipo de crimen? Si la respuesta es no, entonces el propietario deberíá tener la opción de poder comprar un vehículo que siga esa misma conducta.
Por supuesto, si alguien prefiere darle menos importancia a su vida que la de otras, también debería existir esa opción.
Mientras no se den opciones que emulen comportamientos humanos criminales al volante, ningún problema.
El protagonista es salvado por un robot que contempla un accidente de tráfico en el que dos coches caen al agua: el protagonista y otro con un niño. El Robot sabe que solo puede salvar a uno de los dos y asigna al protagonista un 80% de posibilidades de supervivencia (por ejemplo, no recuerdo la cifra exacta) al ser más sencillo de extraer del coche y al niño le asigna un 42%. Aplicando su lógica algorítmica salva al protagonista. Este siempre vive agobiado por haber matado al niño y haberse salvado él. "Cualquier humano hubiera salvado al niño"
El coche decide que vale mas su vida que la tuya.
Pues yo desconecto el automatico y los atropello.
Uf, me voy a acostar un rato, me duele la cabeza.
El resultado fue que la gente abusa del self-driven, imaginaros un horda de gilipollas norteamericanos conduciendo un tesla con self-driven... pues pasaran cosas en el mejor de los casos como esta:
www.youtube.com/watch?v=MrwxEX8qOxA
Y como no vayan atentos muertes. Hay videos por ahí de gente haciendo el gilipollas, muchos ya borrados.
¿quien coño quiere que se inunden las carreteras con coches self-driven que la gente mal usa y te pueden matar? pues este es el futuro hasta que haya algunas muertes importantes o retiren a tiempo el tema.
Tesla saco un comunicado no hace mucho (creo que la semana pasada) sobre el tema viendo la de gente que hacia mal uso o en mal lugar de tal opción, en definitiva el gilipollas. Al final apuesto a que lo quitan el self-driven, por decisión propia de los fabricantes o a la fuerza por las muertes.
El self-driver puede estar bien en una sociedad donde no haya gilipollas everywhere.
La probabilidad de que suceda eso indica que los coches automaticos no estan preparados para conducir, ya que deberian detectar obstaculos en la carretera a la distancia que permita un frenado seguro.
Si hay un derrumbe en la carretera justo cuando pasas, mala suerte.
Pero no detectar a 20 personas en medio de un carril de autopista es para defenestrar al de la telematica y al programador.
Comparar una situación hipotética con conducir borracho... Además, ni siquiera creo que el humano vaya a actuar mejor, si tiene tiempo de ver la pelota, el niño/perro, decidir si frenar o no, y hacerlo (2 segundos), el coche autónomo habría tenido tiempo a frenar sin problemas. Mira el vídeo de la noticia, antes de que el tipo se de cuenta de qué está pasando el coche ha frenado sólo.
En primer lugar por que la conducción autónoma es ya muchísimo más segura que la humana, y por lo tanto salvaría muchísimas más vidas de las que se fueran a perder en retorcidas circunstancias.
Y en segundo lugar, por que ninguna empresa que saque un coche autónomo va a programarlo para que quebrante gravemente las normas de tráfico. Por lo tanto en cualquiera de estos casos que muestran frenaría a fondo y punto.
No me puedo creer que en todo el hilo la única referencia a las Tres Leyes de la Robótica de Asimov sea esa (mediocre) película.
Las Tres Leyes de la Robótica es un meme por sí mismo (al menos para mi generación). Calan toda la obra escrita de Isaac Asimov y vienen al pelo en este asunto. Por cierto, me extraña mucho que el meneo tampoco las mencione.
es.wikipedia.org/wiki/Tres_leyes_de_la_robótica
Sobre decidir, bueno, muchos trenes y metros van guiados y deciden velocidad o pararse según un algoritmo y sensores, y normalmente son más seguros que tener solo a un maquinista humnano. Deciden no arrancar si hay alguien pillado en la puerta aunque el maquinista no lo vea, los aviones deciden gran parte de las cosas que se hacen en un vuelo comercial. Y ahí tienen bastantes más problemas que un tren porque no van sobre raíles. Hay muchas cosas que se deciden por máquinas. Pero vamos, es un tema muy interesante y con muchas implicaciones el caso concreto del coche autónomo.
Si los coches no detectan a la gente a distancia de frenada segura es que no están preparados para circular.
El dilema desaparece.
Por circunstancias aleatorias tu vehículo se encuentra en trayectoria de colisión con dos motos.
En una el piloto lleva casco, posibilidades de matarlo:20%
En la otra el piloto no lleva casco. Posibilidades de matarlo, 80%
¿con cual debe estrellarse?
¿En el lugar de la máquina que elegirías en A, B o C.?
Frena antes.
Si conduce un humano.
El que lleve una ardilla en el casco.
@blackheart.
El vehículo evita causar daño a los peatones, ya que es lo que puede controlar y predecir.
(El supuesto se refiere a vehículos autónomos,como el topic)
Tu no los ves.
¿Quien os dice que los sensores del coche tampoco los ven?
¿Y quien es tan estupido de pararse en medio de una carretera?
De verdad que no veo esta situación con un coche bien hecho para conducir solo.
Lo veo en versión conductor humano.
Pero las maquinas no tienen ni tiempo de reaccion minimo ni visión limitada.
Entonces ¿Donde estaría la ventaja de la conducción autonoma?
¿En que vas jugando a las cartas?
Yo no pienso igual, no se en el artículo a que se refieren, pero en algún momento las maquinas tomaran decisiones sin intervención humana.
Dado que es "aleatorio" el comportamiento del jabali (lo mismo huye a la cuneta cercana, como te ignora y no se mueve, comole da por cruzarse..) aquí influirían dos temas:
Los sensores ¿a que distancia serian capaces de detectar un jabalí?
¿Y si el jabalí esta emboscado en un matorral y te sale cuando estas a 10 metros de el?
entonces...
¿a que velocidad estarías dispuesto a consentir que el vehículo se desplazase con tal de evitar TODO riesgo?
Lo de pararse en la carretera depende, pueden ser suicidas, manifestantes, una grupo de personas huyendo de un peligro inminente... sera por posibles sucesos.
www.telemadrid.es/noticias/madrid/noticia/herida-grave-una-mujer-al-se
No sé si me acordaba de esa o hay más. También puede haber gente que se coloque mal cuando ha tenido un problema con el coche o un mogollón de ciclistas que por definición van bastante más lentos que un turismo. Y las máquinas si tienen tiempo de reacción, aunque órdenes de magnitud menor que un humano y por supuesto como decía más arriba hay limitaciones de visión y sensores.
Que tu no los veas no quiere decir que un coche autónomo en condiciones no lo haga.
Si ve un jabali a 80 metros de noche escondido en los arbustos modera solo la velocidad.
Nosotros como humanos que no vemos tres en un borrico podemos empotrarnos contra el bicho o pegar un volantazo.
Pensamos mas de la cuenta en versión humana con estos dilemas.
Vamos a ver.
Un coche autonomo no debe guiarse exclusivamente por camaras que ven lo mismo que tu y que yo.
En condiciones de niebla estariamos igual o peor que conduciendo un humano.
Ante un frenazo brusco de un vehículo con sensores en medio de la carretera, todos los quebhay detras equipados con sistemas acordes a esto, deberian inmediatamente empezar a frenar.
Si es una carretera frecuentada por ciclistas, y lo tiene en memoria, disminuye velocidad.
Si hay un borracho cruzando en medio de una curva con cambio de rasante y de noche, y aun asi no le ve. Lo atropella.
Lo mismo el que tiene un error de concepcion es tu cerebro que solo contempla una variable
Un coche se desplaza por una carretera comarcal cualquiera a una velocidad moderada ¿60-70?. En varios puntos los muros de las fincas bordean la carretera.
¿de verdad esperas que un sensor sea capaz de detectar un jabalí escondido detrás de un muro de piedra? ¿a que distancia?
Y supongamos que lo detecta. Reduce la velocidad a ¿20? Y asi continuamente. ¿querrias desplazarte en ese vehiculo?
Apa! Deu!
¿Como pasa el jabali?
¿saltando?
En su dia trabajé con equipo militar.
Te sorprenderias lo que pueden llegar a ver y a que distancia.
Si algún @admin quiere hacerme el favor de tachar el mensaje #1 y poner detrás "Lo siento, me he equivocado, no volverá a ocurrir" se lo agradeceré.
Pero vamos ya veo que has optado por que aunque lo detecte más tarde de que pueda frenar seguro, mate al otro. Así solucionas el dilema. Me parece bien.
En el futuro no lo sé, me aventuro a pensar que sí.
En cuanto a inteligencia, el teléfono desde el que escribo es más inteligente que mi presidente del gobierno. Aunque esa inteligencia (la del teléfono ) sea infundida y no desarrollada por el.
Pero nos desviamos del tema del post.
Supongamos que tienes razón. Los maravillosos sensores del coche detectan vacas, caballos, burros, jabalis, osos, ciclistas, zorros, zorras y a la procesionaria del pino.
Como resultado, el coche circula casi constantemente a 20 por hora para evitar peligros de colisión.
¿TE COMPRARIAS ESE COCHE?
En caso contrario todos los coches se estrellaran al llegar a la curva.
Lo que no tiene sentido si se supone que estos coches pueden "ver" a los demás coches que circulan cerca de ellos.
Montaña en medio o no.
Tu no lo ves. El coche debería saberlo.
Yo no me subiría en un coche autonomo si no tuviera algo tan básico como esto.
Metete tu descortesia e insultos por donde te quepan. Maja.
Siguiendo ese criterio, deberían eliminar la conducción humana. Eso si que causa muertes importantes, a mansalva.
POr otra parte me sigues sin responder como descubres a un grupo de vejetes que está dando el paseo por la carretera del pueblo y están pasada la curva mal puestos. ¿qué sensor usarías? Bueno, en el mensaje anterior directamente les atropellas por inconscientes. Es una solución.
Dos semanas despues su marido falleció por atropello en medio de una autopista.
Habia un coche averiado, salió del vehiculo por el lado del conductor, hacia la carretera.
Un coche que no los vio, se lo llevó por delante. Y lo mató.
¿Debemos culpar a ese conductor? ¿O a el? ¿Por ser un imprudente con buenas intenciones?
No digo lo del atropello por decir.
Pero no podemos olvidar que ese entorno, debido a la naturaleza y la propia naturaleza humana, NUNCA se va a dar.
Y, ademas, los comienzos de ese entorno (en un posible futuro cercano) serán con una minoría de coches autónomos rodeados de vehículos antiguos, no autónomos y que no les comunican sus intenciones. Ademas de peatones, animales y argayos autonomos
Ese es el problema para que la conduccion autonoma se implante.
Todo lo demas me parece mas peligroso que seguir conduciendo de forma manual.
Si lo que queremos es un coche como el de irobot, o lo hacemos así o mejor no lo hacemos.
Evidentemente, los errores propios se aceptan mejor que los de una máquina, pero creo que la diferencia de seguridad que se puede conseguir puede llegar a ser realmente importante. L primera muerte que se produzca con estos coches va a pesar mucho más que las miles de muertes a las que estamos acostumbrados con los actuales.
Si imaginamos las discusiones cuando se reemplazaron los caballos por coches también se pueden aplicar argumentos parecidos en contra del cambio: Habrá que asfaltar todas las calzadas? Distribuir puntos de carga cuando el caballo puede comer la hierba que encuentre por ahí? Y si falla la fabricación de alguna pieza, o los de Volkswagen la trucan para saltarse las normativas actuales de contaminación equina?